ビジネスと経営への生成AI(&LLM)の適応

1.1K Views

September 06, 24

スライド概要

ちらほらAIバブル崩壊がささやかれるようになってきた。この背景には、あまりに巨額のAI投資に見合うリターンが得られないのではないかとの懸念がある。・・この懸念を払拭するには、目先の生成AI活用のレベルを遥かに超えて、企業組織の根幹に生成AIを統合し、企業の生産性向上と収益向上の見通しを示す必要がある。・・しかし、この実現には様々な課題克服が必要である。今回はこのような課題に焦点を当てて、直近の状況をまとめてみた。

profile-image

定年まで35年間あるIT企業に勤めていました。その後、大学教員を5年。定年になって、非常勤講師を少々と、ある標準化機関の顧問。そこも定年になって数年前にB-frontier研究所を立ち上げました。この名前で、IT関係の英語論文(経営学的視点のもの)をダウンロードし、その紹介と自分で考えた内容を取り交ぜて情報公開しています。幾つかの学会で学会発表なども。昔、ITバブル崩壊の直前、ダイヤモンド社からIT革命本「デジタル融合市場」を出版したこともあります。こんな経験が今に続く情報発信の原点です。

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

関連スライド

各ページのテキスト
1.

ビジネスと経営への生成AI(&LLM)の適応 B-frontier 研究所 高橋 浩 1

2.

目的 • 生成AIは将に今、Gartnerハイプカーブの「ピーク期」にあり、 この先「幻滅期」に入る突端にいる。(次頁図参照) • 多くのAIプロジェクトが失敗あるいは壁にぶつかっているとの推 測もある。 • この背景に、LLM(大規模言語モデル)が必ずしも人々の期待に一 致せず、多様な分野で高リスク問題に見通しを示せていないこと がある。 • 従って、現在、生成AIは人間の支援ツールとして利用されている 段階だが、この先企業組織の中枢に生成AIを統合するような場合 に向けては本格的展望が描けていない。 • このままではハイプカーブの「啓発期」「安定期」への展望が曖 昧である。 • 本稿は、このような問題認識から、企業のビジネス・経営に生成 AIを本格導入する際、どのような課題が想定されるのかに焦点を 当てて考察することを目的とする。

3.

生成AIのハイプ・サイクル(2023.9) 2年未満 2~5年 5~10年 10年以上 主流の採用までに要する年数 大規模言語モデル(LLM) 生成AIワークロード向けアクセラレータ 生成AI対応仮想アシスタント 生成AI対応アプリケーション 黎明期 「過度な期待」 のピーク期 幻滅期 啓発期 生産性の安定期 Gartner

4.

目次 1. 2. 3. 4. はじめに ビジネスと経営における生成AIの視点 生成AIによる生産性の向上 人間とAIの関係性:生成AIは新たな 同僚たりうるか? 5. AI、労働者と仕事の未来 4

5.

1.はじめに 生成AIのビジネス&経営への適応 • 汎用の生成AIツールは基本的には企業独自コンテンツや企業 固有知識に関する質問には回答できない。 • しかし、今日の経営環境では企業独自の知的資産を活用した 競争力強化や変革力の保持が必須条件である。 • この基本となる企業内知識は、通常、個人の考え、レポート、 ディスカッションボード、オンラインチャット、会議など企 業内の様々なソースや形式から取得される。 • しかし、これらから包括的知識の収斂や効率的/効果的な戦 略や知見の整理、それに基づく展開は極めて難しい。 • LLMの言語処理能力や推論能力を利用して、企業内の知的 資産を整理・蓄積し、ビジネス&経営への適応を目指す組織 体は増えているが問題は多い。

6.

幾つかの課題例 1. 生成AI ベースの知識管理技術の選択と確立 1)LLMを最初からトレーニングするか、2)既存LLMの微調整とする か、3)あるいは既存LLMへのプロンプト調整で済ますか、など 2. 元来のコンテンツの品質向上とガバナンス 3. 生成 AI が生成したコンテンツの品質保証と評価 1) 正解が分かっている「黄金の400の質問」で評価(モルガンスタンレー) など、企業独自の方法による品質保証手段の確立 4. 法的およびガバナンス的問題への対応 1) 厳密に調整された LLM によって対処するか、2)それとも 管理プ ロセスに法定代理人を関与させるか、など 5. 従業員を含む適切なユーザー行動の育成 1) 生成 AI ベース知識管理システムを成功に導くための透明性や説明 責任の文化を育成するためのAIリテラシー向上法の確立、など

7.

本稿での取り組み • ビジネス&経営への生成AIの本格導入の課題は極めて複雑で 多様であることから、現状での包括的取組みは難しいのが現 実である。 • そこで、本稿では次のような限定的視点からの検討で本課題 への第一歩とする。 1. 生成AIをより深く理解するための理論的視点の抽出・・ 2節 2. 生成AIによる生産性向上の文献レビュー・・3節 3. 人間とAIの関係性についての検討の紹介・・4節 4. 生成AI時代の労働者と仕事の未来・・5節

8.

2.ビジネスと経営における生成AIの視点 より堅牢な生成AIの理解に向けて • 生成AIを評価し使用するためには慎重で責任のあるアプロー チが必要である。 • そこで、生成AIを職場に導入して利用する際の理解の枠組み として次の視点から3つの切り口を検討する。 職場に生成AIを本格導入すると、「人 対 人」は「人 対 生成 AI」に変化するので、職場の関係性は再概念化が求められる。 (1)• 生成AIが大規模に導入される職場では機能と効果は事前に 決定されるのではなく、人々の利用と決定の積み重ねに よって形成される。 ・・即ち、未来がどのようになるかは分からない。

9.

より堅牢な生成AIの理解に向けて(続) (2)• 生成AIの大規模導入では、生成AI単独の特異性と言うより は寧ろ生成AI活用に寄与しうる文脈的関係性が重要になる。 ・・即ち、職場の関係性変更に係わる行為は文脈が重要である。 (3)• 生成AIを日常業務に統合すると、「チーム」の概念の再定 義が必要になる。従来のチームは個々人で構成されている が、生成AIは違う。生成AIは人間のように見えても、人間 のような感情、欲望、意図、責任を持たない。 ・・即ち、生成AIは従来のチームワークに混乱をもたらす。

10.

(1)の補足:生成AI固有の効用 • 我々は将来の世代(あるいは未来)が何を期待しているのか を理解していない。 • それにもかかわらず、ますます彼等の要求(あるいは未来) に応えるように求められる。 • そうであり、且つ未来が驚きに満ちているのだとすれば、生 成AIは未来を予測すると言うよりは、未来を想像し作成する プロセスに役立つかもしれない。 • また、生成AIは明らかではないものの探索を促進し、物事を 当然のことと見做さないことに役立つかもしれない。 • 従って、生成AIは、同じデータセットから複雑な状況に対す る意思決定を調整する余地を残した代替オプション提示の手 段として役立つかもしれない。

11.

(2)の補足:歴史的視点からの文脈理解 • 生成AI発展の特徴と進化の過程を正確に理解する必要がある。 • 新技術が登場すると、それが我々の生活をより良く変化させ るだろうとの期待と、それが既存社会の取組みを混乱させる だろうとの懸念が生じる。 1) 経済的社会的利益が約束される想像上の新しい未来と、 2) 雇用の破壊、社会的混乱、機械による支配の脅威などの懸念 • 生成AI本格導入では、この善悪双方の想像力が互いに競合す ることが予想される。 • 生成AIのような社会的に重要な技術は、1) 新技術出現の背 景, 2) 関連する約束, 3) 社会への影響, 4) 展開の方法などを 充分に認識する必要がある。 • 良い空想と悪い空想は実際には事後的な特定の文脈の中でし か最終的には理解されないかもしれない。

12.

(3)の補足-1:組織チームにおける生成AI • 生成AIは事実上仮想のAIチームのAIメンバーになる。 • そこで、生成AIを人間の意思決定の支援ツールと見做すだけでな く、そもそも生成AIはチームの意思決定とタスク実行で直接的か つ本質的な役割を果たせるのかの設問に移る。 • AIメンバーはAIチームのパフォーマンスを向上させられるか? • 組織は彼等を信頼できるか?できる場合、どの程度信頼できるか? • 意思決定に対し、AIチームはどの程度代替として機能するか? • AIチームがタスクを完了した場合、成功と失敗の責任は誰が負うか? • このような状況に対応するため、チーム構成の再考が必要になる。 • AIメンバーとペアになる人間は一人で充分か? • 生成AIはチーム構成の一部と見做すべきか? • 個人が人間のチームメンバーと同じようなレベルでAIメンバーに信頼を 抱くことは可能か?

13.

(3)の補足-2:AI時代のプロフェッショナリズム • 生成AIは専門職社会を支えている根深い前提や理解に疑問を 投げかける。 • 専門職は通常、仕事の定義、パフォーマンス、評価、実行条 件などについて高度な制御権を持っている(例:医者、弁護 士、など)。 • 生成AIはこのような組織原理としての専門性を損なう恐れが ある。 • 想定される展開の一つは、専門的知識が技術的ソリューショ ンとして日常化され、個々の専門家から非専門家によって運 営されるシステムに価値移転されることである。 • 結果、専門職としての自律的組織、知識の非対称性などに変 化が生じる。

14.

中間まとめ • 上述の検討から次のような洞察が得られる。 洞察 1. 生成AIが大規模導入された職場では、生成AI活 用の作業と結果は動的に出現する。 洞察 2. 生成AIが大規模導入された職場での生成AI活用 に伴う関係性は、社会活動的な文脈に依存して 認識される。 洞察 3. 生成AIを人間と共存させるグループでは従来の チームワークの混乱は避けられない。しかし、 その中から新しい知識と未知の問題解決が出現 する可能性がある。

15.

3.生成AIによる生産性の向上 基本認識 • 生成AIは組織のパフォーマンスを向上させると認識されてお り、各組織で重要性が強調されている。 • 生産性/効率性向上は、民間、公共、政府部門を問わず世界 中の組織における普遍的な目標である。 • 結果、企業の幹部などは、企業現場での生成AIの戦略的活用 が生産性向上に有用なソリューションを提供すると認識して いる。 • 生成AIの技術革新(例:RAGなど)が自組織の枠組みで生産 性向上の課題に独自のアプローチを可能にしてくれるとも期 待している。

16.

生産性向上に関する包括的論文レビュー • そこで、生産性向上に関する包括的な最新サーベイ論文を紹 介する。 • 1989-2023年間の関連する論文をSCOPUSで収集 • 検索キーワードの例:「生産性」,「生成AI」,「従業員」,「効率」, 「労働者」,「ChatGPT」,「GAI」,「チャットボット」など • 683件の論文を抽出 • 厳密な文献スクリーニングに基づいて論文を再評価した結果、 159件が残った。 • これ等の論文を対象にコンテンツ分析を実施した。 • 生成AIの適応パターン • 効率向上/生産性向上/創造性向上などに対する生成AIの影響 • など

17.

分析の概要 • 生成AIの適応を8つの領域に分類して検討している。 • 学術研究機関、エンジニアリングと技術、コミュニケーションと文 化研究、医療とヘルスケア、農業,農業科学,政府,行政、経営管理と 組織、その他、コンピュータサイエンスとAI • 分析結果を2つの図で示す。 • 図1:さまざまな領域の従業員の生産性に対する 生成AI の影響を Fishbone分析によって示している。 • Fishbone分析とは:「現在の結果」(特性)がどのような要因で発生したの かを図式化したもの。魚の骨に似た形になるので、フィッシュボーンと呼称 • 図2:さまざまな領域における生成AIの研究と応用の概要を、その領 域における相対的な研究量を表す円の大きさとともに示している。

18.

図1:さまざまな領域の従業員の生産性に対する 生成AI の影響 (Fishbone分析による) 効果 原因 学術研究機関へ の生成AIの適応 コミュニケーションと文 化研究への生成AIの適応 エンジニアリングと技 術への生成AIの適応 倫理とプラ イバシーに 関する懸念 生成AIアプリケーショ ン内の偏見と差別 人間経験 の喪失 資格のある教師と研究者 セキュリティ上の懸念 品質保証と評価 能力の割 り当て 技術へのアクセス に関する問題 実装上の 課題 トレーニン グと資格 技術イン フラ 技術の受容 法律および規 制上の課題 農業,農業科学,政府,行 政への生成AIの適応 生成AIは文化的に敏 感なトピックに適切 に答えるのが難しい 機密性とセ キュリティ スキルトレー ニングと開発 データの品質と プライバシー ユーザー経 験への影響 技術と人間 のバランス 生産性向上のための パフォーマンス評価 経営管理と組織へ の生成AIの適応 その他への生 成AIの適応 医療とヘルスケア への生成AIの適応 適切なトレー ニングと資格 観光で生成AIは訪問者 にポジティブな体験を 提供する必要がある 患者の安全 を守るため の倫理ガイ ドライン 健康データのプラ イバシーとセキュ リティ 継続的な評 価と改善 インフラの不足 倫理的および 社会的問題 生成AI手順の適用 について従業員を トレーニング 高額な初期 投資コスト 生成AIをさま ざまな組織部 門の業務に統 合することに よる従業員の 生産性の向上 コンピュータサイエンス とAIへの生成AIの適応 18

19.

図2:さまざまな領域における生成AIの研究と応用の概要 分析と予測 における生 成AIの応用 教育の多様性と 革新的な教育 生成AI が教育の生 産性に与える影響 生成AIによる行 政支援の改善 従業員の生産 性の向上 生成AI技術を使用した 従業員の効率の向上 コンピュータ サイエンスと AI 学術研究 機関 人間と機械のイ ンタラクション エンジニアリ ングと技術 生成AIと組織タ スクのバランス その他 スタッフの 生産性向上 生成 AI(GAI) 経営管理と 組織 情報フローの改 善とビジネスプ ロセスの強化 改善された知識 プラットフォー ムを作成する 観光の生産性 ユーザー体 験の向上 医療とヘル スケア 農業、農業科学、 政府および行政 従業員 のスキ ル向上 生成AIを研究状 況に統合する コミュニケーショ ンと文化研究 生成AI技術を文化 環境に統合する データのプライバシーと倫理 サービス品質 臨床業務 の改善 生成AI使用における データプライバシーと インフラストラクチャ 19

20.

図の解説 図1 • 8領域個別の特性が抽出されてはいるが、倫理面、セ キュリティのような一般的指標を超えて生産性に係わる 有力な共通指標は必ずしもクローズアップされていない。 • 定性的特性の指摘に留まることもあって、生産性向上に 向けた施策への示唆は不充分と言える。 • 包括的には現状はこの辺りが限界かと思われる 図2 • 技術指向の「コンピュータサイエンスとAI」を除くと、 「経営管理と組織」、次に「医療とヘルスケア」の円が 大きく、ビジネスと経営への生成AI活用に大きな関心が 寄せられていることが分かる。 • その一方、研究分野は多方面にバラついており、焦点を 絞ったあるいは定量的研究は少ない。

21.

中間まとめ • 上述の検討から次のような結論が想定される。 結論 1. 生産性向上に向けた検討は、現状では適応分野 毎に特に注意すべき留意事項の抽出に留まる。 結論 2. 従って、分野横断的な生産性向上へのガイドラ イン示唆や実施のための手順提示などのレベル には到っていない。 結論 3. 結果、生産性向上を実現するための学術的知見 は不充分なので、実質的には企業の挑戦に委ね られている。

22.

4.人間とAIの関係性:生成AIは新たな同僚たりうるか? 基本認識 • 生成AIが人間のような能力を高めて行くに連れ、AIをツール の視点でのみ評価するのではなく、AIを人間とのコラボレー ションの参加者と見做す見方に移行すべきとの認識が登場し ている。 • しかし、このような状況への研究が期待されてはいるが、人 間と生成AIの関係性に関する実証研究は少ない。 • また、研究の方法論は現状では定性的アプローチにならざる を得ない。 • そこで、本稿では定性的アプローチの企画に工夫を凝らした 最新の研究の概要を紹介する。

23.

研究に対する基本方針 • 生成AIは既に個別には管理タスク、戦略タスクの双方を実行 でき、経営慣行のあらゆる範囲に参入できるレベルに達して いると評価されている。 • これにより、生成AIを管理者の日常業務の対等な対応相手と 捉える文脈が生まれる一方、管理者が生成AIをどのように扱 うのかについての疑念も生じている。 • また、生成AIのブラックボックス的特性がAI出力の不確実性 を生じさせ、生成AIを適応する職種/職場によって状況が大 きく異なることも研究を妨げている。 • そこで、本研究は、適応分野を特定せず、生成AIと人間との 関係をミクロレベルのAIと人間のやり取りに焦点を当て、大 きくツールベースとコラボレーションベースに二分する考え 方で進めている。

24.

方法論 • 生成AIと管理者の関係性研究の方法として、組織慣行ではなく、 AIと管理者の関係慣行の観察に重点を置く。 • そして、適切な当事者に高度に準備したインタビューを行うこと で有益な情報収集を目指す。 • 関係慣行に焦点を当てて収集したデータはテーマ別に分析する。 • そうすることで、生成AIと管理者双方が関与する行動から、両者 間の関係性を形成する進化のプロセスに係わる知見を抽出する。 • 概略プロフィール: • 構造化した2段階のインタビューの実施(28件) • インタビュー相手:ドイツ、スエーデンの大手企業の当該テーマに適切 なキーマンへのインタビュー(CTO, 戦略担当役員, 等) • インタビュー手法の概要を次頁表に示す。

25.

インタビュー時のミクロレベルの設定とテーマ別分類 第1段階:ミクロな関係慣行のやり取り 第2段階:テーマの特定 ルーチンベースのタスク、時間のかかるタスク、思考プロセ スに関するインスピレーション、などを対象とする。 「AIはタスクを実行するものであると認識す る」視点 戦略的タスクに費やす時間が増え、パートナーと過ごす時間 が増え、仕事の質を高める時間が増えるのを改善する視点 「管理者はAIによりより多くのタスクを実行 できる」との視点 データアクセスの実施や、それと関係するサードパーティ情 「AIはデータの可用性を獲得できるが課題も 報、個人情報、戦略的な企業情報の扱い、などを対象とする。 多い」との視点 実践の適応、不明瞭な使用法、時間のかかるプロンプト、な どを対象とする。 「管理者が仕事の習慣を変える必要がある」 との視点 不確かなトピックを確認する視点 「AIが個人への安心感を与え得る」との視点 AIによる誤った結果の可能性、幻覚に対する感受性、倫理に 対する感受性、情報源の制御、などを対象とする。 「管理者が事実確認を厳格に行う」との視点 管理者が生成された結果に責任を負う視点 「AIが仕事の責任を問う(または負う)」視点 生成AIの結果の書き換え、著作権の確保、努力への感謝、な どの視点 「管理者がパーソナライズを行う」視点 応答性の高い議論、簡易なユーザーインターフェース、管理 者と AI 間の文脈の提供、などの視点 「AIが人間のようにコミュニケーションす る」視点 ニックネーム、同僚の代わりになるAIのアプローチ、AIなし では想像できない状態、などへの視点 「管理者が人間同士のやり取りをAIに置き換 える」視点 文脈に関する理解度が低い、フォローアップの質問に対する 積極性がない、などの視点 「AIは完全な人間ではないと認識する」視点 結果を人間に提示する、人間の経験を加える、などの視点 「管理者がグループの結束を求める」視点 集約された相互作用 支援 ためらい 検証 パートナーシップ

26.

インタビューの例 支援 【「会議に参加する人数が減り、AI が生成した要約が 送信されてきます。」「会議中に話された内容はこれ です。これが重要なポイントです。実行されたタスク はこれです」。 … 電子メールで済ませられるはずの 会議に時間を費やす代わりに、要約を受け取るだけで 済む。】 ためらい【この業界では時間はお金です。私たちは時間を売ってお り、誰もが週末、夕方、夜にたくさん働くというプレッ シャーにさらされています。そして、少し時間を取って 「いや、でも今は新しいやり方でやってみよう」と立ち止 まらなければなりません。これは、何か新しいことを始め る前の境界線のようなものです。】

27.

インタビューの例(続) 検証 【多くの場合、それ(生成AI)は形式的すぎるように聞こ えます。単に良すぎるように聞こえます。 「私の同僚はそれを書きませんでした。(…)彼がそ のように書くのを見たことはありません。しかし、今 では突然、彼は(生成AIを意識してか?)非常に正確 で形式的に書くようになりました。」】 パートナーシップ【私のコミュニケーターは、通常、CEO のスピーチを書く のを手伝ってくれます。一緒に座ってしばらく過ごすこと もよくあります(…)。そのため、準備ができるまでに数 回のターンが必要です。今回は、土曜日に AI を介してほ ぼ瞬時に行われ、週末に来てこれを書く必要はありません でした。 】

28.

管理者がAIとの関係性を形成する進化のプロセス 観点 相互作用 支援 ツールの 観点 ためらい 検証 AIの役割 アフォーダンス 制約事項 「ジュニアアシスタ ント」 AIは、責任やタスクに関する知識 があまり必要とされない、ルーチ ンベースで時間のかかるタスクを 引き継ぐことができる。 AIへの信頼は非常に限ら れており、意思決定を含 むタスクは関係から除外 されている。 この関係は、AIからより良い結果 を得るためにルーチンを適応およ び変更する価値があると考える。 信頼と責任はデータセ キュリティの面で敏感な 話題であり、適応を遅ら せる。 AIは高い知識を持ち、不安の障壁 を克服し、状況を理解する上で管 理者を支援することができると考 える。但し、責任は草案や提案の 提供まで管理者に及ぶ。 AIに対する信頼は、幻覚 や誤解によって依然とし て限定的である。管理者 は、AIのソースと文言に ついて深く考えることで 責任を負い続ける。 この関係は、高い信頼と低い反省 などで人間との関係に匹敵する。 特定の分野では人間よりもAIのほ うが安心できると管理者が感じる 領域にまで及ぶ。 AIは連帯感を提供できな いため、人間の同僚への 信頼はより重視される 「社外フリーラン サー」 「知識のある人」 コラボ レーショ ンの観点 パートナー シップ 「仲間」で「同僚」 :AIが管理者の「同僚」になる段階までの4つのステップを示している。

29.

アフォーダンスとは? • 「アフォーダンス」は元々は知覚心理学研究の一環とし て導入された。・・・・・・・James Gibson(1986) • 「アフォーダンス」は「特定の目的を持った個人または 組織が、その技術、資源などを使用して何ができる か?」という視点に焦点を当てる。 • 今回の文脈では「アクター(管理者)はその品質/機能で はなく、特定の用途の文脈で価値生成するために生成AI と対話する。」と定義できる。 • 特定のユーザー(または文脈)に関係して、オブジェク ト(生成AI、デジタル技術、APIなどの境界資源)によっ て提供される活動の可能性を認識するのに有効とされて いる。

30.

表の解説:ツールの観点 • 試行錯誤の段階を通じて管理者はAIを経営慣行のツールとして認識する。 「ジュニアアシスタント」の段階: • 管理者はAIと対話することで毎日の作業負荷を軽減することを目指す。 • そして不要な義務から解放されることで管理業務を実行するAIに反応する。 • 相互作用(支援)はAIが意図した目標を達成できるかどうかという管理者 の認識(アフォーダンス)に基づいている。 「社外フリーランサー」の段階: • 生成AIを管理者の日常業務に組み込むには仕事の習慣を変える必要が出 て来る。 • そして、潜在的データの漏洩やデータ分析に対するためらいが管理者に とってのリスクと認識される。 • この過程で管理者は不透明なツールによって制御を受けたと認識した場 合、AIを自らと密接な関係にない社外フリーランサーのように感じる。

31.

表の解説:コラボレーションの観点 • 管理者はAI活用をプライバシーや信頼性リスク克服の調整と認識する。 「知識のある人」の段階: • 管理者はAIから提供された結果を事実検証する新たな慣行を作成する。 • その中でAIの知識と管理者の曖昧な質問に回答し文脈をより良く理解する AIの能力を確認する。 • このことでAIの利点を特定し、生成AIによる管理業務の増強を目指す。 「「仲間」で「同僚」」の段階: • 管理者とAIとの相互作用は目に見えて絡み合うようになる。 • 管理者は徐々に同僚の代わりにAIにアプローチするようにルーチンを変 更し、AIとの間が人間とのやり取りのようになってくる。 • 結果、管理者は同僚よりもAIとのやり取りの方がより快適だと感じる場 面も登場してくる。

32.

最終段階の「パートナーシップ」 • 最終的には管理者とAIとの関係性は収集されたデータに基 づくパートナーの段階に到達する。 • 但し、生成AIは急速に変化する技術であり、アルゴリズム も常に更新されるので、時間の経過とともに関係性も変化 する運命にある。 • それにも関わらず、管理者はAIとのミクロな視点からの関 係性に一定の安定を維持できる可能性がある。 • 何故なら、インタビューの結果からはAIに基づく意思決定 に言及した人はおらず、寧ろAIに意思決定を任せないこと が強調されていた。実践的な範囲限定の知恵が登場する。 • AIは意思決定に重要な暗黙知、即ち経験を通じて具体化さ れた知識に基づく判断力は欠けており、AIへの信頼と連帯 感が向く範囲は特定されると考えられる。

33.

中間まとめ • 上述の検討から次のようなことが結論付けられる。 結論 1. ミクロレベルのAIと人間とのやり取りを、関係慣 行に焦点を当ててインタビューした結果は4つの 相互作用(次元)に集約できた。 結論 2. この4次元にアフォーダンスの概念を適応するこ とで、AIの役割の変化を4段階に整理できた。 結論 3. 管理者は必ずしも連続的にAIの役割の変化に従う 必要はないが、一定レベルで管理者とAIの関係性 進化のプロセスは特定できた。 結論 4. 本枠組みは分野横断的な枠組みとして実施してい るので、各分野の個別ケースで一定の有用性を発 揮すると考えられる。

34.

5.AI、労働者と仕事の未来 基本認識 • 歴史的に組織への技術使用は人間の仕事の本質を変えてきた。 • 例えば、ブルーカラーの仕事に組立ライン導入はブルーカ ラーの仕事を本質的に変えた。 • 生成AIも、ホワイトカラーの仕事に組織革命をもたらし、同 等レベルの影響を与える可能性がある。 • これを推測するため、次のステップを考える。 • 生成AIとは何か? • 生成AIは仕事にどのように影響するか? • このような変化に労働者はどのように反応するか? • 生成AI技術が生み出す仕事の未来はどのようになるか?

35.

生成AIとは何か? • 生成AIが人間の労働者にどのような影響を与えるか考えるに は生成AIの機能と制限事項を理解する必要がある。 • 機能:機械学習、自然言語処理、画像処理などの機能を駆使 し、ユーザープロンプトに基づいて対応する生成AIツール (テキスト、画像/ビデオ、音声/音楽、コード, などに対 応) 次頁図参照 • 制限事項:生成AIの分析能力は人間の能力を超えてはいるが、 これらの技術には限界があり、高いリスク管理が求められる 分野には適応できない(あるいは限界がある)。(例:人事 管理、医療、司法、など) • 従って、生成AIを作業現場に導入する際には、利点と限界の 両方を慎重に評価する必要がある。

36.

生成AI由来のモデル/システム/アプリケーションの視点 • 選択されたデータ・モダリティ(テキスト、画像、音声、 コードなど)に渡る生成AIの体系図を示す。 モデル レベル システム レベル アプリケーション レベル 様々なデータ形式(画像、 テキスト、コードなど) の基礎となる AI モデル モデル機能を埋め込んで インタラクション用のイ ンターフェースを提供 テキスト 生成 X-to-text モデル 例: GPT-4、LLaMA2 会話エージェントや検 索エンジン 例: ChatGPT, YouChat • 画像/ビデオ 生成 X-to-imageモデル 例:Stable Diffusion, DALL-E 2 画像/動画生成システム とボット 例:Runway、 Midjourney • 音声/音楽 生成 X-to-音声/音楽モデル 例:MusicLM, VALL-E 音声生成システム 例: ElevenLabs • • AI 音楽生成 テキスト読み上げ生成 (ニュース、製品チュート リアルなど) コード 生成 X-to-コードモデル 例:Codex, AlphaCode プログラミングコード生 成システム 例:GitHub Copilot • • ソフトウェア開発 コードの合成、レビュー、 ドキュメント作成 出力形態の選択 特定のビジネス上の問 題と利害関係者のニー ズを解決 • • コンテンツ生成(SEO、カ スタマーサービスなど) 翻訳とテキスト要約 プロダクト合成やビジュア ル広告 教育コンテンツ

37.

生成AIは仕事にどのように影響するか? • 一般に生成AI技術は3つのチャネルを通じて人間の仕事に 影響を与える。 代替チャネル:• 人間の仕事の側面(一部または全部)を 置き換える。 補完チャネル:• 人間の労働者のスキルを補完あるいは洞 察や出力を提供する。 生成チャネル:• AIが労働者に新しいタスクを生成する。 • これらは相互に排他的ではなく、複雑な方法で相互作用す る。

38.

労働者はどのように反応するか? • 労働者にとっての生成AIの潜在的利点と欠点を理解するこ とは、労働者の反応を理解するのに役立つ。 利点 • 労働者がAIを信頼している場合、システムの質が良いと 認識している場合、AIを効果的に利用するスキルを保有 している場合、AI使用体験は良好である。 • 労働者は自律性を高めたり、役割の要求を緩和したり、 仕事の設計を改善したりして、AIの利点を享受できる。 欠点 • 権威主義的組織ではAIは「アルゴリズムの檻」となり、労働 者はAIの価値を理解せず抵抗を高める危険性がある。 • 今や労働者は広範なデジタル痕跡を残すので、AIによる「行 動の可視化」が行われると構える危険性がある。 • 結果、アルゴリズム管理は労働者のストレスや不安を高める。

39.

AIを活用した職場における仕事のスキルの未来 • 人間とAIのコラボレーションが何らかの形で多くの職場の仕 事の特徴になる可能性が高い。 • このような動向に向け、将来の仕事の重要な要素と考えられ るのはAIリテラシーを持つことである。 • AIリテラシーは、「目的に沿って効率的で倫理的にAI使用を可能に するAI適応各分野での人間の熟練度」と定義される。 • この中には、1) 技術関連の能力、2) 人間と機械連携の能力、3) 仕 事関連の能力、および、4) 学習能力が含まれる。 • 労働者はAI主導の洞察から価値を引き出すために、他分野に 跨る各種チームで働くことに慣れることも必要になる。 • また、対人スキル、共感、社会的および感情的知性に関する ソフトスキルの高まりにも対応できる準備が必要である。

40.

全体まとめ 1節 1. 組織への生成AIの本格導入は本質的に難しい。 2節 2. 生成AIを本格的に組織に導入すると行動様式が大きく変わる (目標の立て方、チーム編成の仕方、あるいは専門職社会と の齟齬の解決、など)。 3節 3. 生産性向上策は既存ルールの元での効率化ではなくなり、組 織変革やプロセス変革を伴う。そのような場合、従来の評価 尺度は使用できなくなる。 4節 4. このように行動様式や組織変革が伴う際は、人間と生成AI間 の新たなコラボレーション構築が必要になる。但し、一筋縄 では行かないので、適切なステップを踏む必要がある。 5節 5. このような変化が発生する職場で適切に振る舞うには、従業 員は従来とは異なるスキルやAIリテラシーを身に着ける必要 がある。これには本人の努力だけでなく、企業や社会の学習 に向けた投資など一定の社会的覚醒も必要になる。

41.

文献