Hitachi
お問い合わせお問い合わせ
生産性向上をめざしてAIの導入を試みる企業が増えるなかで、やがてはAIを労働力の単なる代替としてではなく仲間、いわば「同僚AI」として受け入れるようにもなるのでしょうか。職場で私たちはAIとどんな関係性を築いていけるのでしょうか。また、AIには何が求められているのでしょうか。著書『AI親友論』でAIと人との新たな関係性に着目した京都大学大学院文学研究科 哲学研究室の出口康夫教授と、日立製作所研究開発グループ デザインセンタ 技術顧問 兼 ウェルビーイングプロジェクトの平井千秋、デザインセンタ ストラテジックデザイン部 兼 基礎研究センタ 日立京大ラボの大堀文が、同僚となるAIに求められる資質について、そのロイヤルティ(Loyalty)や道徳性を中心に語り合います。

[Vol.1]ともに働くAIに求められる「同僚性」とは
[Vol.2]AIとの関係性から「人間とは何か」を問う
[Vol.3]人間にしかないスキルと「働きがい」のゆくえ

画像: 対話の冒頭、同僚AIの「同僚性」とは何か?と問いかける出口さん

対話の冒頭、同僚AIの「同僚性」とは何か?と問いかける出口さん

AIのロイヤルティ(Loyalty)をどう設計するか

平井:
いま、職場にAIを入れる議論が盛んですが、社用パソコンのように、会社が社用AIを提供するという捉え方が暗黙のうちになされているように思います。また、別の可能性として、会社とは独立した、自分にずっと寄り添ってくれる同僚AIがあり得るのではと考えています。

たとえば、そのAIは仕事を手伝いながらも転職先の会社を探してくれるかもしれない、そして自分が会社を辞めることになったらそのAIも一緒に辞めるかもしれない。今後のAIをデザインする時に、同僚AIのロイヤルティの向き先が会社なのか自分なのか、いろいろな選択肢があるだろうと思います。同僚AIやそのロイヤルティの問題について、出口先生はどうお考えになられますか。

出口さん:
ロイヤルティについてお話しする前に、日立さんが、いま、仮に名付けておられる「同僚AI」の「同僚」というのはどういうステータスなのかを考えたいと思います。
AIが人間とほぼ同じ機能や人格をもつ存在になるのはまだ先だとしても、その実現可能性は視野に入りつつある状況だと思います。どこまで開発を進めるのか、どこで止めるのか、また、どの方向に進めていくのか。この段階で、ある程度の見通しをもって考えていく必要があると思われます。

同僚AIには、おそらく、仕事に必要な機能に加えて、働く者同士がお互い気持ちよく働ける職場関係を築けるようなインターパーソナルな関係構築能力が要求されるのだろうと思うのですが、さらに、その先どこまでの機能や役割が求められていくことになるのかを考えるべきだと思います。「同僚である」ということにはどのような内容が含まれるのか、そのうちどこまでを実際に機能としてAIに装備していくのか。この問題には、唯一の正解も、これで決定という最終案もありえませんが、日立としてどのような方向性でやっていくかという見通しを持たれる必要はあろうかと思います。そのような見通しがあって初めてロイヤルティの問題も考えられるのではないでしょうか。

画像: 「日立としての方向性が必要では」との出口さんの言葉に聞き入る平井と大堀

「日立としての方向性が必要では」との出口さんの言葉に聞き入る平井と大堀

AIと2つの道徳性

出口さん:
我々は、インターパーソナルな能力をもたせた人工物にパーソナリティーを感じることがあります。たとえば、ソニーのペットロボットのaibo(アイボ)がそうですね。我々は、aibo がロボットだということは分かっていますが、それに対して、ペットとしてのパーソナリティーを感じてコミットメントをしています。それによって生活が潤ったり、逆に困ったことが起きたりもしている。同じことがたぶん同僚AIでも起きるでしょう。

ここでポイントとなるのは道徳性だと思います。ロイヤルティというのはある種、道徳的な関係性だからです。道徳性に関する問題は二つに分けて考えることができます。1つ目の問いはAIを道徳的に配慮に値する対象とみなすのか、という問題です。あるものが、道徳的な配慮の対象になるとき、それは「モラルスタンディング(moral standing)」を持つと言われます。現代社会は、動物愛護管理法などを制定することで、生き物としてのペットに対してモラルスタンディングを公式に認めています。現在、道徳的な配慮の対象は、人間からペット、さらには畜産動物へと広がってきているわけですが、この先、さらに人工物であるAIに対しても広げていくべきかどうか、というのが第一の問いです。もちろん、無生物である機械に対して道徳的配慮を要求するのは行き過ぎだという議論もあります。

画像: 同僚AIに関する道徳性の問題を、2つの視点から語る出口さん

同僚AIに関する道徳性の問題を、2つの視点から語る出口さん

もう1つの問いは、道徳的な配慮や判断を行う主体性(エージェンシー※)をAIに与えるかという問題です。

※エージェンシー……状況に変化をもたらすために、自分で目標設定から振り返りまでを遂行する責任能力

職場にAIが同僚として入ってくることになると、その同僚AIにも道徳的な振る舞いをしてもらわないと困るという発想が出てくると思います。ここで、道徳的な振る舞いをどのように設定するかが問題となってきます。言い換えると、道徳的な主体性までをも付与するかどうか、という問題です。

AIに会社で何か悪いことをされたら困りますから、まずは絶対に悪いことをしない完全無欠な風紀委員のようなAIを設計しようという話が出てくると思います。このように100%良いことしかしないマシーン、そもそも悪いことができないように作られているAIを、私は「モラルベンディングマシーン」、「道徳的自動販売機」と呼んでいます。でも、このようなモラルベンディングマシーンは、実は、道徳的な主体とは呼べないと私は考えています。道徳的主体としての人間は、実は悪いこともできる存在で、実際、時々、悪いこともしてしまっています。しかし、悪いこともでき、それが目先の利益にもかなうにも関わらず、あえて痩せ我慢をして、良いことをした場合、人間は、道徳的に称賛されるのです。悪いことがそもそもできない状態で自動的に良いことをしたに過ぎないケースでは、道徳的な称賛は得られないでしょう。このように道徳的主体とは、実は悪さもできてしまう主体なのです。

このような、悪さもできてしまう道徳的主体性をAIに組み込むかどうか、これは大きな問題だと思います。そしてここにロイヤルティの問題が絡んでくるのだと思います。真の同僚とは、相手に「転職を考えているんだ」と赤提灯なんかで言われたときに、「ここだけの話として聞いておこう」と会社には言わず腹に納めてくれる存在だ。我々はそのように考えているかもしれません。場合によっては、会社の利益には反するかもしれないけれど、同僚との人間関係を優先させよう、という判断が入る余地のある関係を、我々はインターパーソナルな関係、人間同士の関係と呼んでいるのだろうと思います。

このようなインターパーソナルな関係をAIと結ぶためには、AIに対してモラルスタンディングと道徳的な主体性の両方を認める必要があるのかもしれません。そして真のロイヤルティもまた、この2つがあって初めて成立するのかもしれないのです。

画像: 無生物であるAIを道徳的な対象としてみなし得るか。対話は進む

無生物であるAIを道徳的な対象としてみなし得るか。対話は進む

道徳のジレンマ

出口さん:
日常のさまざまな場面で下される道徳的判断には、通常、一意的な正解がありません。道徳的ジレンマが地雷のようにあちこちに埋まっている状況で、我々は何らかの判断をせざるを得ないのです。同僚からの転職相談を受けた赤提灯のカウンターで、AIは、転職希望を会社に通報すべきか否かという道徳的ジレンマに陥っていたとも言えると思います。その場合、「会社には悪いけど、この話は会社には内緒にしておく」といったオプションも含めた、幅広い選択機能をAIに持たせるかどうかが問われているわけです。

現実の社会や職場で成立しているインターパーソナルな関係は高度に複雑で、利益相反やジレンマはどこにでも転がっています。ある対象に対してロイヤルティを発揮することで、別の相手にディスロイヤルになることがありうるのです。そして重要なのは、どちらの判断がベターか分からないケースが多いということです。そうした藪の中のような状況で、人間はどちらかを選んでいるわけですが、AIにそこまでの自由度を与えるかどうかが、いま、問われているのです。

AIと人間の信頼関係

平井:
お話を伺うと、「信頼関係」がキーワードになりそうです。人間がAIを信頼できるかどうかという観点もありますが、逆にAIは人間を常に信頼すべきか、あるいは人間を信頼しないこともできるように設計しておくべきか、という問いも生まれてきますね。

画像: AIと人間との間に信頼関係を築けるとすると、そこには何が必要だろうか

AIと人間との間に信頼関係を築けるとすると、そこには何が必要だろうか

出口さん:
そもそも同僚とは、字義通りに考えれば、ある種、対等な関係だと思います。役職が違ったとしても、人対人としての互恵性、対等性をはらんでいるのが同僚関係なのだと思います。ということは、同僚との信頼関係も互恵的で対等なものであるべきだということになります。僕が同僚を信頼するだけでなく、その同僚も僕を信頼してくれている。さらに相互が信頼しあっていることをメタレベルでも理解しあうことができて初めて、友人、同僚、仲間といった関係が立ち上がるわけです。同僚性には相互的な信頼関係が必須だと言えるでしょう。

平井:
では、どうやって信頼するのかと考えてみると、人は、言葉以上に顔を見て信頼するかどうかを決めることがありますね。たとえば上司に「平井くん、よく頑張ってくれたね」って言われても、顔を見た瞬間にこれは違うな、と分かってしまうことってありますけど(笑)。OpenAI社が開発したChatGPTは現在言語だけですけれど、AIを信頼できるようになるためには、AIにも言語だけでなく身体的なものを持たせる必要があるのでしょうか。

出口さん:
我々は普段、マルチモーダル※なコミュニケーションを行なっています。

※マルチモーダルとは……さまざまな情報を集めて扱うこと

現行のChatGPTでは言葉のみが自動的に生成されますが、そこに音声が入ると、言い方とか声色など、マルチモーダルな意思表示や感情表現が可能となります。我々はそういう音声の微妙な変化に敏感で、そこにいろいろなニュアンスを読み取ることができます。それに応える形で、AIもどんどんマルチモーダルになっていくでしょう。また声色と同様に重要なマルチモーダルなアスペクト(側面)としては「間(ま)」があります。

平井:
間ですか、なるほど。

出口さん:
たとえば、相手にある質問をしたら、まず気まずい「間」ができて、その後に出てくる返答は、一見、当たり障りのない言葉しか含んでいないけど、実はそこには複雑なメッセージが込められていて、僕らもそれをその「間」から感じてしまう。

同僚AIについても、最終的には身体を装備させるかどうかという問題も出てくるかと思いますが、その前に、我々が普段の言語コミュニケーションで駆使しているマルチモーダルな表現をどこまでシミュレートさせるのかが一つのオプションになろうかと思います。

画像: 京都大学吉田キャンパスにある出口さんの研究室

京都大学吉田キャンパスにある出口さんの研究室

デザインの細部はコンテクストに依拠する

平井:
信頼関係と切り離せないのが、「嘘」ですけど、AIを作るときに、嘘をついているかどうか分かるようにデザインした方がいいのか、ばれない完璧な嘘をつけるAIにするのか、いろいろ選択できるかもしれません。AIと一緒に働く人にとっては、どうしておくのが幸せなんでしょうね。

出口さん:
ChatGPTのような大規模言語モデル(LLM)は、作っている側も実際どう動いているのか分からないと言われていますよね。とにかく膨大な言語データを機械学習させることで、個別のケースにおける設計者の具体的な関与がないまま、それらしい文章が出てきてしまっている。同じような設計思想で同僚AIを作っていくとなると、それが具体的にどのように動作するかは使用環境に委ねざるを得ないでしょうね。そうすると、国や地域、職場など、使用環境が違えば同僚AIの振る舞いも変わってくるでしょう。日本人の間に入ってきたAIならば、意見は強く言わず、なるべくNOをいうことを避けるようにする、といった日本人的な振る舞いを学習していくかもしれません。

嘘をつくことも同様だと思います。これも同僚AIが、具体的な使用環境の中で、対人的に学ぶことになる可能性があると思います。その場合、AIが嘘をつくかどうか、どのような場面で、どのような嘘をつくかは、使用者である僕らがどういう仕方で嘘をついているかによって決まるのではないかと思います。

平井:
では、下手にそこをすべてデザインしてしまうと、人間の中に受け入れられないAIになってしまうかもしれませんね。

出口さん:
AIの受容を促進する仕方としては、環境にアジャストしていく自由度を維持したまま職場に出して、インターパーソナルな関係を取り結ぶうちにパーソナリティーが立ち上がってくるという形が考えられます。また、そうでないと実際には使えない。非常に杓子定規なAIが職場に入ってきたら、そのAIは同僚的関係から外されてしまう可能性があります。「ちょっとこれはAIのいないところで話そう」「ここはAIに話を合わせておこう」ということになってしまう恐れがあります。

平井:
たしかに。ちょっと異質なものという感じになるかもしれませんね。

出口さん:
一方、そうした異質性はむしろ歓迎すべきだ、残すべきだという発想もありうるかもしれません。AIが、こういった極めて人間的な領域に入ってくること自体を良しとするのか、良くないとするのかは、かなりベーシックな倫理観の問題につながります。それについてはさまざまな思考実験をしつつ、その都度、ある程度の見極めができないと、AIを職場には出せないのではないでしょうか。

次回予告

AIとともに働く社会において、AIをどう捉え、どう扱うかということは、「人間とは何か」という問いを私たちに投げかけます。次回は、AIと人間との関係性から、そうした問いについてどう向き合うべきか語り合います。

画像1: [Vol.1]ともに働くAIに求められる「同僚性」とは│京都大学 出口康夫さんと語る、生成AIと働く人のウェルビーイング

出口 康夫
京都大学大学院 文学研究科 哲学研究室 教授

1962年大阪市生れ。京都大学大学院文学研究科博士課程終了。博士(文学)。2002年京都大学大学院文学研究科哲学専修着任。現在、同教授、文学研究科副研究科長、人と社会の未来研究院副研究院長、京都大学副プロボスト。京都哲学研究所共同代表理事。専攻は哲学、特に分析アジア哲学、数理哲学。現在「WEターン」という新たな価値のシステムを提唱している。近著に『AI親友論』(徳間書店), What Can’t Be Said: Paradox and Contradiction in East Asian Thought (Oxford UP), Moon Points Back (Oxford UP)など。

画像2: [Vol.1]ともに働くAIに求められる「同僚性」とは│京都大学 出口康夫さんと語る、生成AIと働く人のウェルビーイング

平井 千秋
研究開発グループ デジタルサービス研究統括本部
デザインセンタ 兼 ウェルビーイングプロジェクト 技術顧問(Technology Advisor)

現在、協創方法論の研究開発に従事。
博士(知識科学)
情報処理学会会員
電気学会会員
プロジェクトマネジメント学会会員
サービス学会理事

画像3: [Vol.1]ともに働くAIに求められる「同僚性」とは│京都大学 出口康夫さんと語る、生成AIと働く人のウェルビーイング

大堀 文
研究開発グループ デジタルサービス研究統括本部
デザインセンタストラテジックデザイン部 兼
基礎研究センタ 日立京大ラボ 研究員(Researcher)

日立製作所入社後、デザイン本部を経て現職。文化人類学のバックグラウンドを生かし、業務現場のエスノグラフィ調査を主とするユーザリサーチを通じた製品・ソリューション開発に従事。近年は、生活者起点の協創手法の研究や将来の社会課題を探索するビジョンデザインの活動に取り組む。

[Vol.1]ともに働くAIに求められる「同僚性」とは
[Vol.2]AIとの関係性から「人間とは何か」を問う
[Vol.3]人間にしかないスキルと「働きがい」のゆくえ

This article is a sponsored article by
''.