[Vol.1]ともに働くAIに求められる「同僚性」とは
[Vol.2]AIとの関係性から「人間とは何か」を問う
[Vol.3]シンギュラリティはもう来ている。AIと人間のこれから
AIの技術革新は加速すべき?減速すべき?
大堀:
人間の存在意義を守るために、あえてAIの能力を制御するという方向性は考えられるでしょうか。
出口さん:
ご承知のように、AIの技術革新を加速すべきか減速すべきかに関しては、目下のところ、さまざまな意見が出されています。2023年の春には、イーロン・マスクらが署名したステートメント※も出されましたね。
※2023年3月に非営利団体「フューチャー・オブ・ライフ・インスティチュート」が発表した公開書簡のこと。AIシステムの開発を6カ月間停止するよう呼びかけ、安全性に関する共通規範を確立する必要があると訴えた。
両方の意見が出されているのは、人類がいままさに岐路に差し掛かりつつあるということの現れではないでしょうか。OpenAI 社のChatGPTが人類史で前例のないスピードで社会に浸透し、これまでは人間にしかできないと思われていた言語的なリサーチ能力や画像生成能力に迫ろうとしている。そのような新世代のAIの登場が社会にどのようなインパクトを与えるのか、現時点では極めて不透明です。人間の知的能力を超えるAIの登場について深刻に危惧し考えざるを得ない状況が出現したという意味では、シンギュラリティがついにやってきたとも言えるかもしれません。
平井:
仮にAIにある種のパーソナリティーを持たせて、奴隷ではなくあくまで同僚として受け入れたとき、何か危険性はあるでしょうか。
出口さん:
先にお話したように、同僚としてのAIに「悪いこともし得る」という道徳的エージェンシーを持たせた場合、やはり実際に悪いことをしてしまう危険性が生じると思います。同様の危険性は人間も常に抱えているわけですが、人間が持つ危険性とAIの危険性には違う部分がありえます。
人間は、人間的な振る舞いを行う中で、いいことも悪いこともするわけです。その場合、悪い行動もおおむね人間的な行動パターンに収まる可能性があります。そして、そのような人間的悪行について我々は経験を蓄積しているので、ある程度は予測したり予防することもできるわけです。
しかし、AIは人間と違うシステムで動いています。人間とは思考パターンも行動パターンも、従って悪行パターンも異なってくるでしょう。すると、我々がこれまで経験則で対処してきたような振る舞いとは違う悪行も出てきて、その分、予測も予防も困難になる。それをどこまでリスクとして許容するかが問われると思います。
AIが同僚、さらには道徳的エージェントとして入ってくる社会は、もはや純粋な人間社会ではなく、パラヒューマン・ソサイエティになります。人間のようにも振舞うけど、人間とは決定的に異なる行動も見せるエージェントが当たり前のように隣にいる社会。このような状況は新しい可能性と同時に新しいリスクもはらんでいるわけです。
大堀:
そうなると、リスク管理も原理自体を変えないといけないですね。
出口さん:
そうですね。先に、AIの開発をストップないしスローダウンすべきだという声が出ている状況についてお話ししましたが、私としては、人類が一旦パンドラの箱を開けたら、もはや引き返せないだろうと考えています。自分がAI開発をスローダウンしたとしても別の研究者、企業、国が、それを出し抜いて研究をスピードアップしてくるかもしれない。結果として、相手が信頼できないので止められないという囚人のジレンマ状態に陥ることになります。そう考えると、事態がここまで来た以上、シンギュラリティが起こることを前提に、パラヒューマン社会をどう設計していくかを考えていく必要があると思います。
平井:
なかなかそこまでいくと大変ですね。
出口さん:
これだけ大きな技術的変革は、20世紀前半の原子力の開放以来でしょう。原子力技術を管理する国際的システムは作られていますが、AIについて同様の枠組みを構築することは、極めて困難だろうと思います。今後、AI技術自体が急速に陳腐化、低コスト化していくことで、AI開発への参入者が増加し、コントロールが利かない状態に陥る可能性があります。
日本の企業に何を期待するか
平井:
そのような状況で、特に日本の企業に期待されることがあれば教えてください。
出口さん:
決めつけは危険ですが、日本の社会や企業は、AIやロボットに対して、たとえばヨーロッパとは違う感性を持っているのではないかと思います。日本ではヨーロッパで唱えられている「ロボットは奴隷であるべき」という考えは、あまり大きな影響力を持っていないと思われます。その結果、インターパーソナルな機能を備えたロボットやAIも、どんどん作られていくことでしょう。「AIに人格性を持たせるかどうか」という以前お話した二つの方向に即して言えば、人格性を持たせる方向に進んでいく可能性が高いと思います。しかし、このことは、今日の重要なテーマである「どこまで作って、どこで止めるか、どうデザインするか」という唯一の正解も最適解もない問いに対し、企業が常に直面していかざるを得ないということを意味します。
このような対応は、戦後日本の企業や社会が苦手としてきたことではないでしょうか。一定の制約条件の中で効率化や最適化をめざすことは得意ですが、決まった枠がない状況で、枠そのものを自分達で考えて設定していくことは不得意だったのかもしれません。しかし、そういった正解のない問題にも、これから向かい合っていかざるを得なくなるのではないでしょうか。
企業が生み出している商品は、結局は「価値あるもの」だと言えると思います。端的に言って、企業とは「価値」を生み出す営みなのです。これまでは「使える」「便利」「効率的」「安い」など、商品価値のリストはある程度決まっていたわけですが、近年は、それ以外のさまざまな価値が求められています。環境価値もその一つです。今後はさらに「ウェルビーイング」が加わるでしょう。企業には、どのような価値を生み出すのか、そもそも価値とは何なのかを研究開発の段階から考えていくことが求められているのだと思います。
平井:
その最たるものがAIを作る時で、社会全体のウェルビーイングを左右しかねないということですね。こういう状況になったいま、哲学を学ぶ必要を感じているのですが、我々のような企業人が哲学を学ぶには、どうしたらいいんでしょうか。
出口さん:
一番重要なのは哲学を使いこなすことだと思います。知識や語彙を身につけることも必要ですが、より重要なのは、哲学の語り口を学び、それを実践することです。過去の哲学の学説について物知りになるだけでなく、哲学の思考法を身につけ、さまざまな場でそれを応用することです。技術の習得も同じだと思います。まずは大学や企業の研究室に入って、見よう見まねで何年かやっているうちに、技術者らしい振る舞いがだんだん身について来て、最終的には、その研究室を離れても技術者として仕事ができるようになる。それと同じように、最終的には自分で哲学ができるようになることをめざすのが、哲学を学ぶということだと思います。
平井:
考え方を学んでいくということですね。
出口さん:
哲学でも自分が持っている生活実感や直観を取り込み、概念的な議論をそれらと結びつけていくことが重要です。また効果的な比喩や例を用いることも必要です。しかし、やはり哲学の本質は、実感や比喩を徹底的に言語化する作業にあります。実感や比喩だけでは公共的な議論は成り立たないのです。また単に自説を展開するだけではなく、違った考えを、その考えの持ち主以上に言語化した上で、自分の考えとの異同を示し、どの前提が違えば考えの違いが出てくるのかを示すことも重要です。哲学は元々対人的なディスカッションや公の場での言説の技法として発展してきたという経緯もあります。それは、常に相手を意識した議論方法なのです。
平井:
考え方や議論の仕方を身につける必要性を、AIが突きつけてるんですね。
出口さん:
そういうことですよね。結局AIによって人間とは何かを改めて考えざるを得なくなっているのです。僕たちは、人間と非常に似ているけど、かなり違うところもある、まさに「人類の隣人」を作ろうとしているのです。単なるコンピューターならば、まだ人類とは遠いところにある機械という位置付けができるのでしょうが、AI、しかも同僚としてのAIは、すぐ隣に座っている「異者」のような感じになるのでしょうね。
パーソナリティーを感じるAIの条件
平井:
AIに何を付与したらパーソナリティーがあると感じられるようになるんでしょうか。
出口さん:
以前もお話したように、一つの答えはやはり「道徳性」だろうと思います。もう一つはインターパーソナルな関係です。たとえば僕らはペットを家族の一員だと感じることもあります。その場合、僕らとペットの間にどのような関係が成り立っているのか、ペットが僕らに対してどのような態度、振る舞いを示しているのかを思い浮かべれば参考になると思います。呼んだら、こちらに顔を向けるとか、近寄ってくるとかといった、ある種のインターパーソナルな反応や関係が、そこでは成り立っているのではないでしょうか。
平井:
犬だと、トイレはここではしてはいけないといった、してはいけないことを教えていくと家族のように思えてきますね。
出口さん:
そうですね。そういったちょっとした規則の習得、共有もインターパーソナルな関係構築のためには重要な要素だと思います。また、犬って、時々腹を立ててわざと悪いことをする、ないしはそうしているように見えることがありますが、そういったちょっとした振る舞いにもインターパーソナルなものを感じることができると思います。子どもがすねるのと似ているし、結局は自分と似ていると感じるのでしょう。
平井:
もし仮にインターパーソナルなものを持たせるとしたら、そういう、ちょっとやんちゃな部分を入れていくということですか。
出口さん:
はい、そうなるだろうと思います。もちろん限度もあろうかと思いますが、いまの愛玩ロボットには、既にそういう要素が入っていますよね。あえて言うことを聞かない。話しかけても機嫌が悪ければ横を向くといった機能を持っていて、それでむしろ愛玩性が高まり、人間にとってもより家族のように感じられる。
大堀:
不安定さがあることで、人間らしさを感じるというのはすごく面白いですね。体調が悪かったり機嫌が悪かったりということで時々応答してくれないとか。
出口さん:
人間というのは完全に規則的でもランダムでもなく、その中間的な不安定性、不規則性を抱えつつも、一定のパターン性も持っている存在です。このような人間の行動パターンを観察してデータ化していけばある程度は機械的に再現することが可能だろうと思います。
AIには哲学ができるか?
大堀:
先生は、AIは哲学ができると思いますか。
出口さん:
AIにも、先にお話しした、「深読み」ができるようになれば、哲学をすることも可能になると思います。書かれてはいないが、それこそが重要だと思われる含意を言語化することが哲学の重要なアクティビティですので、AIにそれができるようになれば、哲学できるようになったと言えそうです。そういうことが本当に可能なのか、AI技術者の方にぜひ聞いてみたいですね。
平井:
同僚として一緒に仕事をするならば、同僚AIにもそういった機能が必要な気がしますね。
出口さん:
「深読み」は通常の人間関係の中で、広く行われている行為だと思います。同僚が話していることを聞きながら、語られていない含意を分析し、予測し、その上で自分の行動パターンを決める。そういうことを僕らは日常的に行なっています。AIにそれができないと、AIを排除して話を進めようということになってしまいそうな気がします。
平井:
汲み取る力ですね。確かに一緒に働く相手にはそれを求めますよね。
出口さん:
さらに言えば、言語データ以外の情報を相手からどこまで引き出してくるかが、本当に同僚として働けるか、人と付き合っていけるのかを判定する一つの基準になってくるのではないでしょうか。
AIを人間になじませる
出口さん:
ロイヤルティのコンフリクトの問題に戻ると、それはモラルジレンマの一つの典型例だと言えます。一方を取れば他方を捨てざるを得ない。一つ一つのイシューにはいろいろなステークホルダーがいて、場合によっては、その間で利害や道徳性に関するコンフリクトが起こるわけです。我々は常にそのようなジレンマに直面しつつ判断し、決定を下し、行為を行なっています。AIやロボットも、同様のジレンマに直面することになるでしょう。その場合、どのような選択を取らせるのかをあらかじめ決定しておくことはおそらく難しいでしょう。ある程度は現場の状況に委ねて、その中で人間のやっていることを学習させるしかないケースも出てくると思います。そうなると、その現場の人たちの行動パターン、ひいては価値観や道徳観がAIに移植されていくことになります。たとえば、公共性に関する意識が高い現場では会社の利益よりも公共的な利益を優先していくということになるでしょう。
平井:
現場になじませる必要があるんですね。
出口さん:
ただ、100点満点の組織はないので、現場の状況に過剰適応してしまうと、一定のバイアスを持ったAIになってしまいます。いろんな人をあえて出し入れすることで、組織自体の雰囲気を変えたり、風通しを良くする必要も出てくるでしょう。
平井:
たとえば職場に入れるAIは、内部告発をするように義務づけるということも考えられるんでしょうか。
出口さん:
それも難しい問題ですね。完璧なルールはないので、ルールを過剰に適用してしまうと、組織が身動きできないことにもなりかねません。そのため、従来の組織ではルールの不完全性を補うために、さまざまな解釈や運用の余地を残すことで対応してきました。そこに、不完全なルールに過剰に固執するエージェントが入ってきた場合、全体のパフォーマンスが落ちてしまう危険性もあります。
平井:
ルールというものは、不完全なものだと思ってかからないといけないんですね。その不完全なものに対してAIをどうやってなじませるかという問題になるんですね。
出口さん:
そういうことですね。そして最大の不完全なるものは人間です。不完全極まりない人間に対して同僚AIをどうなじませるかという観点が大切になると思います。AIを職場や社会に導入することで問われるのは、結局「人間とは何か」という問題なのです。我々は、いま我々と非常に近い隣人を作ろうとしています。そのことで、「人間とは何か」を改めて自ら問い直すフェーズに入っていくことになろうかと思います。
理想的ではない自分自身を見つめる
平井:
AIにどんな機能をもたせるかについて職場で議論していましたが、実は「自分は何か」を議論している、ということなんですね。
出口さん:
ポイントは、その問いには最適解や唯一の正解がないということです。同じことは道徳性についても言えます。「何が道徳的か」という問いも定まった正解がないのです。そのような状況にも関わらず、一つの道徳観に過剰にこだわるAIを職場に導入したら、あっという間にバグを起こしてしまうかもしれません。
平井:
先生の「AI親友論」にも出てきた「2001年宇宙の旅」のHALですが、続編の「2010年宇宙の旅」は、HALを再起動させて、ある意味、「お前は俺たちの仲間になれるか」と再度問う内容なんですね。そのとき実は問われているのは人間側の誠実さだというストーリーで。
出口さん:
人間とAIの間の「仲間関係」言い換えると「フェローシップ」は、SFでも重要なテーマですよね。人間性とは何か、パーソナリティーとは何かと問うことは、フェローシップ、同僚性を問うことでもあります。そして、これらの問いを問うことで、僕らは自分の自画像を描こうとしているわけです。そこで見えてくる自画像はやはり、完全とはほど遠い姿です。これは個人のレベルでもそうですし、企業や国のレベルでもそうです。そしてその自画像を描く作業では、我々が覆い隠したい部分が白日の下に晒される場合もあろうかと思います。繰り返しますが、唯一正しい自画像というものも存在しません。過剰に美化された自画像を唯一の解答として押し付けるのは間違っているのです。
平井:
そうすると、AIもいろんなバリエーションのAIが登場していっていい、ということになるんでしょうか。
出口さん:
そうならざるを得ないでしょう。いずれにしても、同僚AIとともに仕事をする場合、人間の、職場の、そしてAIのウェルビーイングが問われていくことになるでしょう。ウェルビーイングは人によって、文化に応じて大きく異なりうる価値、従って、これまた最適解が一意に決まらない事柄です。ウェルビーイングの多様性に対応するためにも、なるべく多様なAIが作られるべきだと思います。ウェルビーイングを多元的、多層的な仕方で言語化し、AIを設計するときに、多様なウェルビーイング概念を、最初から弾込め的にAIのデザインに入れ込んでいく。そのことでウェルビーイングという価値の内在化を図っていく必要があると思います。
出口 康夫
京都大学大学院 文学研究科 哲学研究室 教授
1962年大阪市生れ。京都大学大学院文学研究科博士課程終了。博士(文学)。2002年京都大学大学院文学研究科哲学専修着任。現在、同教授、文学研究科副研究科長、人と社会の未来研究院副研究院長、京都大学副プロボスト。京都哲学研究所共同代表理事。専攻は哲学、特に分析アジア哲学、数理哲学。現在「WEターン」という新たな価値のシステムを提唱している。近著に『AI親友論』(徳間書店), What Can’t Be Said: Paradox and Contradiction in East Asian Thought (Oxford UP), Moon Points Back (Oxford UP)など。
平井 千秋
研究開発グループ デジタルサービス研究統括本部
デザインセンタ 兼 ウェルビーイングプロジェクト 技術顧問(Technology Advisor)
現在、協創方法論の研究開発に従事。
博士(知識科学)
情報処理学会会員
電気学会会員
プロジェクトマネジメント学会会員
サービス学会理事
大堀 文
研究開発グループ デジタルサービス研究統括本部
デザインセンタストラテジックデザイン部 兼
基礎研究センタ 日立京大ラボ 研究員(Researcher)
日立製作所入社後、デザイン本部を経て現職。文化人類学のバックグラウンドを生かし、業務現場のエスノグラフィ調査を主とするユーザリサーチを通じた製品・ソリューション開発に従事。近年は、生活者起点の協創手法の研究や将来の社会課題を探索するビジョンデザインの活動に取り組む。
[Vol.1]ともに働くAIに求められる「同僚性」とは
[Vol.2]AIとの関係性から「人間とは何か」を問う
[Vol.3]シンギュラリティはもう来ている。AIと人間のこれから