[Vol.1]ともに働くAIに求められる「同僚性」とは
[Vol.2]AIとの関係性から「人間とは何か」を問う
[Vol.3]人間にしかないスキルと「働きがい」のゆくえ
AIに人格を求めない、というオプション
大堀:
個人的には、同僚AIに道徳性やパーソナリティーを求める必要が本当にあるのかな?という気もしています。というのも、職場はあくまで機能に対する信頼関係で動いているので、AIも必要な機能の提供に信頼が置ければ、それが働く人のウェルビーイングにもつながるのではないかと思うんです。そうなると、必ずしも人格は必要ないのではないかと思いますが、いかがでしょうか。
出口さん:
そのような考え方も、ひとつの有力なオプションになり得ると思います。現在のコンピュータがそうですよね。人格性や道徳性を持っていなくとも、メカニカルな安定性や最適性さえ備えていれば、それに対する信頼が生まれ、仕事がまわる。AIに関しても同様で、あえて人格性や道徳性を持たせず、ユーザーも、それを、しょせんは単なる機械にすぎないと割り切って使えばよい。
ヨーロッパはこのような考え方でいこうとしているように見えます。インターパーソナルな要素を削ぎ落として、「これは単なる機械ですよ」とユーザーにも常にリマインドするような仕掛けを積極的に入れていこうという方向です。私は、それはそれでいいと思うのです。
「主人と奴隷」の関係性がはらむ問題点
大堀:
ただ、その方向性で行くと、人間=主人、AI=奴隷として関係性が固定化される懸念がある、と先生もご著書で指摘されていました。AIはあくまで使役物であって、インターパーソナルな配慮や道徳的な対象にしなくてもいいといった意識は強まりそうですが、それについてはいかがでしょうか。
出口さん:
AIの進化には少なくとも二つの方向性がありうると思います。一つは、いまお話ししたような、人格性をまとわせることはせず、純粋な機械性を前面に出し続ける方向性です。その場合、たとえAIを、腕時計やスマートフォンのように、肌身離さず装着し、必要に応じて使っていたとしても、僕らはそれが機械だということは弁えていて、インターパーソナルな関係を結ばないことになります。
もうひとつは、AIがヒューマナイズ、パーソナライズされて、ユーザーにどんどん話しかけてくる。それもただ機械的な会話でなく、会話の面白さが感じられる当意即妙な応答能力を獲得していくという進化の方向性です。そのようなAIに対しては、使用者側も、ついついあたかも人格をもつ存在であるかのような態度をとってしまう可能性があります。その場合、そのようなAIを自分の単なる道具、それも人格を持った道具、すなわち「奴隷」ないし「召使い」として扱うと、ユーザーは昔の王侯貴族のように、つねに複数の奴隷や召使いを引き連れ、「それら」いや「彼ら」にかしずかれたり、奉仕されることが当たり前の生活を送ることになりかねません。僕は、そのような状況を「過剰主人化」と呼び、ユーザー自身の道徳性や人格を劣化させる危険性を孕んだものだと考えています。それはユーザーを傲慢にしてしまう危険性を孕んでいるからでもありますが、人間の道徳性にとって一人称的視点が大切だと考えているからでもあります。
「目の前の対象が本当に人格を持っているかどうか」が三人称的視点から発せられた問題だとすると、そのような対象そのものの性質はひとまず度外視して、「自分がそれをどのようなものとして見ているのか、扱っているのか」を問うのが一人称的視点です。AIが本当に人格を持つのかどうかに関わらず、自分がAIを「人格を持つもの」として扱っている限り、それは一人称的には「人格存在」なのです。
カントが言ったように、人格存在を道具ないし物件として扱ってはなりません。自分が一人称的に人格存在と見なしているものを、これまた一人称的に道具視、奴隷視することは、一人称のレベルでの道徳的な首尾一貫性を自ら放棄することにつながります。首尾一貫性は、インテグリティとも呼ばれる、それ自身、道徳的に重要な態度だとされています。
人格性を持つ方向に進化したAI、たとえば同僚AIに対して、人格性を感じてしまった段階で、僕らは、それを単なる道具視、奴隷視することを止めるべきなのです。
人間側の道徳性が試される
出口さん:
先ほども触れたように、このようなAI進化の二つの方向性を前にして、第二の方向ではなく、第一の方向に進むべきだ、すなわち、そもそもAIに人格的な機能を持たせること自体、禁止されるべきだという考えもありえます。その典型例として「ロボットは奴隷であるべきだ」というタイトルの有名な論文があります。その論文では、たとえば、人間のもつ愛情リソースは有限なので、それを人に対してはなく、ロボットに対して使ってしまうことが批判されています。対人関係で使われるべき愛情リソースが減ってしまうというのが、その理由です。ちなみに、日本の「たまごっち(1996年にバンダイから発売された電子ゲーム)」が、愛情リソースの無駄遣いを引き起こす例として引き合いに出されています。
平井:
でも犬を飼うと、そこに相当な愛情リソースを使いますよね。あれもけしからんということになってしまいませんか。
出口さん:
その可能性もあるでしょうね。一方、「生き物と人工物は違う」ということで、ある種の動植物に愛情を注ぐことを正当化するやり方もあるでしょう。これは、以前お話しした、モラルスタンディングを動物にまで拡張する主張と軌を一にする考えです。
平井:
AIと人間の間には、どのような線引きをしたらいいのでしょうか。
出口さん:
いろいろな線引きが可能だと思いますが、それらに共通する考えは、ある種の自分中心主義だと思います。まず自分の立ち位置を中心に据えて、それを必ず中に入れる形で、言い換えると外に出さない仕方で線を引く、という考え方ですね。
たとえば「自分は日本人だから、日本人だけを優遇する」というのは悪しき自民族中心主義ですね。範囲を少し広げて、「自分は人間だから人間だけを優遇する」という考えも、20世紀後半からは「悪しき人間中心主義」として批判を受けてきました。さらに範囲を広げて、「自分は生物だから生物だけを優遇する」という考えは「生物中心主義」と呼べるでしょう。このような考えに立つと、生物と無生物のあいだに線を引いて、生物である犬はインターパーソナルなリソースの対象としてもいいが、無生物のたまごっちはだめだ、という話になります。このような考えも、やはり悪しき自分中心主義の一種だと言えるのではないかと思います。
平井:
AIを奴隷のように使うことで人間の道徳性が劣化するとしたら、人間の道徳性がちゃんと保たれるようにAIにケアしてもらうというのはどうでしょう。あるいは、そこまでされてしまうと、それもある種の劣化なのでしょうか。
出口さん:
それは程度やモードによると思います。人間とAIが切磋琢磨したり、互いにケアしあったり、助けあったりという相互関係が成り立っていれば問題ないでしょうが、一方が他方に一方的に依存してしまうのはよくないと思います。道徳性についても同様で、道徳性を全面的にAIのケアに委ねること、道徳性をAIにいわば丸投げするのは過度の依存だと思います。
AIに実存をつきつけられる
平井:
職場でも、「何でもAIが手伝ってくれるのは幸せなことなのか」という議論をよくしていました。
出口さん:
それも重要な問題ですね。AIの機能が人間と並び、さらに人間を凌駕したときにどうするのかという問題に関わる議論だと思います。現在でも、すでに、人間の専門家よりも、大規模言語モデル(LLM)の方がより正確な知識をより速く提供することが可能となりつつあります。
とはいえ、現在のLLMには、まだまだ人間には及ばない点もあると思います。
人間、特にその道の専門家は、書かれたテキストの書かれざる含意、著者が語ろうとしてぎりぎり語れていない内容を読み取り、言語化し、場合によってはそれを批判するという「深読み」をしています。一方、LLMは、既にデータ化されている言語情報を機械学習して、それをもとに、統計的にありそうな文章を推測しているわけです。そこに書かれていない内容をアウトプットしたり、さらに、書かれていない批判的な論点を加えることは、原則的にできないのではないか、少なくとも、現状では極めて困難ではないかと思います。結果として、人間の専門家の目には、LLM は優秀ではあるが「浅い」秀才と映るのではないでしょうか。
平井:
そうなると、「何でも手伝ってくれる」状態には程遠いかもしれませんね。
出口さん:
ただ、将来は、LLMは人間の「深読み」をも機械学習して、それを完全にシミュレートしたり、専門家を凌駕する「深読み」をやってのけるLLMが出現するかもしれません。このように、少なくとも知的な職業技能に関して、人間がAIなどの人工物に凌駕されると何が起こるのか。もちろんさまざまな職種にAIが進出し、結果として人間が職を失うという事態も起こりえます。
たとえ、人間の職を確保する社会的措置が取られて、給与や生活の質が保たれたとしても、何のために生きているのか、という実存的な問いが発生してしまうでしょう。自分が一番できる、自分にしかできない。そのような自分の「かけがえのなさ」や、「かけがえのなさ」としての自身の「尊厳」を支えていた能力が、人工物にやすやすと凌駕されてしまったことを目にした時、人は自身の「かけがえのなさ」や「尊厳」を失う危機に直面するかもしれません。このような状況を、僕は「人間失業*」と呼んでいますが、そのような事態が発生する恐れもあると思います。
*人間失業は、日立京大ラボがまとめた書籍「BEYOND SMART LIFE –好奇心が駆動する社会」 に詳しい内容が書かれています。
労働をAIに丸投げしたら、人間は何をする?
平井:
働くのはAIにお任せして、人間は遊んでいればいいや、という考えだとどうですか。
出口さん:
「遊び」にどれだけ価値をおくことができるか次第だと思います。現在、仕事は全部AIに任せて、われわれはユニバーサルベーシックインカムでやって行こう、という話も出ていますね。もう働く必要はないので、一日24時間、週7日がフリータイムになったときに何をすべきか、そこにどのような意味を見出すことができるかが問われるでしょう。
定年と同じですね。職場に行かなくていいので最初はすごくウキウキするんだけど、そのうち「何をしたらいいのかな?」と迷いが出てくる。「人生、最初から定年」となったときにどうすべきか、という問いですね。
平井:
それもAIに聞くってことでしょうね(笑)。
出口さん:
そうですね(笑)。僕らは、「こういう人生をやります」という明確な目標を持って生まれてきたわけではないですよね。人生は、最初は無目的な状況から出発していて、だからこそ、「なんで生きているの?」「人生で何をめざすの?」という問題が発生してしまうのだと思います。でも、そのような問いはベーシックすぎて、そう簡単に答えが出ない。そこで通常は、進学や就職や結婚といった、もう少し小さな、細切れの目的を設定して、そのハードルを一つ一つ超えていくことで、大きな無目的状況から目を逸らす、ということを人はやっているのかもしれません。そのあたりをAIに突かれるという状況も、ありうる未来かもしれません。
これまで人類は、技術をどんどん発展させて生活を便利なものにしてきましたが、ここだけは人間が優れているので人間がやらざるを得ない、という側面は残していました。それが知的能力やコミュニケーション能力です。それは、機械がどんなに進化しても、この点では人間を凌駕できないとされていた、人間の「かけがえのなさ」「尊厳」の「最後の砦」だったのです。その「最後の砦」が陥落すると、そもそも自分の価値は何なのか、人生の目的は何かといった問題が、地獄の釜の蓋が開くような形で出てくるのだと思います。
次回予告
AIの能力が人間を凌駕するシンギュラリティの到来に向かおうとするいま、人間社会に対して負のインパクトを与える可能性も見え始めています。生成AIの技術革新をどこまで進めるのか、との議論も盛んになっています。次回は、これからのAIとの付き合い方について、企業の役割を中心に語り合います。
出口 康夫
京都大学大学院 文学研究科 哲学研究室 教授
1962年大阪市生れ。京都大学大学院文学研究科博士課程終了。博士(文学)。2002年京都大学大学院文学研究科哲学専修着任。現在、同教授、文学研究科副研究科長、人と社会の未来研究院副研究院長、京都大学副プロボスト。京都哲学研究所共同代表理事。専攻は哲学、特に分析アジア哲学、数理哲学。現在「WEターン」という新たな価値のシステムを提唱している。近著に『AI親友論』(徳間書店), What Can’t Be Said: Paradox and Contradiction in East Asian Thought (Oxford UP), Moon Points Back (Oxford UP)など。
平井 千秋
研究開発グループ デジタルサービス研究統括本部
デザインセンタ 兼 ウェルビーイングプロジェクト 技術顧問(Technology Advisor)
現在、協創方法論の研究開発に従事。
博士(知識科学)
情報処理学会会員
電気学会会員
プロジェクトマネジメント学会会員
サービス学会理事
大堀 文
研究開発グループ デジタルサービス研究統括本部
デザインセンタストラテジックデザイン部 兼
基礎研究センタ 日立京大ラボ 研究員(Researcher)
日立製作所入社後、デザイン本部を経て現職。文化人類学のバックグラウンドを生かし、業務現場のエスノグラフィ調査を主とするユーザリサーチを通じた製品・ソリューション開発に従事。近年は、生活者起点の協創手法の研究や将来の社会課題を探索するビジョンデザインの活動に取り組む。
[Vol.1]ともに働くAIに求められる「同僚性」とは
[Vol.2]AIとの関係性から「人間とは何か」を問う
[Vol.3]人間にしかないスキルと「働きがい」のゆくえ