日立製作所研究開発グループが実施するオンラインイベントシリーズ「協創の森ウェビナー」。社会ではAIの活用が叫ばれていますが、従来予想されたほど浸透していないのが現状です。その理由は「自分たちが正しく使いこなせるか」という、自信のなさの表れかもしれません。AIの倫理について研究者が主体的に取り組むのはもちろん、人文科学者や市民、ユーザーの考えも汲み取るなど、多様なバックグラウンドを持ったメンバーで共に考えることが必要です。
当日は、日立製作所先端AIイノベーションセンタ メディア知能処理研究部の柳井孝介と、基礎研究センタの松村 忠幸、東京社会イノベーション協創センタ サービス&ビジョンデザイン部の原 有希、先端AIイノベーションセンタ メディア知能処理研究部の間瀬 正啓が登壇し、それぞれ異なる立場で「社会から信頼されるAI」について考えを述べました。

プログラム1「日立のAIガバナンス」
プログラム2「AIはサイバーとフィジカルの暮らしを繋ぐことができるのか」
プログラム3「社会から信頼されるAI」

AIに対する現場の反応

柳井:
AIの技術は進歩していますが、現場でのコンセンサスを得るには、まだ難しい状況です。それぞれの立場でどのように考えていますか。

原:
AIやデータアナリティクスに対して人の信頼を得るということは、実は簡単ではないと感じています。

たとえば、鉄道部品の予兆診断システムが「1か月後にこの部品が壊れるから変えてください」とレコメンドしたとします。現場のベテランは、「言われた通りに部品を変えると部品代や人件費や上がるけれど大丈夫なのか?本当に壊れるのか?」と疑問を感じます。すると研究者やエンジニアたちは、予兆診断システムのアルゴリズムを一生懸命に現場の方に説明するでしょう。けれども、高度なアルゴリズムを誰もが理解できるように伝えること自体がそもそも難しいです。

英国の鉄道車両保守ビジネスでは、例えば保守期間40年を一括契約し、保守サービスの受注額が決まります。そうなると、コストを抑えることが事業的にも重要になるので、現場も部品代や人件費が上がることを気にするわけです。そこに、予兆診断システムから部品交換を勧められたものの、それをどこまで信じて良いのかわからないとなると、賢いリコメンデーションが提示されていたとしても,最終的には人がそれに従うのか否かといった主観的な問題や、コンフリクトが残ります。

画像: AI技術が人の信頼や理解を得ることの難しさを語る原

AI技術が人の信頼や理解を得ることの難しさを語る原

間瀬:
ここ数年の間に、XAI(AIの判断根拠を説明する技術)の技術が進歩しており、AI活用時の現場の判断を支援する技術が向上しています。例えば、私の所属する研究チームでは、消防や救急などの公共機関のお客様へのXAI導入に向けた実証を行ってきました。現場の懸念を払しょくできるように、機械学習の説明性、透明性の技術を開発することが私たちのミッションだと考えています。

松村:
説明性や透明性は、AIが社会に受け入れられていくために必須の要素であると、私も思います。一方で、それだけで十分かというと違うのでは?とも考えています。

私は、AI倫理の問題を「社会は、さまざまな問題を抱えながら如何にして機能しているのか?」という問いから考えているのですが、その解が、社会の複雑性を縮退する機能としての信頼であると考えています。

このように問いを捉えますと、「では、信頼はどのように構成されているか?」という問いがさらに生まれると思います。信頼は、能力や動機に加えて、価値共有の有無が重要であるとされています。私は、先程お話があった説明性や透明性は、能力や動機の高さ・健全性に寄与するものと捉えていますが、それらと併せて、人とAIの価値共有という問題を新たに考えていくべきではないかと考えています。

原:
新しいAIソリューションを世の中に出すときに、ダークパターン(ユーザーが無意識に、自身に不利な行動を取るように誘導するデザイン)が埋め込まれていないか、AIがどのように利用されるかに加えて、「使われ方がどのように変化するのだろうか」、「その時に害をもたらすことはないのか」といった、少し先の視点を持ってリスクを捉えたものづくりをする必要性を感じます。

人とAIが関わるべき理想像とは

柳井:
人とAIは、どのように関ればよいのか、それぞれの考えをお聞かせいただけますか。

画像: AI技術と人の共存について、さまざまな問いを投げかけるモデレータの柳井

AI技術と人の共存について、さまざまな問いを投げかけるモデレータの柳井

原:
人とAIの境界をどこに引くかをよく考えることが重要だと思います。よくAIが人の仕事を奪ってしまうと言われますが、そうではなく、人のパフォーマンスや能力を高めるようAIを活用する方向を考えられれば、前向きな考えでAI開発に協力してもらえるのではないでしょうか。個々の業務現場のコンテクストに合わせてAIの活用方法をデザインしていくことが必要だと思います。

松村:
人とAIの境界という問題は非常に重要で面白い問題ですね。私はこの問題をAIの責任の切り口から考えています。AI倫理の文脈で、AIには責任が取れない、という議論を耳にすることがありますが、私がまず疑問に思ったのは、責任を取るとは、どういうことか?という点です。

私は、これを、やはり信頼の観点から考えています。信頼というものを改めて考えてみますと、当然ではありますが、必ず信頼の「元」と「対象」の2つが存在しています。そして、自分が相手を信頼しているように、他者から自分も信頼されているというベクトルがあることに気づきます。このように他者からの信頼を認知し、それに積極的に応じることが責任なのではないでしょうか。

このように考えますと、AIが責任をとれない、という問いは、「AIが人の期待に応えられない」という言い方もできますが、逆に「人がAIに適切な期待を明確化できていない」という言い方もできます。

画像: 「そもそもAIに対する期待が明確になっていないのでは?」と現状を問う松村

「そもそもAIに対する期待が明確になっていないのでは?」と現状を問う松村

松村:
ここで重要なのは、この信頼と責任の関係は、一方的ではなく相互に合意する関係性であるという点です。この両者の適切な依存関係が、まさに先ほどの「人とAIの境界をどこにするのか?」という問題につながると思いますし、基本的な姿勢として、AIの責任問題は「一方的にAIに責任を押し付けず、我々が適切にAIに歩み寄る必要がある」ということだと思うのです。

おそらく、この問題はユースケースごとに解が変わると思うので、原さんがおっしゃるように、実践を通じて考えを深化させていく必要がある問題だと私も考えています。

間瀬:
私の研究では、XAIをツールとして公平性を改善しようと考えるときに、まず公平性を客観的に評価するための数学的な定義を考えます。何をもって公平と考えるかを数学的な指標にすると、例えばグループ間で予測結果に乖離があってはいけない、予測の誤り方に乖離があってはいけない、といった定義が考えられます。ただし、何が適切かは事例によって異なります。ここは、ドメインエキスパートと議論しながら事例ごとに検証を行っていくところになります。

信頼の構築は統計学の専門家の考え方が参考になります。彼らはデータを分析する際に、「いかにしてデータに基づく意思決定を誤らないか」を非常に注意深く考えています。それでも不完全な場合があり、時には数十年後に前提条件の不備が発見されることもありますが、その場合も「なぜ誤ったのか」の検証が行われ修正されながら、学問体系が構築されてきました。AIも科学的な検証を繰り返しながら、社会の受容性を高めていくとよいと思います。

画像: データに基づく意思決定の慎重さは統計学に学ぶところが多い、と間瀬

データに基づく意思決定の慎重さは統計学に学ぶところが多い、と間瀬

人がAIとともに発展していくために必要なこと

柳井:
人がAIとともに発展していくために、日ごろの研究の中で重要だと思うことは何ですか。

間瀬:
私がスタンフォード大学にいたときに感じたことですが、アメリカではステークホルダーとの対話や、人文系やAIの専門家などさまざまな専門領域の人が参加するプロジェクトがたくさんありました。このような機会が多ければ分野を超えた価値共有が進んでいくのではないかと感じています。

松村:
本日、人とAIの価値共有が重要である、と言うことを述べさせて頂いたのですが、では、どうやって価値共有できるのか?、と問われると、正直、今の私は応えることができません。

しかし、少しずつ気づいたのは、このような倫理の問題に対する問いや解答に対する姿勢やイメージが、私のような理工系の人間が普段ものを考える姿勢とはそもそも異なるのではないか、という点です。

私は理工系の人間ですから、このような問いに対して、価値共有という状態を具体化し、その実現アルゴリズムを考える、という考え方をするのですが、価値共有を具体化しようとする時点で、複雑な社会の一側面のみを切り出してしまう懸念がありますし、そもそもアルゴリズム的に価値共有しようとすること自体が致命的な倫理的問題を含むように思います。

AI倫理の問題は、このように近視眼的考えに陥らないようにするためにも、原さんや間瀬さんのような多様な視点の人財との議論を通じて考えていくことが重要だと実感しています。

原:
AIとデータアナリティクスソリューションにおいて、データ提供者、データ分析者、データを受け取ってサービスを受ける人など、さまざまなステークホルダーがいます。この仕組みの中で、データ提供する側が提供に抵抗感をもつとソリューションが成立しなくなるのですが、データ提供者にとってのメリットが必ずしもうまくデザインされていない実態が世の中にはまだまだあると思います。双方がWIN-WINになるようなバランスのデザインを推し進めていくことが重要だと思います。

データを開示・提供する側は、どこまで情報を公開するのか。データを解析してソリューションを作る側は、それを用いてどこまで人の行動を変えていいのか。こういった、これまでの技術ソリューションになかった倫理問題が出現するでしょう。この問題は数年前から世界中で議論されていますが、私たちの間でも深めていきたいと思います。

画像: AIの発展は多様な立場から議論することが不可欠だ

AIの発展は多様な立場から議論することが不可欠だ

画像1: 多様な人々が対話し価値を共有することで、AIのある社会は発展する│協創の森ウェビナー第5回 「AIのガバナンス 」プログラム3「社会から信頼されるAI」

柳井孝介(コーディネータ)
先端AIイノベーションセンタ メディア知能処理研究部 部長 (Department Manager Media Intelligent Processing Research Department)

2001年、東京大学工学部電子情報工学科卒業。2006年、同大学院新領域創成科学研究科基盤情報学専攻博士課程修了。博士(科学)。同年、日立製作所中央研究所に入所。2011年より2年半の間、インドに在住。日立インドラボの開設に従事。現在、日立製作所研究開発グループに所属。遺伝的プログラミング、複雑系、画像認識、大規模データ処理、機械学習、自然言語処理などの研究に従事。進化システムおよび人工知能基礎原理に興味を持つ。

画像2: 多様な人々が対話し価値を共有することで、AIのある社会は発展する│協創の森ウェビナー第5回 「AIのガバナンス 」プログラム3「社会から信頼されるAI」

原 有希(登壇者)
東京社会イノベーション協創センタ サービス&ビジョンデザイン部 リーダ主任研究員(Unit Manager)

1998年日立製作所入社、デザイン研究所、デザイン本部を得て、東京社会イノベーション協創センタで現職。ユーザーリサーチを通じたHuman Centered Designによる製品・ソリューション開発や、業務現場のエスノグラフィ調査を通じたCSCW(Computer Supported Coorpoative Workの研究に従事、人的観点でのソリューション創生や業務改革を行っている

画像3: 多様な人々が対話し価値を共有することで、AIのある社会は発展する│協創の森ウェビナー第5回 「AIのガバナンス 」プログラム3「社会から信頼されるAI」

松村 忠幸
基礎研究センタ 研究員 (Researcher)

日立製作所入社後、三次元集積回路や高信頼な計算機システムの研究開発に従事。2015年からは基礎研究センタにて、情報技術の未来像として、AIやデジタル技術が広く社会に浸透する将来における社会課題の探索と、その課題解決に必要となる技術の研究開発に従事している。

画像4: 多様な人々が対話し価値を共有することで、AIのある社会は発展する│協創の森ウェビナー第5回 「AIのガバナンス 」プログラム3「社会から信頼されるAI」

間瀬 正啓
先端AIイノベーションセンタ メディア知能処理研究部 主任研究員(Chief Researcher)

2010年日立製作所入社。シミュレーション、機械学習、最適化の産業応用に関する研究に従事し、最近は機械学習の説明性・解釈性(XAI)の研究に取り組む。2019~2021年の間にスタンフォード大学の統計学科に客員研究員として滞在し、Art B. Owen教授とXAIの統計学の観点からの共同研究を実施。

プログラム1「日立のAIガバナンス」
プログラム2「AIはサイバーとフィジカルの暮らしを繋ぐことができるのか」
プログラム3「社会から信頼されるAI」

This article is a sponsored article by
''.