日立製作所研究開発グループが実施するオンラインイベントシリーズ「協創の森ウェビナー」。日立は今、さまざまな企業や団体とのパートナーシップを基に、倫理性や社会受容性を考慮したデジタルサービスの創生に向けた取組みを進めています。第9回のウェビナーでは、「デジタルサービスと共生するための社会受容と倫理課題」をテーマに、シンポジウム形式でオープンに議論しました。プログラム1では、日立製作所研究開発グループ 原有希によるイントロダクション「デジタルサービスと共生するための社会受容と倫理課題」、加えて、名古屋大学情報学研究科 久木田水生准教授による話題提供①「サービスが直面する倫理的課題とその超克」の模様をお届けします。

[Vol.1]多様な立場からサービスを見直す
[Vol.2]技術と社会の相互作用、社会受容へのアプローチ
[Vol.3]デジタルサービスは真に民主的なものになり得るか

テクノロジーの活用が引き起こす課題

原:
デジタルテクノロジーの飛躍的な発展・普及に伴って、さまざまな課題が表面化しています。例えば、アメリカに本社を置く大手ソーシャルメディアが約70万人のユーザーに対し、タイムライン上に表示されるコンテンツを操作してユーザーの情動に介入する実験を無断で行っていたことが、大きな批判を呼びました。

また、デジタルテクノロジーを利用して、本物と見分けがつかないような精巧さで作られた「ディープフェイク」によって偽動画が作成され、本物として拡散された例もあります。デジタルによる社会イノベーションを実現する上で、テクノロジーの活用が引き起こす課題は、無視できないものになってきています。

このような課題を総称する、「ELSI(Ethical, Legal and Social Issues/倫理的・法的・社会的な課題)」という概念があります。新規科学技術を研究開発し、社会に実装する際に生じ得る、技術的課題以外のあらゆる課題を指します。ELSIの概念は、人間のDNA配列の解析に取り組むヒトゲノム計画の一環として、1990年に生まれた研究プログラムから始まりました。近年では、デジタルテクノロジーの興隆による課題の表面化という文脈で再び脚光を浴びています。

画像: デジタルテクノロジーが直面するELSIにはどんなものがあるのだろうか

デジタルテクノロジーが直面するELSIにはどんなものがあるのだろうか

デジタルテクノロジーが直面するELSI

原:
デジタルテクノロジーもELSIに直面しています。

「法的課題」は「新規技術を現行法ではうまく解釈できない」という課題です。例えば、配車アプリや宅配アプリなどを使って宅配サービスに従事する人々など、いわゆるギグワーカーの権利に関する法整備の課題があります。現行法では、プラットフォーマーとギグワーカーの間に雇用関係はなく、個人事業主とみなされるため、ギグワーカーは労働法による保護を受けることができません。こうした法整備は現在、世界各国で急ピッチに進められていますが、追いついていないのが現状です。

次に「倫理的課題」です。これは「新規技術を既存の倫理規範ではうまく扱えない」という課題です。以前、亡くなった歌手の歌唱をAI技術によって再現したことが議論を呼びました。歌唱の再現度に対する賞賛がある一方で、「死者への冒涜だ」との批判もありました。これまでの倫理規範の中で、こうした技術の存在が充分に想定されていなかったことが、ハレーションを生み出す背景のひとつだと考えられます。

最後に「社会的課題」ですが、これは「新規技術が社会にうまく受容されない」という課題です。例えば、感染症対策として導入された接触確認アプリが充分に普及していないという課題があります。このアプリは「累計の感染者数半減のため、人口の約半分による利用が必要」というシミュレーションがありますが、ダウンロード数を見ると、リリースから一年半たった現時点で約3300万件(人口の26%)にとどまっています。

デジタルテクノロジーによる社会イノベーションを続けるためには、このようなELSI を克服する必要があるのです。

画像: テクノロジーへの世界的逆風が、社会受容・倫理問題への関心を生む契機に

テクノロジーへの世界的逆風が、社会受容・倫理問題への関心を生む契機に

ELSIへのまなざしからサービスのあり方を考える

原:
デジタルテクノロジーのELSIは、世界的な逆風を引き起こしています。例えば、カナダのトロントで、大手プラットフォーマーが計画していた大規模なスマートシティの計画は、住民の反対などによって頓挫しました。

また、これまでテクノロジー企業が比較的自由に収集分析していたユーザーの個人データを、法規制で保護する流れも加速しています。これらの動きは、社会全体がデジタルテクノロジーのELSIに対して、明確な問題意識を持ち始めていると考えられます。

こうした状況の中、デジタルテクノロジーを社会実装する上で、社会受容や倫理に関する課題と向き合うことは不可避です。

国内外のテクノロジー企業も、テクノロジーの社会受容・倫理課題に注意を向け始めています。Microsoft、Google、IBM、SAP、SONYなどがAI倫理ポリシーを設定し、日立も2021年に社会イノベーション事業におけるAI倫理原則を策定しています。

社会受容や倫理に関する課題が引き起こされる理由のひとつには、サービス提供によって引き起こされる間接的かつ中長期的影響が見えにくい点があるのではないでしょうか。

デジタルサービスと社会は、相互に影響し合って進化しています。社会に受容される倫理的なデジタルサービスを提供するためには、両者の相互作用をベースにサービスのあり方を考えていく必要があります。

そこで、本シンポジウムでは、技術倫理や人の社会の進化といった観点から、デジタルテクノロジーを活用したサービスが良い形で社会と共生するための道筋を議論します。ここからは、名古屋大学情報学研究科の久木田水生准教授より「サービスが直面する倫理的課題とその超克」についてお話しいただきます。

「受容できる」と「受容されている」は違う

久木田さん:
技術が社会に受容されることについて、倫理的観点からお話します。社会受容可能性(法・倫理・経済・慣習などの観点から社会で使うことが妥当である)を横軸に、社会受容(実際に社会で使われている)を縦軸にして考えると、四つのパターンに分けられます。

画像: 「社会受容可能性」と「社会受容」を分けて考えるべき、と久木田さん

「社会受容可能性」と「社会受容」を分けて考えるべき、と久木田さん

まず、「社会で使われることが妥当であるし、実際使われている場合」。次に「社会で使われることが妥当であるが、実際には使われていない場合」。そして「社会で使うことが妥当でなく、実際にも使われていない場合」。

ここで私が一番気になるのは、「倫理的に受容できないものが社会で受容されている」点です。例えば、核兵器は倫理的に受容出来るものではありませんが、一部の国の核保有は認められています。「受容できない」ということと「受容されない」ということは必ずしも一致しないのです。

なぜそんなことが起きるのでしょうか。理由のひとつに「リスク認知」の難しさがあります。例えばアメリカでは、テロ防止のために移民を制限しようとする世論が盛んです。しかし実際に移民によるテロで命を落とすアメリカ人は、年平均で360万人に1人と非常に少ない。その一方で、毎年1万人以上が銃で命を落としていますが、銃の規制は進んでいません。

銃規制が進まない理由には、規制に反対する人たちの存在があります。彼らは例えば「銃が人を守っている事実は統計に現れていない」、「銃は素晴らしいホビーであり、文化である」、「銃を持つことは憲法で保障された権利だ」、「悪用する人間が悪く、銃が悪いのではない」と主張します。

「殺人瞬間移動ドアは社会に受け入れられるか?」

久木田さん:
例えば、有名な「どこでもドア」と同じような瞬間移動の機能だけでなく、利用すると次のような副反応を伴うドアが発明されたとします。このドアを使うことのリスクは大きく、社会は受け入れないでしょう。

好きな場所に簡単に行けるが、ドアをくぐると「一定の確率で怪我をし、死に至る場合もある」、「一定の確率で無関係の人間が被害を受ける」という副反応がある。

しかし、これを「自動車」に置き換えて考えるとどうでしょうか。日本では毎年3〜4千人の自動車による死亡事故があり、40〜50万人が怪我をしています。そのうち約半数が歩行者や自転車走行者であり、諸外国と比べても非常に比率が高いです。

そう考えると現状の自動車は社会受容できるテクノロジーではないはずですが、使用に疑問は持たれていません。このように倫理的に受容可能でないものが受け入れられる理由として、「リスクが見えにくい」、「リスクを被るのはマイノリティであり、マジョリティにとっては利益がある」、「受容された後に倫理的課題が顕在化したが、一般に定着していて取り除くのが困難」などの理由が考えられます。

では、倫理的に受容可能なサービスを作るにはどうすればよいのでしょうか。多様な意見を聞き入れるオープンな姿勢を持ち、サービス利用者だけではなく、社会全体、特に社会的弱者など影響を被りやすい人のことを考えることが重要なのではないでしょうか。

また、製品のライフサイクルとして、ある程度普及した段階でどのような影響を与えるかなど、広い視野で考える必要があると思います。

デジタルサービスのグッドプラクティス

画像: 竹下牧場で活用されている、牛を管理するためのシステム、Farmnote

竹下牧場で活用されている、牛を管理するためのシステム、Farmnote

久木田さん:
残念ながら、現在のデジタル技術には、倫理的に受容しがたいバッド・プラティクスが散見されます。それらに共通するのは、社会的に弱い立場にある人やマイノリティである人たちを苦しめたり、不利な状況に立たせている点です。

ここでグッド・プラクティスの事例をご紹介しましょう。北海道・中標津町の竹下牧場では、ファームノートというIT技術で牛の管理を行い、省力化を達成しています。情報処理学会の会報「情報処理(2018年11月号)」に掲載された記事で牧場長が話していた「機械化によって従業員の休みを増やすことができた」という趣旨の言葉が印象的です。

自動化と機械化が進めば、1人当たりの労働時間を減らせるようになります。テクノロジーの発展によって労働者の負担を減らし、かつ豊かな時間を使えるようになるという発想です。竹下牧場の事例から、 テクノロジーに影響を受ける脆弱な人のことを考えながら、サービスを作り活用することが大事だと感じます。

画像: バッドプラクティスとグッドプラクティスを分ける要因とは

バッドプラクティスとグッドプラクティスを分ける要因とは

サービスを作る側が外部の人間をデザインの工程に入れることは、倫理的に受容可能なサービスを作るために重要な手立てのひとつだと言えるでしょう。また、サービスが世に出た後でも、問題を見つけたらすぐに対応する姿勢が大事だと思います。

次回は、東京大学大学院情報学環の佐倉統教授が「進化論を科学技術に適用する際に注意すべきこと」について、加えて、日立製作所 研究開発グループの岩木穣が「サービスの社会事業に向けたアプローチ案」について語ります。

画像1: [Vol.1]多様な立場からサービスを見直す│協創の森ウェビナー第9回「デジタルサービスと共生するための社会受容と倫理課題」

久木田水生
名古屋大学情報学研究科准教授

2005年、京都大学大学院文学研究科で博士号(文学)を取得。2017年より現職。専門は情報の哲学、技術哲学、人文情報学など。著書に『ロボットからの倫理学入門』(共著、名古屋大学出版会、2017年)、『人工知能と人間・社会』(共編著、勁草書房、2020年)、『学問の在り方――真理探究、学会、評価をめぐる省察』(共著、ユニオン・エー、2021年)など、翻訳書にアンディー・クラーク『生まれながらのサイボーグ』(共訳、春秋社、2015年)、ウェンデル・ウォラック&コリン・アレン『ロボットに倫理を教える』(共訳、名古屋大学出版会、2019年)、マーク・クーケルバーク『AIの倫理学』(共訳、丸善出版、2020年)などがある。

画像2: [Vol.1]多様な立場からサービスを見直す│協創の森ウェビナー第9回「デジタルサービスと共生するための社会受容と倫理課題」

原 有希
研究開発グループ デジタルサービス研究統括本部 社会イノベーション協創センタ

サービス&ビジョンデザイン部 リーダ主管研究員(Unit Manager) 
1998年、日立製作所入社。デザイン研究所、デザイン本部を経て、東京社会イノベーション協創センタにて現職。ユーザーリサーチを通じたHuman Centered Designによる製品・ソリューション開発や、業務現場のエスノグラフィ調査を通じたCSCW(Computer Supported Cooperative Work)の研究に従事。人的観点でのソリューション創生や業務改革を行っている。

[Vol.1]多様な立場からサービスを見直す
[Vol.2]技術と社会の相互作用、社会受容へのアプローチ
[Vol.3]デジタルサービスは真に民主的なものになり得るか

This article is a sponsored article by
''.