プログラム1「社会システムのトラスト」
プログラム2「多様なデータが作る社会システム」
プログラム3「社会システムへのトラストを再構築する」
人権に配慮した、信頼ある個人データ流通の仕組みが必要
鍛:
これまでのプログラムでは、「今後の社会は多様なデータがつくっていく」という議論をしてきました。この、データ駆動型社会(Society5.0)実現の鍵として期待されているのが、データとAIです。日立製作所でも、データとAIを活用して社会イノベーション事業を推進しています。しかし、データとAIを社会インフラシステムに適用するとき、良いことばかりとは限りません。個人データは、活用されることできめ細やかなサービスが受けられるようになると期待されています。しかし、そのデータは適正に管理されているのでしょうか。
AIは学習を続けることによってその挙動を変えていくところが特徴です。「蛇口をひねると水が出てくる」、そういった信頼を元に社会インフラシステムは構築されてきましたが、AIが適用された社会システムにおいて、あちらで動いているシステムとこちらで動いているシステム、両方が同じ動作をすると保証されているのでしょうか。
データ駆動型社会(Society5.0)の社会システムにおいて、データやAIの活用には新たなトラストの構築が必要だと考えています。このプログラムでは、データやAIの活用に関するトラストの構築、それぞれの取り組みを紹介します。
高橋:
まずはデータの活用に関する取り組みを紹介します。私たちが日々の生活を送る裏で、私たち自身に関する膨大なデータがサイバー空間に蓄積されています。そこから価値を生み出すことでデータエコノミーが拡大し、データ駆動型社会の実現が期待されています。しかしその反面「個人データが知らないところで勝手に使われているのではないか」という懸念や、プライバシーの侵害、漏えい、不正利用、なりすましといったリスクも増加しています。この問題は「データ主権の問題」と言われ、人権、事業者利益、公益の対立という形で表面化しつつあります。
たとえば米国の大手ソーシャル・ネットワーキング・サービスが「ユーザーの同意を得ずに顔認証データを収集していた」として集団訴訟を起こされ、和解金を支払うことになりました。これはデータ主権を個人の基本的人権とする立場と、データ利用で経済的利益を追求する事業者の立場が対立した例です。
テロや犯罪対策のために各国で顔認証システムの導入が進む一方で、プライバシーの侵害であるとして反対運動が起きています。人権と公益が対立している例として、EU やアメリカでは、公的空間や公共機関による顔認証を規制する動きが強まっています。こうした背景から各国が自国内にデータを囲い込む「データローカライゼーション」が進み、世界が分断される懸念もあります。この問題を乗り越え、信頼ある自由なデータ流通(DFFT:Data Free Flow with Trust)を実現するためには、人権に配慮した信頼ある個人データ流通の仕組みが必要です。
その実現に向けたグローバルな潮流として「自己主権型アイデンティティ」という考え方が広まりつつあります。メガプラットフォーマーや特定企業に依存せず、自分のアイデンティティ情報を自分で管理できる仕組みです。たとえば国や自治体、金融機関、医療機関、企業、学校などから個人に発行される各種の証明情報を、個人の意志で許可した相手だけに、許可した情報だけを提供できる、そんな仕組みをめざしています。
PBIにより自己主権型アイデンティティの仕組みを実現
いま、世界では、スマートフォンなどの個人デバイスを信頼起点とし、デバイスで安全に情報を管理する方式が提案されています。しかし、スマートフォンを持っていない高齢者や子供などは、この仕組みから取り残されてしまう可能性があります。また、もしも海外渡航中にスマートフォンを紛失し、自分を証明できなくなった場合はどうすればよいでしょうか?このようなケースも想定し、日立は誰も取り残さない自己主権型アイデンティティの実現をめざした研究開発に取り組んでいます。
PBI(Public Biometric Infrastructure:公開型生体認証基盤)は、便利な生体認証と安全な暗号技術を融合したセキュリティ技術です。すでに、銀行や決済サービスに導入されており、手ぶらでのATM取引やキャッシュレス決済に利用されています。
PBI技術が持つ3つの機能により、信頼ある自己主権型アイデンティティの仕組みを実現することができます。
1つ目は便利で安全なPBI認証により、確実な本人確認に基づいたデータ主権を保証します。2つ目はデータの暗号化です。生体情報から生成した暗号鍵により、自分の個人データを暗号化することで、安全にクラウドに保存することができます。3つ目は電子署名です。電子署名は紙の書類での印鑑やサインに相当するデジタルな機能です。個人データの提供同意やデータが間違っていないことの内容確認を、PBIに基づく電子署名により証明することができます。
これら3つの機能を持つPBI技術を活用することで、スマートフォンなどの認証用デバイスの所有を前提とせず、誰も取り残さない、安全・安心な自己主権型アイデンティティを実現します。
精度がよくても信頼を得られない「AIの落とし穴」
小川:
次に、AIや機械学習のトラストへの取り組みを説明します。まず機械学習のトラストについて考えるため、いくつかのリスク事例を紹介します。1つ目はトレーラーの側面に自動運転車が衝突した事例です。事故報告によれば、同じ機能を搭載した車両が総計1憶3千万マイル(おおよそ2億キロメートル)を走行してはじめて起きた事故と言われています。一方で人が運転する場合には6千万マイルに一度、事故が発生しているそうです。統計的には自動運転車は人より安全ということになりますが、それで社会の信頼を得ることができるでしょうか。
次はチャットボットの事例です。あるチャットボットは SNS 上のユーザーの発言を学習して発話するものでしたが、ユーザーが意図的に行った差別的発言などを学習してしまった結果、サービス開始16時間後に停止せざるを得なくなりました。
最後の事例は採用における評価システムです。過去の採用者又は不採用者の応募用紙を学習した結果にもとに、新たな応募者を評価させたところ、過去の採用者に男性が多かったために女性を意味する単語を低く評価してしまい、結果的に評価に男女差が発生したといわれています。
これらの事例では、機械学習自体は、ある意味では与えられたデータをよく学習していますが、一方で、精度よく学習したとしても信頼を得られない可能性があることを示しています。
システム全体のリスクを小さくすることが大切
私たちは、AIや機械学習に大きな期待を抱く一方、不安も感じています。しかし、不安を感じるからといって、AIの利活用が抑制されることは望んでいません。AIや機械学習について適切に理解し、利活用することで、社会が発展することを望んでいるわけです。AI や機械学習が信頼されるためには 、AI によって得られる利益に対してシステム全体のリスクを十分に小さくすることが大切だと考えています 。そのためのテスティング技術と、コンセンサス形成のためのガイドライン策定についてご紹介します。
従来のソフトウェア開発は演繹的に行われてきました。たとえば、仕様を定義したあとに、それに基づいて実装をします。テスティングでは、仕様を正解として実装がそれを満たすかどうかを確認してきました。一方で機械学習は、データから帰納的にモデルが作られます。そのため、ソフトウェア開発のように正解となる仕様を定義できません。また、精度などの性能評価はデータに基づいて行われますが、このデータが実世界と一致しているとは限りません。つまり、機械学習のテスティングでは、「正解を定義できないモデルをテストしなければならない」という課題があります。
このように難しい機械学習のテスティングですが、さまざまな技術が提案されています。その一つであるメタモルフィック・テスティングを紹介いたします。従来のソフトウェアのテスティングでは、まず「与えられた仕様に対して、どのような出力が出てこなければならないか」を定義します。これと、実際に動かして得られた結果が一致しているかどうかを確認します。一方でメタモルフィック・テスティングでは、「入力の変化に対して、出力がどう変化するか」という点をテストします。
Sin関数を例にして説明します。ある角度に対するSinの値を正確に答えることは難しいですが、ある角度から360度一周した場合のSinの値は変わらないことは知っています。このような入力の変化と出力の変化の関係を「メタモルフィック関係」と呼びます。メタモルフィック・テスティングでは、正解が定められない場合でも、テスト実行時の入出力の変化がメタモルフィック関係と異なっていれば、何かが間違っていることはわかります。
この技術は従来からあるものですが、近年、AIの分野でも使われ始めています。たとえば、画像を認識するAI をテストする場合には、扱う画像を少し回転させるなど変化させても、認識結果が変わらないことを確認します。このようにして正解を定義できないモデルもテストできるのです。
AI や機械学習が社会に受け入れられ、安全・安心・快適な社会を創造する
次に、トラストのためのコンセンサスを形成する活動として、国内で活発に活動している2つのガイドラインを紹介します。
1つ目は、QA4AI コンソーシアムが発行しているAIプロダクト品質保証ガイドラインです。多くの産学官の研究者やエンジニアが参加して、実務的な観点からAIプロダクトの品質保証について検討しています。品質保証の枠組みのほか、品質保証に有効な技術の解説、さらには5つの具体的なドメインについて事例検討を行っているのが特徴です。
品質保証の枠組みについて紹介すると、本ガイドラインでは、学習などに用いるデータ、それに基づいて作られるモデル、モデルを含むシステム、それらを開発するプロセス、そして顧客からの期待、これらの5つの軸のバランスでQAの活動を評価することを提案しています。これらのバランスがよい場合には、顧客の期待に沿った品質を保証できると期待できます。バランスが悪い場合には、技術が不足しているかもしれませんし、顧客が無理な期待を持っているのかもしれません。いずれにせよ、バランスを保つ方策が必要であることがわかります。ガイドラインでは、これらの5つの各軸に対して、考慮すべきチェックリストを提案しています。
次に、産業技術総合研究所を中心として策定した、機械学習品質マネジメントガイドラインを紹介します。品質特性や開発プロセスの定義、品質保証のための要求事項、公平性やセキュリティに対する考え方などが体系的にまとめられているのが特徴です。
品質モデルについては、まず、製品を利用するときの品質特性として、安全性・リスク回避性、有効性、公平性などが例示されています。次に、製品に含まれる機械学習要素がもつべき外部品質が定義されています。さらに、これらの外部品質を実現するために、機械学習要素がもつべき内部品質が定義されています。これらの内部品質を満たすために、開発において求められる事項も定義されています。
今回紹介した2つのガイドラインは、矛盾するものではなく、目的に応じて相互補完的に利用可能なものです。
私たちは、これまで説明してきたような技術の開発、製品開発への適用、産官学を超えた議論と発信によって、AIや機械学習が社会に受け入れられ、安全・安心・快適な社会を創造したいと考えています。
鍛:
これまで見てきたように、日立製作所は、データの信頼性に対する取り組み、AIの信頼性に対する取り組みを推進しています。技術力を担保データやAIへの信頼を確保することが、データ駆動型社会の信頼を再構築することにつながると考えています。
鍛 忠司
研究開発グループ
社会システムイノベーションセンタ 主管研究長(Distinguished Researcher)
1996年日立製作所入社以来、サイバーセキュリティの研究開発および国際標準化活動に従事。現在はサイバーセキュリティに加えて、デジタル社会におけるトラストのためのフレームワークの開発に取り組む。世界経済フォーラム第四次産業革命日本センタースマートシティプロジェクトフェロー、情報セキュリティ大学院大学連携教授。 博士(情報科学)。
髙橋 健太
研究開発グループ
社会システムイノベーションセンタ 主管研究員(Principal Researcher)
現在、生体認証、暗号技術、情報セキュリティの研究開発に従事。ISO/IEC SC37 エキスパート、東京大学 非常勤講師。市村産業賞 功績賞(2020年度)、R&D 100 Awards(2020年)、ドコモ・モバイル・サイエンス賞 優秀賞(2016年)、情報処理学会 長尾真記念特別賞(2014年度)など多数受賞。 博士(情報理工学)。
小川 秀人
研究開発グループ
社会システムイノベーションセンタ 主管研究員(Principal Researcher)
ソフトウェア工学の研究とソフトウェア開発への適用支援に従事。近年は機械学習を用いたシステムの検証や品質保証の研究を推進。AIプロダクト品質保証コンソーシアムの設立発起人・運営副委員長。共著書に「AIソフトウェアのテスト 答のない答え合わせ」(リックテレコム社)など。静岡大学客員教授。博士(情報科学)。
プログラム1「社会システムのトラスト」
プログラム2「多様なデータが作る社会システム」
プログラム3「社会システムへのトラストを再構築する」