※詳しくは「きざしを捉える」を参照
下地貴明
株式会社シーエーシー
2006年早稲田大学教育学部卒業。スタートアップ企業でSE・プロジェクトマネージメントを経験した後、不動産有効活用(医療事業開発コンサル・医療施設誘致・医師のキャリアサポート・人材ワークシェア事業)を主事業とするスマートメディカル株式会社(2011年10月、株式会社メディカル・コミュニケーションから商号変更)に入社。2010年音声気分解析技術の事業立案を担当し、同社ICTセルフケア事業部長として事業化を牽引する。海外投資家から出資を得て2017年スマートメディカル株式会社からカーブアウトし株式会社Empath創業(現・株式会社Poetics)。代表取締役に就任する。2023年5月より事業譲渡にともない、株式会社シーエーシー転籍。
健康状態を記録しセルフチェックができるアプリやウェアラブルデバイスが普及し、身体の健康を自己管理する習慣が広がっています。一方、コロナ禍でリモートシフトが進んだことで対面コミュニケーションの機会が減少し、孤立感に苛まれる人は増加しているのではないでしょうか。「メンタルヘルスケア」は多くの人の関心事です。
音声から感情を解析し、メンタルヘルスケアに活用するサービスを提供している株式会社シーエーシーの下地貴明さんに、これからの音声感情解析AIがもたらす「健康習慣」や「ライフスタイル」の変化についてお聞きしました。
下地さんは、取材時(2023年3月)には株式会社Empath(現・株式会社Poetics)の代表取締役を務められていましたが、音声感情解析AI事業の事業譲渡に伴い、2023年5月からは株式会社シーエーシーに活躍の場を移して引き続き音声感情解析AIの可能性を広げています。
東日本大震災のメンタルヘルスケアから始まった音声感情解析AI
――下地さんは十数年前、人間が発話する音声のトーン・ピッチなど物理的特徴の解析から「喜怒哀楽」「元気度」を視覚的に表す音声感情解析AIの開発に着手され、現在はそれをビジネスとして展開されています。そもそもこの事業を創出されたきっかけはなんだったのですか。
私はもともとIT業界の出身です。今はかなり改善されたと思いますが、これまで働いているなかでは、エンジニアがメンタルヘルスに課題を抱えてしまうケースを少なからず目にしてきました。だから、メンタルヘルスにはかねてより興味が強かったほうだと思います。
その後、転職したスマートメディカル株式会社で縁があってICTヘルスケア事業に携わることになり、2010年に“非接触で感情を推定する”デバイスを構想しました。当時はフィジカル面からアプローチしたヘルスケア関連プロダクト・サービスが流行り始めていた時期でしたが、メンタル面へのアプローチは「表情解析」以外、ほとんど皆無の状態だったと思います。2011年からの東日本大震災の支援事業での実証を経て、音声感情解析サービスの開発を本格化させました。
各社からスマートスピーカーが発売され、音声テックが盛り上がり始めていた2017年頃には、海外投資家から出資のお話もいただき、スマートメディカル株式会社からカーブアウトするかたちで株式会社Empathを設立しています。
――コロナ禍でオンライン上のコミュニケーションが普及しましたが、パンデミック以前・以後の変化があれば教えてください。
パンデミック後は需要傾向に変化がありました。多くの企業で「リモートシフトに伴うコミュニケーション課題への対応」が喫緊の課題として認識されるようになったのです。報道などでも知られているとおり、2020〜22年に新卒入社された方々は上司・同期との対面コミュニケーションの機会に恵まれず孤独感に苛(さいな)まれやすく、離職率も高い。そこに課題を抱える企業からの問い合わせがかなり増えました。
またコロナ禍でのリモートシフトを契機に、オンライン会議を自動で録画・解析・整理するSaaS(※)『JamRoll(ジャムロール)』(株式会社Poetics) を開発しました。同サービスにも音声感情解析AI が実装されていて、WEB会議の音声をトラッキングすることで、打ち合わせの回数が多く負荷のかかっている人を見つけることができます。マネージメント職の方がメンバーのメンタル状況を把握しながら声掛けのタイミングを察知するなどチームマネージメントにも活用されているほか、商談の勝ちパターンを探るための分析などにも使われています。
※Software as a Serviceの略。インターネット上で利用できるソフトウェアやサービスのこと
メンタルヘルスの不調が社会的スティグマになってしまう日本
――音声感情解析AI の開発プロセスについて、改めて詳しく教えてください。最初は東日本大震災の被災地で活動するボランティアのメンタルヘルスケアに基礎技術が導入されたそうですね。
はい。当時はスマートメディカル株式会社に在籍したなかで音声感情解析AI の技術を開発していて、初めて用いられたのが、株式会社NTTドコモ 東北復興新生支援室と行った支援事業でした。ボランティアの方々には音声感情解析AI アプリ(プロトタイプ版)が入ったスマートフォンに毎朝晩「おはようございます」「おつかれさまでした」と話しかけて音声を入力してもらい、メンタル状況を測定・管理しました。日々のトラッキングデータがグラフ化され、管理者はボランティアの気分の遷移を見ることができます。
――当時、ボランティアはどんな課題を抱えていたのですか。
被災地で活動するボランティアのなかには、精神的にかなりこたえる状況下にもかかわらず、「大丈夫」と言いながら無理して作業をする方が一定数いました。株式会社NTTドコモはそれを課題視し、トラッキングデータからメンタル不調者を見つけ出して産業医につなげるなどの措置を実施したのです。同サービスはその後、2014年6月の労働安全衛生法改正で2015年12月から義務化されたストレスチェック制度の時流に乗り、スマートメディカル株式会社よりストレスチェック義務化対応アプリ『じぶん予報』としてリリースしています。
――この取り組みから見えてきたことはありますか。
震災ボランティアを対象としたサービス開発を経て気づいたことがあります。1日2回、毎朝晩にスマートフォンを立ち上げて「おはようございます」「おつかれさまでした」と言うだけでも、健康に無関心な層はそれをやりたがりません。強制力を働かせる方法もありますが、それでもやらない方はいます。一般的に約8割の人が「自分の健康状態に無関心」ともいわれているなか、それまでの生活動線にないことを習慣化するのは難しい。それがよくわかったことは収穫でした。
また、スマートメディカル株式会社時代にフィンランドの社会保健省の方に聞いた話ですが、フィンランドでは公教育のなかで「うつは心の風邪」だと教える文化があるそうです。それに対し、日本はどうでしょう。いまだ、うつが「社会的スティグマ」(ある属性や特徴を持つことから差別・偏見の対象とされること)として扱われるところがあるのではないでしょうか。
身体に関しては「健康なほうがいいよね」とする社会的な同意があるけれど、精神面に関しては社会的スティグマになってしまうため、メンタル不調の当事者は「放っておいてくれ」と思ってしまいます。また、周囲も気を遣って「放っておいたほうがいいかな」と考えてしまう。精神の不調も身体と同じく誰にでも起きる普通のことだという認識は、いずれ広まっていくでしょうが、まだ時間はかかりそうです。
――健康診断で示される客観的な数値と違って、感情に関するデータは個々人で尺度が違いそうです。「怒っているつもりはないのにAIから“怒っている”と診断された」など、提示されたデータを受け入れられない人もいるのではないでしょうか。
音声感情解析AI は個人の内面にある感情を見透かす技術では決してありません。表情解析などほかのアフェクティブ(感情)コンピューティング技術でも同じことが言えますが、技術の肝は「その表情を見たとき・声を聞いたとき、他者が“どのように感じる傾向にあるか”」ということです。つまり音声感情解析AI は声の状態から、他人には“怒っているように聞こえてしまう”ことを提示します。上司はノリノリで1on1をしているけど実は部下が怯えている、なんてことがどこの会社にもあるんじゃないでしょうか。
――第三者からその上司に「言い方が強いですよ」と伝える機会もつくりにくいですし、本人にとっても指摘してもらえないつらさがありますね。
お酒を飲む機会もめっきり少なくなるなか、AIが「こういうふうに見られるかもしれませんよ」と“耳打ち”してあげる、そしてそのことで自分の行動をただすことができる。実際、ハラスメンス防止の観点からも音声感情解析AIが注目されているように思います。
――株式会社Empathは「科学と人文知で『共感』に基づくテクノロジーを創造する共同体」を企業理念とされています(2023年3月取材時)。科学のみならず“人文知”ということばを選ばれている点がとても印象的ですが、このミッションに込めた想いを教えていただけますか。
そもそもサイエンス=科学には、自然科学・社会科学・人文科学という3つの領域があります。例えば「人はなぜ自殺してしまうのか」という問いがあったとすれば、自然科学では「抑うつ状態は神経伝達物質セロトニンの減少が引き起こすもので……」というように事象を説明できるようなアプローチをとります。社会科学では「高齢男性の○%は抑うつ状態になりやすく、そのうち○%は自殺をしやすく……」みたいな統計的なアプローチをとるでしょう。
これに対し人文科学は「自殺をする人の心の動き」を洞察する、すなわちHumanity(人間らしさ)を理解・共感するアプローチをとります。自然科学・社会科学の領域だけでヘルスケアの問題を考えていけば、人間のメンタル状況をすべて測定しうつ病罹患率を下げようとするでしょう。でも個別具体に対応する“万人に心地よい”技術まで昇華させるには、絶対にHumanityが欠かせない。そういった観点から、株式会社Empathでは哲学者とも一緒に働いて音声感情解析AIを開発していました。
仲介者として二者間の思惑を調整することが音声感情解析AI の使命
――将来的に音声感情解析AIが本格的に広まったとき、どのような状態になるのが理想的だとお考えですか。
メンタルヘルスの不調に陥ることは、誰にでも起こり得る当たり前のことだという認識を広めたうえで、一人ひとりが持つ「個別具体」の価値観や事情を尊重し配慮していける世の中になっていることが理想だと思っています。
例えばストレスに対処するときには、一般的にはストレッサー(ストレス反応を起こす外部刺激)を除外するのが一番の解決策です。でも本当に精神的に疲れた状態にある人は、そのストレッサーに対峙することすら難しいですよね。
そうしたときにはひとまず、情動焦点型コーピングという対処法がとられます。これはすなわちストレスの原因そのものに焦点を当てるのではなく、自分の感情に焦点を当て、ストレスを軽減する方法です。わかりやすく言えば“気晴らし”ですね。
自分の気分が落ち込んでいるとき、音声感情解析AI がそれに気づいてあげて「冷蔵庫にビールが冷えているよ」と伝えるなど、ちょっとした回復の機会やケアプログラムを案内する。そうした使われ方の可能性があると思います。ただ、最終的にストレスの問題と対峙するときには人による助けが不可欠です。誰かに「助けて」と言うきっかけを音声感情解析AI で与えられるようになっていったらより理想的です。
――メンタルヘルスの不調が検出され、対処されること自体に恐れを感じる方もなかにはいるかもしれません。
そうですね。日々のコンディションが他者に開示されることを嫌がる人もいるでしょうし、その感覚はまったくおかしなものではありません。例えば、会社ぐるみで従業員のメンタルヘルスの状態を把握し、不調を検知したときは産業医につなぐ、みたいな仕組みがあったとします。一方で、当事者は「キャリアパスが絶たれるから、絶対に不調を気づかれたくない」と思うかもしれない。だからこそこれは技術だけで解決できる問題ではありません。社会的スティグマを取り除くことが先決だと思います。
――企業に限らないテーマであると感じます。例えば、行政による公助の領域ではどんな活用方法が考えられますか。技術やシステムの問題よりも、消費者心理や法律の問題が持ち上がりそうです。
日本の高齢者のうつはなかなか深刻な問題で、高齢者の30%がうつ病だともいわれているなか、メンタルヘルスの状態を見守ってケアする手段が求められています。すでに、行政の管轄下で国民のメンタルの不調に気づいてソーシャルワーカーを派遣する仕組みを検討している自治体もありますが、予算の問題などもありまだ実現には至っていません。
それに、国や行政を主体としたストレスチェックをやるのならば、それが本当に国民のためになるかどうか、検証が必要だと思います。雇用関係のある企業と従業員なら許容されることも、国・行政の管轄下で全く同じことをやるとすれば、違和感を抱く方もさらに増えますよね。一気に一般化・一律化するのではなく、まずはその仕組みを必要とする人から始めて、自ら選択した人からメリットを享受できるようになっていくのが望ましいと個人的には思います。
――ビジネスでは対人コミュニケーションがストレッサーとなり調子を崩す人が後を絶ちません。
そうですね。私たちのお客さまでもあるコールセンターのオペレーターさんも、クレームの入電で相手からかなり激しく怒鳴られることがあるそうです。しかも、それはどんなベテランになろうが慣れることはない、と聞きました。実際に当社サービスを導入した結果、管理者が元気のないオペレーターの“言い出せない思い”に気づいてあげることができたケースでは、思いを打ち明け始めた途端に泣き出してしまったそうです。
AI技術を使ったコールセンター業務自動化も進んではいますが、完全に普及するまでにはまだ時間がかかるでしょう。また、地域ではそういった業務によって雇用が生まれているという側面もあり、完全に代替すると職を失う方も出てくる。そういった切実な事情に対しても、慎重に向き合うべきです。
ただ、だからといってコールセンター業務で“怒鳴られ続ける方”を社会がこのまま見捨ててしまってよいとは思いません。例えば工場では、空気中に漂う有機溶剤が規定の量を超えないように換気をしないといけないといったガイドラインを策定しています。コールセンター業務においても「安全衛生管理の観点から工場の環境測定が行われる」のと同様に、音声感情解析AIを介在させながらオペレーターのメンタルヘルスを測定しケアするといった措置は可能であり、やっていくべきだと考えます。
――下地さんのお話を伺っていると、音声感情解析AIは「自分と他者の間に立ってコミュニケーションを“仲介してくれる存在”」のように感じます。
私たちがめざしている方向性はまさしくそこですね。同じ人間といえども思惑は違うため、二者間のコミュニケーションはうまくいかないことのほうが多いものです。でも両者の間に“仲介役”がいれば相互理解も深まるじゃないですか。企業と従業員の関係も同じで、「不安はないです」と口では言いながら、実際は無理が生じていて気づいたら退職されてしまうことがある。私たちはそういったその人特有の個別性に配慮する力を「共感」と規定していて、音声感情解析AI は共感にもとづいて二者間の思惑を調整することができると思います。今後も、Humanityの理解に努めながらプロダクト開発に注力していきたいです。
編集後記
社会全体でも、うつを患っている人に元気になってほしいと思うし、当事者も助けてほしいと思っている。でもその間には社会的スティグマを貼られてしまうという厚い壁があり、下地さんはここに技術で挑戦されているのだとわかりました。この技術が日常のシーンに入ってきて、発話から感情を読み取ることが当たり前になることによって、自分自身の状態を把握できたり、ちょっとした変化について仲間と会話することができたりすると、社会をもっと心地よく変えていけるのではないかと感じます。
コメントピックアップ
個人的に産業医よりもAIに悩みを相談するほうが、精神的なハードルが低いと感じます。私は悩んでいるとき、誰にも見られていないSNSでつぶやいてストレスを解消しているのですが、音声感情解析AI もそれくらい日常に溶け込んで、個人が気軽に利用できる技術になればありがたいなと思いました。
客観的な視点から自分の状態を評価されることには、たいてい苦痛を伴います。診断結果が都合の悪い内容だったときでも受け入れられるのか、自信がありません。しかし、AIそのものには感情がなくて、どこまでも公平性を担保してくれるなら、私は諦めて受け入れるかもしれないとも感じました。
ハラスメント防止の観点から音声感情解析AI に非常に興味を持ちました。もしも、自分の言動に問題があった場合に「他者がどのように感じたか」に気づくことは難しいです。音声感情解析AIが言動を客観的に評価する仕組みが当たり前になることで、相互理解を深めて人間関係のストレスを軽減できたらと期待を持ちました。
関連リンク
きざしを捉える
「もしかしたら、将来、人々はこういう考え方をして、こんな行動をとるようになるかもしれない」。
さまざまな分野の有識者の方に、人々の変化のきざしについてお話を伺い、起こるかもしれないオルタナティブの未来を探るインタビュー連載です。