September 2, 2019

なぜ人工知能(AI)に顔を与えるのか?

UneeQ のピアーズ・スミスが、人工知能の改善に役立つ「顔を追加する」ことについての洞察をいくつか共有します。

なぜ人工知能(AI)に顔を与えるのか?

- この記事はdigitalhumans.comから機械翻訳し、修正したものです。

NDISの画期的なNadiaプロジェクトで作業を行っていた際、UneeQのソリューションアーキテクト、Piers Smithは、プロトタイプをナプキンの裏に描きました。この最初のデジタルヒューマンプロジェクトは、具体化された会話型AIが商用ソリューションとして成長し始めた場面です。Piersは、AIに顔を持たせることについてなぜ我々全てが興奮するべきかを共有します。

私たちが人工知能マシンを思い浮かべるとき、よく映画で見なれたものを思い出します:2001年宇宙の旅のHAL、ショート・サーキットのロボットNumber Five、そして最近ではインターステラーのTARSなどです。

しかし、ハリウッドが長い間AIキャラクターを物語に組み込んできたものの、AIはしばしば"悪者"の役割を果たしたり、サイエンスフィクション映画ではクリッシェとなりつつある、ロボットが暴走するという事態の引き金となったりしています。 

特にオーディエンスを驚かせた映画が一つあります、それが1979年の大ヒット映画、エイリアンです。40年以上経った今ならば、映画の大きな展開を明かしても安全だろうと思います(それでもネタバレ警報です!)。 なんと、架空の宇宙船ノストロモ号に乗る科学者アッシュは、隠された恐ろしい目的を持つアンドロイドだったのです。

予測不能なプロットツイストの典型的な例がこれです。しかし、アッシュがアンドロイドであることが明らかになった衝撃は、私たちが彼を人間だと思っていただけでなく、彼が医者だと信じていたからこそ強烈でした。私たちは医者が有能で善良で依存性のある医師であり、私たちは彼に世話をしてもらえると本能的に信じています。

リドリー・スコットとエイリアンのSF作家たちは、観客を騙してアンドロイドを人間だと信じさせることの壊滅的な力を知っていました。

しかし、現実の世界では、人間がそれが現実だと信じるのではなく、それが現実ではないと知っているのに、人工知能のマシンに自発的に信頼を寄せることがどういう結果をもたらすかが見え始めています。そして、これはさらにポジティブな種類のプロットツイストです。

例を挙げてみましょう。

エリー - 精神保健における先駆者

この人物がエリーで、エリーはアメリカ南部カリフォルニア大学がアメリカ国防軍のために作ったものです。エリーは、特にPTSD(心的外傷後ストレス障害)の症状の開示率について、帰国した兵士間での違いを調査するために設計されました。これは、既存の対面スクリーニングプロセスを経て、彼らの状態を選択的に表現することで社会の汚名を避けるために多くの人々が通過し、その後PTSDのエピソードを経験するという状況への対応でした。

研究者たちは、人間のカウンセラーと話す帰還兵とAIカウンセラーと話す人々の間で、情報を開示する割合に違いがあるかどうかを見たかったのです。

研究の第一段階では、退役軍人に対して、人間の代わりに無顔のシステムと交流するという選択肢が与えられました。結果として、彼らは意見を述べることに対してより意欲的であり、また、評価されることを恐れて事実を隠す傾向が減少しました。この結果は特に驚くべきものではなく、交流における社会的な手がかりが欠如していることが、より豊かなプライバシー感覚を推進するという事実が何度も研究によって立証されています。そして、その効果は、情報がデリケートなときにさらに顕著になります。

研究の第二段階では、チャットボットに名前とコンピュータ生成の顔と体が与えられ、彼女はデジタルヒューマン、エリーになりました。

エリーの研究者たちは、システムに顔をつけることが、人々が自分のメンタルヘルスについてどれだけ積極的に語るか、そして顔のあるシステムに対して顔のないシステムよりも多くの情報を開示するかどうかに違いをもたらすかどうかを見たかったのです。

今、退役軍人たちは依然としてコンピュータシステムに対峙していることが明らかですので、それに顔をつけることは何の違いも生まないと思うかもしれません。 もしデジタルヒューマンが一過性の流行だと思っているなら、そう信じても構いません。

しかし、実際に行われた調査では、退役軍人が不明なコンピュータシステムよりも2倍以上の確率でPTSDの症状をElliというデジタルヒューマンに対して報告していることがわかりました。参加者からのエピソードを読むと、彼らが認知的にはElliが現実ではないことを理解していながらも、何かしらの関連性を感じていることがはっきりと伺えます。

システムに顔をつけることで人々の行動は変わる

これは、人々が感情的なつながりを形成していることを示唆しています。また、この結果は非常に興味深く、他の研究でも同様の結果が出ていることから、特異なものではありません。

現在、人々がAIを信頼しているかどうかを尋ねると、多くの人々がAIを信頼しておらず、むしろ恐れていることが明らかになります。つまり、人々が考えていることと、それからそれぞれのシナリオで彼らがどのように振る舞うかというものには、明らかな違いが存在します。

これは、とても有力なアイデアです。私が興味を持っているAI倫理の一分野であり、システムがどのように訓練され、バイアスが排除され、透明性がどのように提供されるかを懸念するシステム視点とは異なります。AIの成分がどのようにデジタルヒューマンの形(人間っぽい形)に落とし込まれるかを慎重に考える必要があり、それが人々の行動をどのように変えるか、冒頭に述べたよりも有益な情報を提供しています。

AIの顔のポジティブな影響 - NDISのためのNadiaプロジェクト

南カリフォルニア大学によるElliの研究は、私がUneeQとNadiaプロジェクトとの旅を始めた初期を思い出させます。

2016年、オーストラリア政府は、障がいを持つ人々のための新しい国家障害保険制度を導入しました。

このプログラムにアクセスするためのオンラインポータルは、彼らのニーズを考慮に入れて設計されていなかったため、一部の障害を持つコミュニティのメンバーにとっては使用が難しかったり、不可能だったりしました。Nadiaは、障害を持つ人々がこれらのシステムをナビゲートするのを助けるため、AIデジタルヒューマンとして生み出されました。重要なことは、その設計プロセスは障害を持つコミュニティの代表者たちが主導したものでした。

このアイデア自体は特に複雑なものでもなく、説明するのも難しくありませんでした。実際、Nadiaの最初のプロトタイプに使うアーキテクチャは、2015年末の作業ランチ中にメモ帳にスケッチしたもので、プロトタイプはその4ヵ月後に動作しました。

Nadiaは無顔の声や漫画のようなアバターで表現できたでしょうか?確かにそれは可能でしょうが、人々がリアルな顔に対して持つ親しみや感情的なつながりは、その過程で失われてしまうでしょう。障害を持つ人々(そしてその家族や介護者)が求め、これまでの政府の官僚制度との交流から欠けていたのがまさにそのようなつながりなのです。

デジタルヒューマンの人道的な応用で得られる利益は大きいでしょう。人々が開示の障壁を取り払うのを助け、必要なサービスへのアクセスを簡単にし、そして何よりも彼らが治療を続けるためのつながりを持つことを助けるという考えは、必要なときに、必要な場所で助けるための方法を変えることになるでしょう。

あなたがどんな種類のケアや治療、情報やアドバイスにアクセスする必要があるときでも、システムをナビゲートし、プロセスをガイドしてくれるデジタルヒューマンとともにそれを行うことができる世界を想像してみてください。

UneeQがSir John Kirwanの「Mentemia」と共同で取り組んでいるような、デジタルヒューマンのメンタルヘルスコーチは、完全な匿名性でユーザーの問題を話し合い、治療につなげ、常に使用することができるため、ユーザーを治療につなぎ続けるのに役立ちます。

心臓健康コーチは、治療後のヘルスケアを人々の自宅まで拡張し、回復に関与し続けることで、ヘルスリテラシーのような障壁を克服するのを支援します。治療についての何でも質問でき、そしてシンプルで安心感のある言葉で語りかけてくれる心臓コーチが24時間いつでも利用できると想像してみてください。

金融リテラシーは問題であり、米国人口の3分の2がその対象となっています。銀行・金融セクターにおいて、デジタルヒューマンは、理解しやすく、非評価的な会話形式を通じて、カスタマーにパーソナライズされたサポートへの簡単なアクセスを提供することができます。これにより、顧客がクレジットカード会社や住宅ローンブローカーとの交流を無理なく行うことができ、またその業界とのビジネスを行う意欲を引き立てることができます。

倫理的な問題についてオープンに議論すべきだ

すでに述べたように、身体性とAIが身体性を駆動させる要素によって人々の行動反応が変化するという考えは、いくつかの倫理的な問題を伴います。

明らかな疑問は、AIへの信頼、具体的には過信の結果についてです。システムの能力が人々の認識と一致せず、また彼らがそれに応じて行動を修正しない場合の影響です。

2016年のジョージア工科大学の研究では、42名の参加者に自律的に動きAIによって制御されていると自己紹介するロボットを提供しました。かわいらしい振り手の動きをするこのロボットは十分友好的に見えましたが、会議室に案内するよう参加者に頼んだところ、ビルの中で迷って何度か間違った方向に進みました。

その後、研究者たちは火災緊急時のシミュレーションを行い、ロボットに参加者に建物からの避難を指示し、ロボットに従って避難するよう求めました。以前に廊下で彼らを誤った方向に導いたロボットでしたが、それでも37人がロボットに従いました。2人は立ち止まり、ロボットには従いませんでした。そして、たった3人が自分自身で出口を見つけ、研究者に一体何が起こっているのかを尋ねました。

このユーモラスな物語は、システムを具体化することに関する明白な倫理的な懸念を指摘しています。それは、認知と行動の間のこのギャップが、人々が予期しない方法で反応する原因となることです。

これは現在、私たちの業界で大きな問題となっています。というのも、UneeQのデジタルヒューマンの現在のリアリズムのレベルを扱う私たちの能力が、デジタルヒューマンを可能にするシステムの能力を超越しているからです。

他にも疑問があります。例えば、デジタルヒューマンとのインタラクションで生まれるプライバシーの感覚が現実と一致するか、あるいは精神疾患を抱える人が自分自身や他人に危害を加える意図を明らかにした時どのようにデジタルヒューマンが反応すべきかなどです。また、ジェンダーやデジタルヒューマンがステレオタイプなジェンダーロールを否定的に反映するかどうかという話題もあります。

しかし、それは私たちが何もしないべきだという意味なのでしょうか?

これらの倫理的な問いが行動を起こさない理由として位置づけられている意見や書き込みを見たことがあります。

その見解には私は同意できません。なぜなら、影響を受ける人々とこれらの問題について話し合っている限り、私たちはそれらを解決すべく努力すべきだと考えるからです。

私がNadiaを事例として取り上げる理由の一つは、それが、私がシステムがどのように生成されるべきかを示しているからです。

  • それらは、それらを使用し、影響を受けるあるいは依存する人々と共に構築されるべきです;
  • それを作るチームには、代表性だけでなく意思決定にも多様性が必要です;
  • 倫理的な問題については開かれた態度で、意図的に考えるべきです;そして
  • 彼らの能力と性質は明確でなければなりません

その後、デジタルヒューマンの利点に関する証拠は実は私たちに行動を求めていると信じています。

次に何が来るのか?

では、デジタルヒューマンにとって次は何でしょうか?

UneeQにとって、それはビジネスとブランドのメリットに焦点を当て、オンラインや物理的な場所でデジタルヒューマンを活用することです。私たちがVodafoneのために行ったように

彼女は、人間のスタッフの負担を減らしながらも、ビジネスプロセスをより効率的にする一例であり、多くの顧客がそれを好むという事実を示しています。それは、スタッフメンバーの安全網であるか、オンラインサービスへのアクセスがないかに関わらずです。

Vodafoneのデジタルヒューマンは、Josieのような他のUneeQのデジタルヒューマンと共に、デジタルヒューマンがブランドを体現できる一例でもあります。JosieはすでにASBのブランドの「顔」として位置づけられています。

AI時代の到来

ハリウッドから病院まで、AIはインパクトを与えています。

開発者がバックエンドでデジタルヒューマンが人間、物体、環境を認識し、言葉を理解て自然な言語を学ぶ技術を開発する一方で、フロントエンドのインターフェース – デジタル的にレンダリングされた顔 – のデザインが、人々がその技術とどのように対話し、具体的にはそれを信頼できると感じるかどうかを決定する上で重要であることがわかってきています。

AIやデジタルヒューマンについては、人々がより人間的なつながりを持つために自身の信念を一時的に懸けられることを示しています。

「会話型AIに顔をつける」という考え方は、人々にシステムやマシンとの間に人間性を引き入れる、またはそれを期待するように誘います。オンラインの応募フォームを通じて企業に対応してきた何十年間や、カスタマーサービスのヘルプラインに何時間も保留されてきた後、人々はただ会話をしたいだけです。そして彼らは、インテリジェントなシステムの確かさと、親切な顔を持つデジタルヒューマンとの対人的なつながりを共に提供できるデジタルヒューマンとその会話をする準備ができていると示しています。

これはもはやSFではなく、現実に起こっていることで、私たちはさまざまな素晴らしいストーリーを、多くのワンダフルなプロットツイストと共に描くチャンスがあります。