アメリカの著名な小説家Dan Brown氏が、次回の小説のアイデアがない時に思いつくような内容だと思われても仕方がないでしょう。しかし、今から話される「The Rome Call」は ダ・ヴィンチ・コードのようなフィクションの作り話ではなく、ノンフィクションのできごとです。

2020年、バチカンは人工知能の倫理について声明を発表しました。 ハイテク化された未来へと移行する中、あなたはどのように感じますか?

アメリカの著名な小説家Dan Brown氏が、次回の小説のアイデアがない時に思いつくような内容だと思われても仕方がないでしょう。しかし、今から話される「The Rome Call」は ダ・ヴィンチ・コードのようなフィクションの作り話ではなく、ノンフィクションのできごとです。

2020年2月、フランシスコ法王は人工知能倫理のガイドライン作成をバチカンが全面的に支援すると発表しました。ローマは、人工知能の倫理を6つの主要な原則を通じて適切な使用を推進していく方針を発表し、現在IBMやマイクロソフトといったデジタル時代の先駆者たちとプロジェクトを進めています。

AIの倫理についての誓約


AIの第一人者の名前を聞かれても、ローマ教皇が思い浮かぶことはないでしょう。しかし、ローマ教皇やその配下にある様々な研究機関では、AIやロボット工学などの新興技術がどのように人々の信仰やリテラシーに影響を与えるかを調査していました。

研究結果として、教皇はAI倫理の6つの重要な原則を定めています。   1. 透明性
   2. 包括性
   3. 責任の所在
   4. 公平性
   5. 信頼性
   6. セキュリティとプライバシー

6つの項目は、UneeQで私たちが実現できる根幹的な項目です。また、私たちが掲げている倫理的デジタルヒューマンデザインの5つの法則と非常に密接に一致しています。

(5つの法則:正直さと透明性、善のためのAI、プライバシー、尊重、Co-Design(バイアスを避け、多様性を促進するため))

ローマ教皇がAIの倫理ガイドラインを発表。デジタルヒューマンはどのように適合するか-1

AIは倫理的か?

AIの倫理に関する課題は、常に議論が行われています。しかし、ディープフェイク(deepfake)技術の急速な進歩、フェイクニュースを配信するAIボットの台頭、およびその他の悪意のあるAIの使用例が多発しています。他のツールと同様に、AIは開発者や採用者の倫理観に大きく左右され、クリエイターたちの意思がどれだけ立派であっても、個人的なバイアスや判断の誤りがAIに反映されやすい側面があります。

AIは搭載されたアルゴリズムによって機械学習を行いますが、データが誤っていたり不完全な場合、AIは間違った学習をしてしまう可能性があります。原則に基づいた包括的なガイドラインを作成することで、AIの明るい未来を実現することができるのです。

加えてそのようなAIの倫理について、提携パートナーや第三者がどのような立場にあるかを知ることで、自社の価値観に合致したパートナーとの連携が可能になります。

それが、昨年UneeQで「倫理的なデジタルヒューマンデザインの5つの法則」を発表した理由です。また、EU、IEEE、Googleなど、他の組織も倫理的なAIのための独自のガイドラインを開発してきた理由も、同様にAIの使用方針などの人工知能が抱える大きな問題を解決するためです。

企業ごとに個別のガイドラインがありますが、倫理的なAIを提供するために共通した価値観を持っているため、お互い新時代のデジタル化に向けた協力体制となっています。

AIの倫理とデジタルヒューマンの価値


「The Rome Call」は、倫理的なAIに関してカトリック教会の方針を明確に宣言しています。

「すべてのAIシステムは、人間とその生活環境に奉仕し、保護するために考案され、設計され、実施されなければならない」。また、「AI技術は、どのような方法であれ、人々、特に最も脆弱な人々を搾取するために使用されてはならない。その代わりに、人々の能力開発(エンパワーメント/イネーブルメント)を支援するために使われなければならない」。

AIの倫理にある「奉仕」「保護」「支援」「可能性」これらの目標は実生活にどのように役立つのでしょうか。デジタルヒューマンが人々の生活を豊かにする事例を紹介します。

奉仕:
デジタルヒューマンは、1年を通して24時間365日利用可能であり、様々な業界に合わせてカスタマイズ可能です。顧客は必要なときにいつでもデジタルヒューマンに触れ、幅広い業界で活用することが可能となります。

世界有数の金融会社UBSの事例では、当社のチーフエコノミストであるDaniel Kalt氏をデジタル化しました。本物のDaniel Kalt氏は1日の時間が限られていますが、彼のデジタルヒューマンは、顧客に重要な提言をしたり、質問に答えたり、UBSの顧客にアドバイスを提供するために、いつでも利用できるようになっています。笑顔や声、そして信じられないほどのIQを備えた革新的なサービスであり、まさに本物のDanielのようです。

保護:
人々の心身の健康を守ることは、デジタルヒューマンが可能にするサービスの一つに過ぎません。デジタルヒューマンは費用対効果が高く、カスタマイズでき、ユーザーとの確かな信頼を形成することができます。そのため、医療現場の例では患者が医師に訊きたい些細な相談であったり、恥ずかしいと感じるような相談のはじめの窓口としてデジタルヒューマンは適任であるのです。

ヘルスケア業界に導入するデジタルヒューマンの最終目標は、患者が食事、投薬、リハビリテーションなどをデジタルヒューマンとともに楽しく会話しながら病から回復していくことです。

支援:
研究によると、人は受動的な学習よりも能動的な学習の方がより早く成長できます。言い換えれば、教科書や講義よりも、アクティブラーニングが重要なのです。デジタルヒューマンは、音声、トーン、テキスト、ボディランゲージを使ってコミュニケーションをとることができるため、没入感とやりがいに満ちた魅力的な学習が可能になります。VARKによる学習方法論では、人々の学習スタイルは4つのタイプがあることを示しており、デジタルヒューマンは4つすべての学習方法を実現でき、大多数の人にとって新たな学習支援AIになると予測されています。

可能性:
これまで述べてきたデジタルヒューマンの機能は、特に支援を必要とする人に有益なものです。例えば、障害を持つ人々は店舗で買い物をする際に多くの課題に直面します。Eコマースはこれらの障壁を取り除くのに役立ちますが、一方では対面でのやりとりを行うことができません。この問題に取り組むことを目的とした企業「All is for All」は、デジタルヒューマンをEコマースに導入しています。

デジタルヒューマンは、WEB上で一緒に衣服の選択を考えたり車椅子利用者などの障害のある人におすすめの商品を説明できます。これらの事例は新時代のデジタル化の一節に過ぎず、ショッピングをより利用しやすく、魅力的にすることが可能です。

AI倫理の未来


ローマ教皇の宣言した原則に基づくガイドラインに対して、デジタルヒューマンが適合していくことが必要です。

デジタルヒューマンは、人間と機械のやりとりをより良いものに変える可能性を秘めています。ただし、悪用を避けるために人工知能が社会に害を及ぼしたり、精神的苦痛を引き起こすために利用される可能性があるため、常に警戒しなければならないのです。

AI倫理は1つの考え方ではなく、その時代のモラル、基準、価値観に適応する必要があります。私たちは、AIのコミュニティ内でAI倫理に関するアイデアを共有したいと考えています。是非、デジタルヒューマンデザインのトピックを中心にした私たちのLinkedInグループで気軽にあなたのアイデアを共有してください。

成功するAIイノベーションは、常に優れた「問いかけ」によって支えられています。下記の「倫理的デジタルヒューマンデザインの5つの法則」をダウンロードして、当社のガイドラインを読むことができます。