Event Report

2021.06.18 fri

倫理的なAIデザインと持続可能性ーこれからのデジタルサービスとの向き合い方

人工知能(AI)を用いたサービスが広がる中、私たちはその技術とどのように向き合えばよいのでしょうか。そうした社会課題を議論するため、GGPでは2021年4月21日、トークイベントを開催しました。Session 1では、メディア研究・情報倫理を専門とする青山学院大学の河島茂生准教授が「AI エージェントは何者か——AI倫理を交えて」というタイトルで、AIがもたらす課題や論点を俯瞰的に整理しました。Session 2では、AIを活用して高齢者をサポートするサービス「デジタルツイン subME」について、開発している日本総合研究所の沢村香苗が紹介しました。人間の意思決定をAIがいかにサポートすればよいのか、また意思決定の責任はだれが背負うのか――パネルディスカッションで深堀りします。

  • 河島先生へのAI倫理に関するインタビューはこちら

 レポート 

  • Session 1
  • Session 2
  • Panel discussion
Session 1  AIエージェントとは何者か:AI倫理を交えて
 青山学院大学 准教授 河島 茂生
Session 2  デジタルツイン「subME」とは
 日本総合研究所 創発戦略センター スペシャリスト 沢村 香苗
Panel discussion  倫理的なAIデザインと運用について
 青山学院大学 准教授 河島 茂生
 日本総合研究所 創発戦略センター スペシャリスト 沢村 香苗
 三井住友フィナンシャルグループ 企画部サステナビリティ推進室 室長代理 木村 智行
 ロフトワーク ディレクター 銭 宇飛
 ロフトワーク ディレクター 武田真梨子
  • 青山学院大学
    准教授
    河島 茂生

    青山学院大学准教授、理化学研究所革新知能統合研究センター客員研究員など。慶應義塾大学総合政策学部卒業。東京大学大学院学際情報学府博士後期課程修了。博士(学際情報学)。主な著書として、『未来技術の倫理』(勁草書房、2020)、『AI時代の「自律性」』(編著、勁草書房、2019)、『AI倫理』(共著、中央公論新社、 2019)、『AI × クリエイティビティ』(共著、高陵社書店、2019)、『情報倫理の挑戦』(共編著、学文社、2015)、『基礎情報学のヴァイアビリティ』(共編著、東京大学出版会、2014)、『デジタルの際』(編著、聖学院大学出版会、2014)などがある。

  • 日本総合研究所
    創発戦略センター スペシャリスト
    沢村 香苗

    日本総合研究所 創発戦略センター スペシャリスト、日本マーケティング学会所属など。東京大学文学部行動文化学科心理学専攻卒業。東京大学大学院医学系研究科健康科学・看護学専攻博士課程単位取得済み退学。執筆論文・記事として『高齢者の「身元保証人」問題をご存じですか―自分でできないことを誰に頼めばいいのか』 (「日本総研 オピニオン」 2020年5月13日)、『高齢者の「価値観」ITで共有』(「日本経済新聞 私見卓見」 2019年12月29日)、『人生100年を支えるデジタルツイン”もう一人の自分”』(「 NHK くらし☆解説」 2019年11月5日)ほか多数。

「技術を介して私たちは認知を拡大してきました」。電子顕微鏡がなければコロナウイルスも発見できなかったことを例にあげ、河島氏は「テクノロジーは、私たちと〈世界〉、社会、あるいは自分自身との間を媒介するメディア」と位置づけます。そのうえで「AIによっても、私たちは認知のあり方が変化しています。そのあり方を「倫理」という切り口で議論するときに、今回は最初にAIエージェントを取り上げましょう」と述べ、トークがスタートしました。

すでにAIエージェントは、日常的に使われています。例えば、1分間で15万枚の写真が投稿されるというFacebookでは、利用者一人ひとりのデータを解析した上でその人が興味を持つコンテンツを自動的に選定するフィルター機能をAIエージェントが担っています。利用者は、AIによってコンテンツの選定が行われていることについてそれほど気にしないことが多く、河島氏は「果たしてまったく気にしないでもよいのか」と問いかけます。そして、例えばフィルターバブルという問題があることを指摘します。

エージェントには生物と機械の2種類があり、エージェントの条件として以下の3つを挙げます。

  • 双方向性:状態変化による刺激に対応すること
  • 自律性:刺激なしでも状態を変化させる能力
  • 適応性:状態を変化させる推移規則を変化させる能力

この3条件でみると、生物はエージェントであり、機械でもこの条件を満たすものがあります。しかし、生物と機械にはやはり違いがあります。

生物と機械との違いは、内発的に作られる「オートポイエティック・システム」か、外から作られる「アロポイエティック・システム」かにあり、それによって立場が異なります。人間は責任者、エージェント、ペイシェントという3つの立場をとりますが、機械はペイシェントやエージェントにはなりえても責任者の立場をとることができないということを下の図は示しています。

さらに「エージェントとしての自己」という視座にも言及がありました。社会の中でさまざまな顔をもつ「多元的な自己」の形成について触れ、特に日本では「確固たる個人」の形成が行われなかったことなど歴史的な背景があるとし、「匿名性の高いインターネット空間の構築につながっている」と指摘がありました。そのうえで人工的エージェントが普及するポイントと課題について説明がありました。

河島氏は「倫理とは、慣習に根差すもの。倫は『仲間』、理は『筋道』。現代に沿った倫理や秩序を共に考え、つくっていくことが重要です」と、AI技術を使うときの基本的な考え方を示唆しました。

註)参考資料「AIエージェントとは何者か:AI倫理を交えて」

高齢化に伴い意思決定ができなくなったとき、もうひとりの自分が――。まるでSF映画のようですが、日本総合研究所ではサイバー空間に自身の価値観をコピーする「デジタルツインsubME」というサービスを開発しています。

その動機は人生100年時代の到来です。2020年には8万人、2045年には38万人が100歳を超える一方、単身者が増え、高齢者の身元保証サービス事業者数はそれに比例して増加しています。

高齢化して身体や認知の機能が衰える中で、介護や治療、他界後のことなどさまざまな意思決定をしなければなりません。そのとき「意思決定の結果だけではなく、なぜその人はその意思決定をするのかという価値観を重視するのが現代の潮流」と、アドバンス・ケア・プランニングについて沢村は説明し、「そのために、サイバー空間で自分の価値観の情報を再現するsubMEをつくりました」と話します。

このサービスは、意思決定ができる間にsubMEにデータを蓄積し、意思決定ができなくなったときにそのデータを周囲の人が参考にできるというものです。さらに、このデジタルツインという考え方を展開すると、身体が動けなくてもデジタル空間で行動することで、人とのコミュニケーションができ、そこで築いた関係性を実空間に反映するなど、可能性が広がります。

「そのときの疑問として、意思決定にAIは関与すべきか、どの程度関与すべきなのか。また家族以外に情報開示するのか、家族以外の人がどのように関与すべきなのか。新しい可能性の中で、私たちは何をよしとするのか…」と、沢村はAIで変化する社会とその是非について、問いを発しました。

左から木村智行(GGP)、銭宇飛(ロフトワーク)、河島茂生教授、沢村香苗(日本総合研究所)、武田真梨子(ロフトワーク)

木村 AIを利用して持続可能なサービスや事業を目指すための議論を深めたいと思います。AIに関して倫理観が問われる大きな局面のひとつが責任の所在です。AIが何か問題を起こしたとき、エージェントに責任があるとみなしてよいのか、あるいはそれをつくる側に責任があるのでしょうか。

河島 チャットボット、メールフィルターなど人工的なエージェントの役割は広がっています。でもSession1で述べたように、機械は生物のような自律性はなく、基本的な原理を作っているのは人間なので、責任をエージェントに負わせるというのはおかしな話です。現在開発が進められている自動運転車やロボット兵器には、英語でAutonomous (自律的)という形容詞がついていますが、それはデータの特徴量を自動抽出できるようになったにすぎません。根本的な自律性はまだ持てていないですね。

木村 人工的なエージェントは根本的な自律性を持ち得ていないから、責任は設計や運用する人間に帰するべきということですね。

河島 エージェントは生物と人工物とにまたがった概念です。エージェントはよく「行為者」と日本語で表現されます。一般的に「行為」とは、意識や意図に基づいて何かをしたときに使う言葉です。しかし、さきほど述べたエージェントの3条件には、意識があるかどうかは入っておらず、そのような捉え方をしたとき、人工的なエージェントの影響が私たちの社会の中で拡大してきていることを見据えることができます。

今、人間の意識の自律性にも疑問が呈されています。人間は必ずしも自律的ではなく、人に流されているのではないか、と。とはいえ、人間の意識はそれほど大きな役割はなくとも、その下には生物学的な自律性が膨大に広がっています。

木村 人間の自律性の問題は、高齢者の意思決定とも関係しますね。

沢村 河島さんのご指摘は、人間は全部自分で決めているのかということだと思います。他人に「なんでそう決めたの」と問われたら、私たちはすべての決断をきちんと説明することはできません。そういう身体レベルの判断を私は重視しています。人が高齢化することでそれが阻害されるとしたら、AIの力を借りてでもなんとかしたいというのがsubMEの考え方です。

河島 素晴らしい取組だと思います。人間は、意識がある(高度な知能がある)から尊いというより、生物学的な自律性を備えているから尊厳がある。高齢者で寝たきりになっていても、尊厳は保たれるべきですね。

木村 デジタルツインであるsubMEは情報を密に共有することが前提です。一般的なAIでは情報量が多いと分析の精度が上がり、利便性は上がる傾向にあります。一方で情報共有によって、責任の所在が分からないなどの社会問題につながります。subMEの場合は、例えばどのような問題が生まれてくるのでしょうか。

沢村 自動運転とか医療の場合は、失敗が何かが分かりやすいですが、subMEは、当人以外の人が判断するので、何が成功で何が失敗なのか、そもそも分かりにくい。住む場所や受けるサービスの選択を「失敗した」と後から誰かに責められたとしても反論は難しいでしょう。

木村 事業会社としては、どのように情報を集め、どのように情報を開示・共有したらよいのでしょうか。会社の想定と利用者の理解に齟齬があり、エージェントによって利用者に不利益を与える可能性というのはあり得るのでしょうか。

河島 おっしゃる通りです。会社が利用目的として掲げている想定とは違った利用のされ方は起こるでしょう。例えば、SNSに投稿される画像や動画がそのサービス以外に流れ出てしまうことはよくあり、想定外の使われ方が起きます。でも、利用条件を明確に設定しておくと、予期せぬことが起こったときに違反の警告ができます。前もって利用の仕方を明記しておかなければ違反を違反であるということすらできません。したがって前もってどのようなデータの利用をするかを想定して、制度設計を行うことは欠かせないでしょう。事業会社の組織的責任としてある程度対応しなければなりません。

けれども人工的エージェントは、読み込まれたデータによって帰納的に動作が決まっていくので、事前の制度設計だけでは対処しきれない部分は出てくるでしょう。

木村 まずは制度設計が重要で、その後の検証によって結論が評価されていくということですね。

木村 AIエージェントが引き起こす問題の責任が設計者や運用者にかかってくるとすると、多くの人が関わっている場合は、どのように責任分担をしていくのでしょうか。

河島 AIエージェントは、人工的につくられているので、個人的、組織的、集合的に人間の側で責任の分散の仕組みをつくっていかないといけません。責任は、さまざまなとらえ方ができます。例えば今私が失言をしたら、個人の責任です。また、そのコミュニケーションの場に問題があるとみなせるなら組織的な責任になります。被害者がいるけれど、だれが、あるいはどの組織が問題をひき起こしたのかが分からないという場合には、補償的責任というのがあります。医療では無過失補償責任があり、だれか特定の人に責任を負わせずに、社会の中で責任をとっていこうという仕組みがつくられています。今のAIはビッグデータ型ですから、ひとつの組織で大量のデータを抱えるより、業界でデータを集めてAIの精度を上げていく流れがあります。それは集合的責任といわれるものです。

AIもネットワーク化され、大規模になっていくので、原因が分からないということが次第に増えていきますから、重層的に責任の分散を考えてやっていかなければならないと思います。

 AIサービスに関わる倫理や秩序はどのようにつくればよいのでしょうか。

木村 金融機関の場合、AIはブラックボックスではなくロジックが分からなければならないと言われています。問題がおきたときに対応できるようにしておく必要があるからです。そうした監査の仕組みは分野にかかわらず必要でしょうか。

河島 それは分野にもよると思います。とくに人の命に直接関わる分野は、後で検証できる仕組みを入れざるを得ません。大きな枠組みでいえば、AIのガバナンスは基本的にはソフトローでいこうとしています。ガイドラインのようなもので緩やかに決めながら、新しい開発を阻害しないようにするためです。でも、人間の命に直接的に関わる医療機器や自動運転はハードローできちんと管理しなければなりません。ソフトローとハードローの使い分けをきちんとしていかなければなりません。

木村 AIをサービスとして実装するとき、会社として倫理や社会規範をどのように守るか、自浄作用が求められていると思いました。

河島 これからの責任や倫理のことを考えるとき、そもそも「確固たる責任や倫理がすでに存在していて、それを他の人に聞いて知る」というよりも、どのように問題解決したらよいか一緒に考える姿勢で臨むことが大切です。

例えば私が手を離してコップが割れたとしましょう。一般的には河島が悪いとなるでしょうが、実はそもそも重力があるから悪いという言い方もできます。つまり責任の分散の仕方は複数あり、歴史的にも社会的にも変化してきました。有名なのは中世の動物裁判で、冗談ではなく真剣にねずみや豚を裁判にかけてきました。事業会社には、「責任はこうあるべき」と、「提案していく責任」もまたあるといえるでしょう。

沢村 倫理というのは、「仲間」と「筋道」だという河島先生のお話を伺って、気づいたことがあります。事業会社として最初にそのスタンスを明確にするのはもちろん必要ですが、サービスを提供しながら、ユーザーなど多様な立場の人と一緒に考える組織が必要だと思いました。判断をするときの主体をどう設定すればよいのかなど、継続的に検討する必要があるということです。裁判がおこるまで待ちたくありませんから(笑)。

視聴者からの質問:行政、民間、個人など、サイバー空間の情報管理を行う主体の違いによって、それぞれ異なる倫理を確立していくのでしょうか。またグローバルスタンダードが出てくるのか、方向性を教えてください。

河島 AIのガバナンスの動向は、先ほども言ったとおり全般的にはソフトローの流れで、AI全般にわたって細かい規制をグローバルに作っていくという方向ではありませんが、ゆるやかなまとまりはできつつあります。
ただ、それだけでなく、それぞれの分野で協力していく必要はあります。例えばITの分野であれば、脆弱性をIPA(情報処理推進機構)が公表しています。IT業界でおきたトラブルを整理して対応策を含めて、問題のケーススタディとして一覧にしています。そういうものを組織横断的に作成して対処法を公開するなど、企業間の競争だけではなく共創していくことが重要だと思います。

木村 サービスを持続可能にしていくためには、競争のためのスピード感をもちつつも、説明できるようにするためには熟議しなければならない。さらにより精度を上げていくための仲間づくりも必要ということですね。

河島 おっしゃる通りです。繰り返しになりますがAIの場合はどういうデータを読みこむかで結果が変わってきます。そのデータを収集し整えるのはAIエージェントの事業者ですから、一生懸命考えてなぜそのデータを使ったかを説明できるようにしなければなりません。倫理は、どのようにしたらよりよいサービスにしていけるのかを考えて試行錯誤するプロセスです。

沢村 結論の正しさを保証するようなやり方はよくないと思っています。どういうプロセスや考えでその結論を導いたかを整理する。結論を出すためのプロセスすら今はもちづらくなっていることが課題だと考えています。

河島 事業者からみると倫理に配慮したAIを作るのがたいへんだということはよく分かります。いろいろな企業でAIの倫理委員会が立ち上がっているのはそれが理由だと思います。第三者的な視点を入れ、いろいろな指摘をうけることによって、サービスをよりよくしていくことにつながるのだと思います。

木村 AIサービスを提供するときにどのような倫理的な問題が生まれるか、それに対して事業会社はどのように立ち向かうかという話を伺いました。GGPでは、社会の中でどのような問題があるかを考え、それを解決するためにはどうすればよいのか、みなさんと一緒に考えて行動に移すコミュニティづくりを目指しています。今後もイベントやワークショップを通し、実際のアクションにつなげていきたいと考えています。

  • TOPに戻る