GREEN×GLOBE Partners

ARTICLES

サステナビリティについて知る

求められる人工知能倫理の構築

Date: 2021.06.25 FRI

  • #ソーシャル

  • #イノベーション

人工知能(AI)の高度化はめまぐるしく、私たちは日々の生活のなかでもAIの恩恵を受けています。しかし技術が高度化し普及すればするほど、AIに関わる倫理の問題が出てきました。2021年4月22日に開催されたトークイベント「倫理的なAIデザインと持続可能性ーこれからのデジタルサービスとの向き合い方」では、AI倫理の必要性が議論されました。今回はイベントにもご登壇いただいた青山学院大学准教授・河島茂生先生に「なぜいま」AI倫理を考えなければならないのか、さらに詳しくお話を伺いました。

  • 1.なぜいまAI倫理を考えなければいけないのか
  • 2.AI倫理の特徴
  • 3.世界と企業のAIのガイドライン
  • 4.私たちはAIとどう向き合っていくべきか

河島 1970年代に米国の天文学者であるカール・エドワード・セイガンが、宇宙の歴史を1年間のカレンダーに喩えました。これは「コズミックカレンダー」と呼ばれ、138億年前に起きたビッグバンを11日とすると、生物は10月初旬に誕生し、鳥類は1227日、人間は123122時30分くらいに生まれたことになります。そして現在は1231日の24時です。このコズミックカレンダーでみると、近代科学が成立したのはわずか1秒前くらいの出来事です。しかし、このわずか1秒で社会に大きな変化が生まれました。

米国の技術アカデミーが20世紀の工学における大きな成果を20項目選出しています。たとえばコンピュータやエアコン、電気や水道網などが挙げられています。これらがひとつでも欠けると、現代社会は大パニックになります。それほど、私たちは工学的技術にどっぷりと浸かっています。

AIも、こうした大きな流れのなかで出てきた技術であるといえます。

河島 AIについてはブームが何度か訪れていますが、2014年以降はビッグデータと計算機のパワーと機械学習アルゴリズムの工夫によるブームが起きました。画像の判定や音声検索、自動翻訳、人事評価など、いろいろなソフトウェアにAIが入り、私たちの生活や仕事にもAIが介在するようになってきました。そのことで起こる問題に、私たちはどう対処すべきかを考える必要性が出てきました。

技術の倫理は古くから議論されてきました。技術は、メディアであり、人と「現実」との間を媒介します。この媒介がうまくいかなければ、逆に人の活動が制限されてしまいます。こぼれ落ちてしまう人たちが出てきてしまいます。たとえば紙で書かれた文字を全盲の人は読むことができませんし、階段しかないと足の不自由な人は上に上がれません。電話が取れないことを理由に聴覚に障害がある人が就職できないといった事態も起きました。これまでも技術が発展してきたことで、倫理的な問題が引き起こされてきました。AIに関しても同じ流れで、技術の倫理を考える必要があるため、いま「AI倫理」が注目されてきたということです。

河島 AIも技術(メディア)の一種ですので、人類史や技術倫理の大きな流れのなかで捉えるべきですね。

ただしAI(Artificial Intelligence)には知能(Intelligence)という言葉が入っており、そのイメージが一人歩きしてしまうことで生じる問題もあります。

たとえば、捕鯨やイルカ漁(猟)に対する反対意見の根拠として、クジラやイルカ※1が高い知能を持っているからといわれることがあります。高い知能があると幸福や苦痛も多く感じるので、そのような生き物を捕らえるべきではないという考えです。

それと同様に考えると、AIも「知能」があるので特別に配慮するべき、という考えが奥底に潜んでいるように感じます。

河島 『未来技術の倫理』(勁草書房、2020)にも書きましたが、昔から人類は機械的な生命・知能をつくることに憧れてきました。
実はインテリジェンス(知性)は歴史的に重みのある言葉で、アリストテレス哲学だとインテリジェンス※2は「神に迫る知性」という意味です。知性、理性、感性という順で、一番上に位置づけられたものです。その意味は歴史とともに変わってきましたが、シンギュラリティ※3が提唱されAIブームとともに支持者が増えていったようすを見るに、人々は、まだインテリジェンスという言葉に「人間を超えるような、不死に近づき、絶対者と交わることができる知性」というイメージを重ねているようにも思います。人間には「人間を超えるような知性をつくりたい」という欲望があるんですね。

よく指摘されるように、AIの機械学習の特性としては、人がモデルやアルゴリズムをつくりづらいデータに対して使われることがあります。さらにパラメーターの数が億単位に上ることもあります。そのため、その内部を理解することが難しい点が挙げられます。そして、なぜその重みになっているのか、理解しづらい面もあります。これまでのソフトウェアは人間が内部の動きを書き下していたのですが、それに比べると利用者に説明をしなければならないときに困難さが出てきます。

河島 たとえば医療の臨床の現場でも意思決定にAIが使われていて、その臨床意思決定支援システムにおいてアフリカ系の人たちが不当に差別を受けていたことが指摘されています。腎臓移植の優先順位が下がったり、あるいは健康にかけるお金が少ないので医療のニーズが少ないと分析されたりしていました。彼ら・彼女らは健康にかけるお金が少ないので「医療ニーズが少ない」とAIに判断されてしまいました。しかし実際はお金がないから医療を受けられないのであって、受けていないなら医療ニーズがないということではありません。公平性に関わる問題ですね。

ほかには、AIが「意味を理解していない」ことに関わる問題が起きています。いまAIはシンタックス(統語論)といわれる形式的な関係を理解する技術はすごく進んでいまして、それだけでも非常に大きな社会的影響があります。しかし、セマンティクスと呼ばれる意味論※4にまで及んでいません。

たとえば、典型的なのがマイクロソフトのAIボット「Tay」の問題です。Tayが発したHitler was right I hate the jews.(ヒトラーは正しい。ユダヤ人は嫌いだ)」という言葉は、Tayにとって「スミスは正しい。テニスは嫌いだ」という言葉と大して変わらないんです。文法的(統語論的)には合っています。しかし私たちは、これらの言葉が与える社会的影響が大きく違うことを知っているでしょう。そういう例はたくさんあります。利用者がAmazonのアレクサに心周期について尋ねたところ「人類の心臓の動きは地球の環境に害悪であるからただちに自殺しなさい」といわれた、という事件も起きました。2021年のはじめにも、韓国のチャットボットの差別的な発言がありました。

これらは、AIが「意味を理解していない」ことによって起きている問題です。2020年に注目を浴びた自然言語処理モデル「GPT-3」※5は強力な技術ですが、それでも同じ限界を抱えています。まだブレイクスルーできてない領域といえます。

河島 複数の企業がすでにAIの倫理方針をつくっており、これからAIの倫理方針を新たにつくろうとしているところもあります。それぞれの企業は、自社のビジョンを踏まえつつ、政府や非営利組織、他の企業がつくったAI倫理の原則を参照しながらつくっています。ただ抽象的な方針だけであるとなかなか実務で使いにくいので、細かなところまで具体化しているようすが見て取れます。企業内に複数の委員会をつくったりeラーニングを含めた研修の機会もつくったりしていますが、可視化ツールやアセスメントシートも活用しています。

ツールとしては、Grad-cam, Lime、Googleの「What if Tool」や、IBMの「AI Fairness 360」などの可視化ツールがあります。「AIが生み出す問題はAIによって解決する」ということも重要であり、積極的に活用てきています。

また、開発プロセスのフェーズごとにアセスメントシートもつくり始めています。これには差別的な偏りがないか(公平性)についてのチェックも含まれています。

AI倫理指針をつくるという段階から、徐々に実践的・実用的な段階へと移ってきていますね。

図 企業内のAI倫理方針および実践

河島 もちろん企業によって重要とする項目に違いは出ます。企業によってどういうサービス展開をやっているのかで重要視するポイントが変わってくるからですね。個人を特定するデータを扱っていない企業にとっては、そのことを考慮する必要はありませんしね。ただし実際は、大企業のAI倫理原則を比較してみると、大きくは違いがないということがわかります。かなり早い段階から、政府や学協会などがAIのガイドライン・報告書・提言を出してきているので、それらがうまく参照されてきているということでしょう。

河島 私も構成員を務めているAIネットワーク社会推進会議(総務省情報通信政策研究所主催)は、国際的にも早くから取り組んでおり、原則やガイドライン案を発表してきました。いまは、そうした原則などを企業が参照する段階だと思います。ただ、これを遵守しなくてはいけない、という強制力はありません。

河島 ありますね。いわゆるソフトロー(法的拘束力のないガイドラインや規格、基準など)とハードロー(法的拘束力のある法令)の使い分けで、基本的に、日本はソフトローでいきたいという方向性があります。あまりハードローで縛ってしまうと、新しい技術を開発・運用しにくいからです。

特に日本人は法律に抵触することを極端に恐れる傾向があります。有名な例としては、個人情報保護法ができたときに学校のクラスの緊急連絡網がつくられなくなったという過剰反応が起きました。でも実は緊急のために使うことを明確にして連絡先を書き込んでもらえればつくれたのです。AIについても、できるだけ過剰な自主規制が行われないようにしていく必要があります。

さきほど述べたように大きな方向性はソフトローですが、自動運転と医療は直接的に生命にかかる分野なのでハードローできちんと管理せざるをえません。自動車は道路交通法や道路運送車両法、医療機器だと薬機法があります。医療機器は、独立行政法人医薬品医療機器総合機構(PMDA)の承認を取るというように、厳密な審査があります。

基本的にはソフトローで、ハードローは領域を限定してやるという構図ですね。

河島 ハードローにしていく領域は出てくるだろう思います。ただAI全般でハードローにしていこうという流れは強くはありません。同じような技術であっても、それぞれの領域で使い方が変わりますしね。最近は画像認識技術を広範囲で規制していくか否かが議論になっていますが、激しい議論になるのではないかと思います。

河島 他社との競争は、企業活動では当然のことです。また先ほど述べたように、自社でAI倫理方針を立て、委員会を整え、ツールやアセスメントシートでチェックしていくことも必要です。

しかし、それだけでは企業が倫理的な活動を展開することに課題も出てきます。たとえば、自社の利益の最大化ばかりを考えいわゆる「囲い込み」を行うと、企業ごとにデータのフォーマットが違ったり、データの細かさやデータを取得する頻度も違ったりしてきてしまいます。そうなると企業間でデータが共有しにくく、結果としてデータが企業内で閉じてしまって大量に集まらずAIの性能が上がりにくくなります。利用者や業界全体のことを考えて、いかに組織横断的なガバナンスを展開していくかを模索しなければなりません。医療分野だと画像診断のナショナルデータベースをつくりましょうという動きもありますね。

あとは個人のデータを組織外に出さずに学習済みモデルを共有する「フェデレーテッド ラーニング」(連合学習)も注目されています。これも、個々の組織だけでやっても、データ不足で機械学習の精度が高まらないということがあり、モデルを組織間で合わせて計算し直すことで、機械学習の機能を上げる試みであるといえるでしょう。

河島 先日、トークイベント「倫理的なAIデザインと持続可能性ーこれからのデジタルサービスとの向き合い方」で話をさせていただきましたが、あのような場や学協会で学び合っていくこともすごく重要です。個々の企業が閉じずに、オープンな場でディスカッションする場を設けることは共助につながり、大きな意味をもっていると思いますね。

また、IPA(独立行政法人 情報処理推進機構)がやっているような教訓集づくりも必要です。コンピュータ・システムについては、業界で同じような障害が繰り返し起きているため、それらを分析して組織横断的に共有化することです。成功事例よりも失敗事例を共有することは実に難しいのですが、これをやっていくことで、リスクは減っていくでしょう。

河島 そうですね。航空業界は飛行中のミスに対して、個人の責任を一切問いません。パイロットが飛行中にヒューマン・エラーを起こしても、報告さえすれば刑事訴追や処罰の対象とはなりません。処分されるとなると人はミスを隠したり報告しなかったりするので、それを防ぐためです。ミスを報告したら、他の人が学べ改善策も考えられる。だから報告を促すようにしてリスクを減らしていこうということです。

個人ではなく、組織の責任としてAIが引き起こす問題を捉え、報告を促す。そのための体制をつくっていき、一組織だけではカバーしきれないことを業界全体で組織横断的にカバーしてしていく。政府も、助ける。このような有機的な連関をつくっていくことが持続可能な方向に進むためには重要です。

河島 AIは、コンサルタントやデータサイエンティスト、データエンジニア、システムエンジニアなど多くの人が関わってつくられメンテナンスされています。人がいてこそ、はじめて動くものであり、とてもAI自体に倫理的責任は課せられません。

とはいえ、単なるツールであって、AIがどのようなかたちになっても、私たちが影響を受けないといった存在でもありません。やはりAIはメディアです。

私たちは、メディアから影響を受けますが、同時にメディアをつくってもいます。どのように、AIをつくっていくか、共に議論して考えていかなければなりません。

よくいわれているように、AIは機械だから公平、機械だから正しい、というわけではありません。社会が差別や罵詈雑言にあふれていると、そのデータを読み込んだAIは、反復して形式的な処理をして増幅させてしまいます。

私たち自身が共同でAIをつくるという考えをもっていないと、さらに社会が歪んでしまうでしょう。

※1クジラやイルカ:厳密にいえば、イルカはクジラ目の一種である。
※2インテリジェンス:インテリジェンスのもともとの意味については、たとえば原島大輔「知能」『メディア論 : 理論と歴史から「いま」が学べる』フィルムアート社、2021、pp.24-33を参照のこと。
※3意味論:統語論は表現と表現との形式的な関係を扱うが、意味論は表現とその表現を適用できる対象との関係を扱う。
※4シンギュラリティ:未来学者レイ・カーツワイルが提唱する「技術的特異点(Technological Singularity)」のこと。2045年には1000ドルほどのコンピュータの処理速度が人類の頭脳に比肩するようになると予見されている。
※5自然言語処理モデル「GPT-3」:高い精度の文章を生成する自然言語処理(Natural Language Processing、NLP)モデル。

  • TOPに戻る

Interview

河島 茂生 KAWASHIMA SHIGEO

青山学院大学准教授、理化学研究所革新知能統合研究センター客員研究員

2010年東京大学大学院学際情報学府博士後期課程修了。博士(学際情報学)。専門はメディア研究、情報倫理。
主な著書として、『未来技術の倫理』(勁草書房, 2020)、『AI時代の「自律性」』(編著、勁草書房, 2019)、『AI倫理』(共著, 中央公論新社, 2019)、『AI × クリエイティビティ』(共著、高陵社書店、2019)などがある。

関連記事

NEWS LETTER

GGPの最新情報をお届けするNews Letterです。
News Letterの登録は以下からお願いいたします。
(三井住友フィナンシャルグループのサイトに遷移します。)