ai-11_ogp

炎上した事例・炎上を免れた事例を交えながら、AIビジネスを行う企業としてあらかじめどういう考え方で臨むべきなのか、マクニカのガバナンス・リスクマネジメント本部に所属する榊原弁護士が、西村あさひ法律事務所の福岡真之介弁護士をお招きし、押さえておくべきポイントを議論します。

airinnri_01

(左から、マクニカ 榊原弁護士、西村あさひ法律事務所 福岡弁護士)

■AIと倫理を考えるべき理由

ビジネス部門はもとより、法務部門であっても普段から倫理について考える機会はあまり多くはありません。福岡弁護士は「AIの進展が早過ぎて、AIの何が良いのか悪いのかを法律として明文化できていないところがある。明確に違法とされていないものの、社会的に許容されないことが起きてしまう」と指摘されています。

企業が多大な労力と費用を投じてAIを開発しても、マスコミやSNSで炎上して批判にさらされ、AIを使ったサービスを撤回しなければならないことが起きるようになりました。そのため現在は、世界中の国々がAIの倫理の原則を発表するようになり、その中では「人間の尊重」をうたうものがあります。

まず福岡弁護士が挙げる事例は、マイクロソフトが2016年にサービスを開始したAIチャットボット「Tay」で発生した事件です。Tayは、ミレニアル世代のかっこいい発言をするアメリカ人女性という設定で、ユーザーがTwitterでツイートをすると、Tayが応答してくれるものでした。開始からわずか24時間で約5万人のフォロワーを獲得するなど一気に人気を集め、Tayは約10万回ツイートしましたが、急にヘイト発言を開始したのです。

結局Tayはサービスを停止しました。この理由は、あるグループが差別的なツイートを集中的に行ったことにより、Tayがこれを学習してしまい、ヘイト発言を行うようになったからです。Tayは純粋なAIですが、人間が悪質な教育をすると、AIが誤った行為に及んでしまう実例となりました。人権的な観点からAIに差別的な発言をさせることは、倫理的に許されないことは明白です。

もう1つの事例は、韓国のスタートアップ企業が202012月にリリースしたAIチャットボット「イ・ルダ」での事件です。イ・ルダは、カカオトークの約100億件の会話データを基に開発され、すぐに約75万ユーザーを獲得しました。しかし、急に性的マイノリティーを差別する発言を行うようになり、サービス開始からわずか1カ月後の20211月にサービスが停止されてしまいました。Tayの事件から4年後の出来事ですが、同じような過ちが繰り返されてしまった格好です。

AI開発者は事前にこうした事態を予期できなかったのでしょうか。「開発元によると、性的マイノリティーに関する言葉を排除しなかったようです。日常会話でそうした言葉が使われ、必ずしも差別意図ばかりではないこともあり、開発者はそうした言葉も学習することでより人間らしいAIに近づけたかったようです」(福岡弁護士)

airinnri_02

AIを開発するうえで、事前にこうした差別的な言葉を全て排除することは技術的に難しく、排除することによって人間味のあるAIを実現しにくくなってしまう懸念も出てきます。そのバランスがどうあるべきかが課題であり、外部のユーザーが参加することで内容に変化が生じるサービスは特に注意すべきです。福岡弁護士は、「AIの世界でも悪意によってハッキングされてしまうことを想定しなければならない状況です」と解説します。

■AIの予測がもたらす倫理的な問題

次は、公平性確保の観点からAIの倫理が問題となったアメリカにおける再犯予測プログラム「COMPAS」の事例です。COMPASは、裁判官が判決を行う際に、被告人のデータと過去のデータを照合して再犯確率を算出します。しかし、システムによって裁判官の判断がゆがめられ、被告人が公平に裁判を受ける権利が侵害される懸念があると問題になりました。結果としてアメリカの裁判所は、裁判官が主体的に判断し、システムを補助的に使用するもので、被告人の権利を侵害せず適法と判断しています。

ところが、COMPASの使用が人種差別を助長するリスクが判明しました。分析によれば、再犯確率が高くても実際に犯罪をしなかった割合は白人で23.5%、アフリカ系アメリカ人では44.9%でした。一方で再犯確率が低くても実際に犯罪をした割合は白人で47.7%、アフリカ系アメリカ人では28.0%でした。AIのシステムが間違った予測を行い、仮に裁判官が主体的に判断をしていないとすれば、そのまま差別が適用されてしまいかねません。

airinnri_03

プログラムの結果と実際の結果が逆転した事例ですが、他にも、アマゾンが開発した人材採用プログラムで、女性は能力が低く採用しないという結論を出しました。このプログラムは、開発段階で過去のデータから女性を低く評価することが判明し、「女子大学出身」といった女性に関する言葉があると、能力を低く算出することが分かりました。アマゾンは、このプログラムの正式な利用を諦めました。

「昔は女性が管理職に昇進するケースが少なく、データが少ないわけです。AIがそうした過去のデータを学習すれば、女性は昇進可能性が低いと判定することがあり得ます。データの中にバイアスが含まれ、そのバイアスがAIに反映されてしまいます。AIにはそのような問題があり、社会的な差別を再生産して批判を浴びることになってしまいます」(福岡弁護士)。

社会には実に多くのバイアスが存在します。バイアスが多い領域でビジネスをすれば、当然ながらAIにもバイアスがたくさん含まれることになります。バイアスが多い領域でのAIの利用は、そもそもやるべきではないという見方も出てきます。

福岡弁護士は、「データの代表性」が重要だと指摘します。AIが学習するデータにバイアスが含まれる可能性がある以上、AIが正しい結果を示すように事前にデータを構成する、あるいは、データに含まれるバイアスを排除するなどデータを修正することが必要になります。榊原弁護士は、AIの開発段階やデータを収集する段階からバイアスにさらされる側も参加し、AIが学習するデータに偏りが生じないようにすべきではないかと問題提起しています。

AIが導き出す予測の中には、本当にそれが正しいかどうか証明されるまでに長い時間を要するものもあります。福岡弁護士は、「データの誤りが是正されないままAIが実行され続けてしまいますから、開発時にできるだけバイアスを排除する努力が必要です」と述べつつ、「小規模なものはあまり気にされないかもしれませんが、大企業や政府が実行するような話題になりやすいものは、問題が起きれば指摘され、炎上につながりやすいでしょう」とも指摘しています。

■明暗が分かれたプライバシーに関する事例

プライバシーの観点では、AIの倫理について明暗が分かれた事例が紹介されました。

情報通信研究機構(NICT)における2013年の事案では、顔画像のデータからAIで人流を判断し、災害時の適切な避難経路の確保に役立てることを目的とした実証実験が企画されました。しかし、多くの人が反対し、実験は中止されました。その理由は、顔画像を撮影されることで、誰が、いつ、どこで、何をしていたかが分かり、プライバシーを侵害されるという懸念があったためです。

災害対策の目的に照らせば、実験に使う顔画像データから人物を特定する必要性はなく、データを加工して人物がわからなければ、プライバシーの侵害に当たらないともいえるのではないか、という疑問も生じます。実験に際して、顔画像データは処理後すぐに削除されるとも説明されていました。

福岡弁護士によれば、AIが顔画像データを分析する時に、顔の特徴量を抽出し、この特徴量が個人の特徴を表現するという考え方もあるとのことです。「単に顔画像データを削除すればいいということにはなりません。プライバシーの侵害で『気持ち悪い』と感じるところは人によって違います」。

airinnri_04

一方、東京・渋谷の書店における万引対策プロジェクトは、万引犯の顔画像データを書店間で共有することにより万引の犯罪を防ぐ取り組みですが、プライバシー侵害の懸念を理由とした炎上が現在まで起きていません。

福岡弁護士は、「これもやり方を間違えると危ないケースですが」と前置きしたうえで、書店側が外部にこのプロジェクトの情報を丁寧に発信している点が炎上を防いでいると解説します。

「防犯目的という正当な理由もありますが、外部の専門家をプロジェクトに招き入れて取り組みが適切であるか検証しており、そうした情報をウェブサイトで発信しています。また、顔画像のデータを警察に提供しないことも明言しています」(福岡弁護士)。

airinnri_05

NICTの事案と書店の万引対策プロジェクトは、いずれも正当な目的ながら、プライバシーの観点で明暗が分かれました。特に顔にまつわるデータは、プライバシーの問題につながりやすく、そもそも自分の顔が録画され何かに使用されることは気持ちが悪いものでしょう。「やり方次第です。社会の納得を得ながら進められるかがポイントでしょう」と福岡弁護士は言います。

プライバシーの観点で炎上を避けるには、取り組みを始める前から周囲に情報を適切に発信したり、専門家を招聘(しょうへい)して予想される懸念事項に対処したりしておくことが肝心です。企業法務の立場としては、社会とこのようなコミュニケーションをすることは、これまで企業側にあまり経験がなく、企業法務側もそのような能動的なアクションをしたことはほとんどなかったと思います。炎上を招いてビジネスが止まってしまう事態を避けるためにも、こうした新しい試みに挑戦していく必要があります。

■配慮の欠如と価値観の衝突

最後の2つの事例は、本人同意のない第三者へのデータ提供により炎上したリクナビでの事案と、異なる価値観の衝突という点が浮き彫りになった破産者マップの事案です。

リクナビの事案では、リクナビが人材採用を行う企業に利用者の同意を得ないままクッキー情報を提供した点が批判されました。クッキー自体は個人情報に直結しませんが、採用企業側ではリクナビから提供されるクッキー情報と自社の応募者情報を突合することが可能でした。リクナビは内定辞退率データも採用企業に提供しており、採用企業がこれらの情報を使って応募者が内定を辞退する可能性を把握していたのではないかと疑われました。

「対外的には、内定辞退を防ぐためと説明されていましたが、応募者にとっては他社で内定を辞退したことが知られると採用されないではないかと不安になり、結果として社会的な批判を浴びてサービス停止に追い込まれました。リクナビは批判が起きるとは想定していなかったではないでしょうか」(福岡弁護士)。

応募者の観点ではこうしたデータがどのように扱われるか不透明であり、採用企業側が応募者をふるい落とすために使うのではないかと疑念が生まれます。

福岡弁護士によると、現行の個人情報保護法においてクッキーの提供同意は必須ではなく、クッキーそのものも個人情報ではありません。しかし、提供先でその他情報と突合して個人が判明すれば、事実上の個人情報の提供に当たります。

このため提供元は、事前に規約などで利用者にその使用用途を説明する場合があります。ここにも課題はあり、規約で詳細に記載しないまま同意を得ることや、詳細に記載しても利用者が読まないまま同意してしまうことで、後から批判や炎上が起きかねません。

実は、インターネット広告業界では、クッキー情報の利用や第三者への提供が昔から日常的に行われており、よく議論されてきました。広告とは違い、就職活動という人生の大きなタイミングで合否に関わる点を考えると、やはり批判を浴びやすい事案だと思います。教育や人事、人命といったことに関わるようなケースでは特段の配慮が不可欠でしょう。

airinnri_06

破産者マップの事案は、公開情報として官報に記載された破産者に関する情報をグーグルマップ上にプロットするサービスが批判を集めたケースです。公開情報とはいえ本人の同意なくインターネット上に個人情報を公開していること自体がそもそも違法行為であり、近隣にその事実が知られてしまうと破産者を不安に陥れるプライバシーの観点からも倫理的に問題視されるサービスでした。

「問題点は公開情報であってもデータによって可視化され、詳しい情報が簡単に分かってしまうことにあります。官報の情報では手間がかかりますが、グーグルマップで簡単に分かるのではプライバシーの侵害度合いが違います。データを可視化することによって問題が噴出した事例でしょう」(福岡弁護士)。

airinnri_07

アメリカでは性犯罪者の位置情報が公開されている例もあります。これは性犯罪者の接近から子供を守ることを目的にしたものですが、一方で性犯罪者が懲罰を終えた後もその事実が可視化され続けることに疑問の声もあります。

「親からすれば、近所に性犯罪者がいるか知りたいというのは自然な気持ちでしょう。他方で犯罪者には自分の存在が周囲に知られるのは生きていく上で不便ですし、更生の観点では難しいといえます。社会の安全か、犯罪者の更生機会を奪いかねないか人権かという価値観の衝突です」(福岡弁護士)。

ここでは社会から批判を受けて炎上し問題となった事例を紹介してきました。注意すべき観点はさまざまにありますが、福岡弁護士は、顔画像や企業人事、教育といった領域でAIなどを展開する場合に、入念な検討や特段の配慮が不可欠となることをアドバイスしています。

▼合わせて読みたい

・法令順守だけでは不十分!データ活用に潜む問題を未然に防ぐには(MET2021講演レポート)
https://www.macnica.co.jp/business/ai/blog/142024/index.html
▼『AIと倫理』関連テーマ記事

マクニカでは、AIを活用した様々なソリューションの導入事例・ユースケースをご用意しています。以下リンクより、ぜひお気軽に資料DL・お問い合わせください。

▼世界2.5万人のデータサイエンスリソースを活用したビジネス課題解決型のAIサービス
詳細はこちら