ethicalai

AI倫理の立ち位置

人工知能に関しては、常に倫理に関する問題が取り沙汰されています。このテーマは、『エクス・マキナ』や『トランセンデンス』など、人間から独立したヒューマノイド型のAIを題材にした映画の影響で、一般の人にとっても身近に感じられるのではないでしょうか。こういった映画や昔の映画では、労働倫理、奴隷制度、また、そもそも何をもって「人間」とするのかといった問題が提起されています。AI倫理のこれらのフィクション的な表現・描写はまだ現実の世界では表面化されていませんが、AIの倫理問題は定期的にニュースに取り上げられています。最近では、GoogleのAI倫理チームに人種的な偏見や差別があったことが問題になりました。このような問題を内部で抱えているチームが、人工知能の世界に正義と平等をもたらすことができるのか、という疑問が投げかけられました。人種差別をしてしまうようなチームは、重要なAIバイアス調査を実施したり、YouTubeのようなサイトで差別的なコンテンツを正しく評価する事が出来るのでしょうか?

一方、AIにはさらに多くの倫理的懸念があります。ここではその代表的なものをいくつか紹介します。

労働に関する懸念

これは、必ずしも倫理的な問題として捉えられているわけではありませんが、人工知能のソリューションに対する最も一般的な批判かもしれません。 カスタマーサービス部門から、輸送、小売、製造に至るまで、AIが全てのカテゴリーの仕事を置き換えることは避けられないと言われています。長期的な予測としては、AIは排除する仕事の代わりに新たな仕事を生み出すと示唆されていますが、デジタルトランスフォーメーションの進展に伴って発生する可能性のある離職者、失業者の問題は解決されません。

ヘルスケアに関する懸念

保険管理から請求システムに至るまで、ヘルスケアにおけるAIの正当かつ適切な応用例は数多くあります。患者のプライバシーやセキュリティの問題はしばしば取り上げられますが、ヘルスケアにおけるより深い懸念は、患者のトリアージ、医療画像や検査の分析、診断そのものといったケースでのAIの使用にまつわるものです。医療用AIに問題を引き起こすようなバイアスがかかっていることが既に問題視されています。これらの問題の大部分は、AIのトレーニングに利用できるデータに多様性がないことが原因で、この問題は簡単には解決されそうにありません。

法執行機関に関する懸念

ヘルスケアと同様に、法執行機関のAIアプリケーションは、自動化ソリューションの作成に使用されるトレーニングデータのバイアスにより大きな影響を受けます。法執行部門が使用する顔認識ソフトウェアのバイアスが何度もニュースになり、改革を求める声が高まり、場合によっては法執行機関のAI使用を管理する新しいポリシーが制定されることもあります。

人事や入試に関する懸念

AIは既に人材管理や学校の入学試験に使用されており、ほとんどの場合問題なく利用されています。しかし、構造的なバイアスが生じており、人種、性別、収入水準、出身国など、政府機関や学校が考慮しないと主張する属性に基づいて、入学希望者や採用候補者が不合格になるケースが多く見られます。多くの場合、これらの入学希望者や採用候補者は、彼らが人為的な方法で評価されることを認識しておらず、自分の情報がこのように使用されることに同意していません。

上記の懸念は、解決には時間がかかるかもしれませんが、幸いなことに、全て対処する事が可能だと考えられています。これらの倫理的問題を特定し修正する為に、幾つかの解決策が世界中で議論されており、いくつかは既に施行されています。

AI倫理はどのように進展するか

AIコミュニティで倫理基準を定め適用していく方法として最もよく知られているのは、国内外の外部AI倫理委員会を設立し、新旧のAIを評価し、非倫理的な形態の人工知能を製造・使用している組織や個人に制裁を加えることです。 最近のニュースでは、欧州連合(EU)が人工知能法(Artificial Intelligence Act)を制定して、AIとその使用に関する規制を確立しようとしていることが話題になっています。この広範囲に及ぶ取り組みの前例として、GDPRに関する規則が挙げられていますが、これが施行されるかどうか、またそれが有用であるかどうかはまだわかりません。米国では、この種の規制に対応するものはありませんが、国防総省が検討しています。

既に一部の企業では実施されていますが、より確立しやすいと思われる別の解決策で、全社的な方針を施行する、AI倫理委員会を社内に設置することがあげられます。IBMMicrosoftでは既にある程度実施されており、本記事の冒頭で記載があったGoogleの例よりもはるかに成功しています。これらの内部委員会は、顧客のデータプライバシーと組織の透明性を優先するよう努めており、これは企業内外の研究者やデータサイエンティストが、開発全体に通じ様々なAIソリューションの倫理基準を評価できるようにする「説明可能なAIとも言えます。

個々の国、地域、企業がどのように進めるかに関わらず、倫理基準の必要性が世界的に認識されてきたことで、とアプリケーションは終わりに近づいているようです。長期的には、特にヘルスケアや法執行機関などのAI倫理重要であり、AIが潜在的採用者の間で信頼を確立しようと努力している分野にとって、これは良いニュースです。

▼世界2.5万人のデータサイエンスリソースを活用したビジネス課題解決型のAIサービス
詳細はこちら

3aac0ec642ebab1987be1c92b2967571146cde09

出典https://www.crowdanalytix.com/ethical-ai/
CrowdANALYTIX Resouce Library