TOPICS

トピックス

第11回ライフクリエイター入門演習が行われました。

ライフクリエイター入門演習

第11回 「AIと公平性・倫理(2)」(2021年6月30日)

信州大学社会基盤研究所 特任教授 林憲一

第11回の講義では前回に続き、AIを取り巻く公平性や倫理的な問題について考えました。実際に起こった事例を通して問題の本質を探り、これからのAI研究・活用において着眼すべき点を理解しました。

1.AIの公平性・倫理で話題になった実例

2015年にGoogle Photo の写真検索機能が、黒人女性が写った写真に「Gorilla」と誤ってラベリングし、開発者が謝罪した。問題の背景には、色の濃い人の顔は認識しにくく分類の精度が下がるという技術的問題と、ネット上で黒人を「ゴリラ」と差別的に呼ぶ状況がAIの学習で反映されてしまう倫理的問題とがあった。

米ノースポイント社が裁判所向けに開発した裁判管理システム「COMPAS」には被告人の再犯確率を10段で評価する機能が備わっていた。調査の結果、再犯確率の正答率は6割で白人・黒人による差は小さかったが、黒人では「再犯確率が高いけど、しなかった」、白人では「再犯確率が低いけど、した」という割合が高かった。人種によって間違え方に偏りがあり、使用の反対を求める声も上がったが、裁判所はいくつかの前提条件を踏まえた上でのシステムの使用は合法と判断し今でも使用されている。

2017年にブラジルのある街で道案内アプリを使った観光客が、地元民なら絶対に通らない治安の悪い「危険な地区」を通って被害に遭うという事件が起こった。アプリはこの地区を「危険な地区」と認識し、迂回させるべきだったのだろうか。しかし、そのレッテルによって差別や地価の下落が起きた場合に責任の所在はどこにあるのだろうか。

2.手段と目的の倫理性

AIを取り巻く倫理の問題は、開発する際のデータの収集方法などの「手段」と、プライバシーの侵害や戦争のために使わないなど「目的」の双方について考えるべきである。OECDは「AIの原則(2019年)」、内閣府は「人間中心のAI社会原則」を公表しており、いくつかの大手企業も社独自のAI倫理原則を作っている。

3.「説明可能なAI」は作れるのか?

機械学習は多数のデータから学んで推論するため、何を根拠に答えを出したのかはわからない。倫理的問題に直面した際に、推論の判断根拠や解釈を説明できるXAI(explainable AI)が求められている。しかし、AIは人の頭では扱いきれないほど多くのデータから答えを導くため、AIの説明は認知の限界を超えて人間には理解できないという主張もある。

4.倫理はAIの障害か?

倫理的判断とは、ある行為をしていいかどうかを社会通念や社会価値に基づいて判断することであり、それらは変化していくため継続的な考察が必要である。AIの現状と社会通念・社会価値とのギャップこそが研究対象であり、ビジネスチャンスにつながると考えることができる。

ページの先頭へ