1. TOP
  2. 旬の話題・気になるテーマ
  3. AIがジェンダー差別を再生産する?課題は人間の倫理観
旬の話題・気になるテーマ旬の話題・気になるテーマ

AIがジェンダー差別を再生産する?課題は人間の倫理観

人間が持つ偏見が、AIを通して表面化

Terraceで話題!

時に「人間を超える」「将来は人間の仕事を奪う」などと表現され、ビジネスの場での活用拡大も期待されているAI(人工知能)。実は、人種やジェンダーにおける差別を再生産してしまう可能性があることをご存じでしょうか。AI開発に詳しいNTTコミュニケーション科学基礎研究所 NTTフェロー、理化学研究所 革新知能統合研究センター副センター長兼務の上田修功さんに、AIがはらむリスクや、開発・運用する企業側が持っておきたい心構えなどを聞きました。

「機械なら客観的で正しい判断ができる」と思いがち

日経xwoman編集部(以下、――) 人間には誰しも無意識のバイアス(偏見)があり、客観的な判断をしたつもりでも、バイアスに引きずられて偏った判断をしてしまうことがあります。その点、「機械なら客観的で正しい判断ができる」と思いがちですが、実際は、AIが差別的な判断をしてしまった例があるそうですね。

上田修功さん(以下、上田) ジェンダーや人種の観点から、AIが差別的な判断をしてしまった例がいくつかあります。最も有名なのが、グーグルフォトという画像保存サービスが、AIで画像の特徴を自動識別した際、黒人女性の画像に「ゴリラ」というタグ付けをした例です。

 ほかにも、米アマゾン・ドット・コムの採用応募者の書類審査をAIに行わせたところ、履歴書に「女性」という言葉があるだけで評価が落ち、女性の応募者に不利な選考結果になってしまったという例が有名です。

 AIが自動で会話応答してくれるウェブ上でのオンラインチャットボット(CleverbotやTay)において、AIが突然暴走したかのように、ひわいな発言や差別的発言を繰り返すようになったこともありました。これはAIが人間との会話を通じて大量の言葉の中から、ひわいな発言や差別的な発言を学習してしまった結果です。

―― なぜこのように、人を傷つけるような事態が起こってしまうのでしょう。

関連雑誌・書籍・セミナー

会員登録でクリップやタグの
フォローが可能になります
フォローしているキーワード/タグ
キャンセル
4/8「日経WOMAN」35周年イベント開催!

4/8「日経WOMAN」35周年イベント開催!

長野智子さん「キャリアの壁の乗り越え方」など。先着順・参加無料。