ジェンダーギャップ解消とAI

 今、私が着目しているのは、ジェンダーギャップの解消とAI(人工知能)の関係です。社会を大きく変革する可能性を秘めたAIを、私たちはつい「便利なツール」として積極的に活用することばかり考えてしまいます。しかし、実はAIには、下手をすれば制度的差別を加速させてしまうリスクもあるのです。

 AIとは何かを改めて考えてみましょう。今のAIの主流である「ディープ・ラーニング」とは、コンピューター(アルゴリズム)に「過去」と「現在」のデータを基に学習させていくものです。新しい課題を与えると、これまでのデータからの学習を基に「ベスト」だと思われる判断を下していきます。しかしこの過去のデータの中に「差別」や「バイアス」「格差」が潜んでいても、AIはモラル的な善悪は抜きに、それを「ベストな解」として学び、それに基づいた判断を下して、差別や偏見を高速で再生産してしまうのです。

 英語圏では今、これを問題視する議論が巻き起こっていますが、日本ではまだあまり議論されていません。

女性候補者を減点するAI

 こんな話があります。

 2018年に米アマゾンが、人材採用に使う新しいAIを開発していたときの出来事です。開発プロセスの中で、アマゾンは「どうやらこのAIは女性候補者を自動的に減点している」ということに気付きました。理由を分析したところ、アマゾンは男性エンジニア中心の歴史が長く、過去にあまり女性を採用してこなかったという事実が分かりました。そしてAIは過去のデータから、「女性は採用しないほうがいい」と学び、履歴書に「女性」と書かれていたり、女性に関連性が高いキーワードがあったりすると自動的に候補者のポイントを下げていたのです。

 アマゾンはそのことに気付き、性差別をしないAIを作るために奮闘したのですが、どう頑張ってもその時は開発できなかったらしいのです。アマゾンのトップエンジニアががっつり取り組んでも、AIが性差別をしなくなる方法が分からなかった、と。これは怖いですよね。結果、プロジェクトの幹部はその開発チームを解散しました。

 こうしたAIによる性差別や人種差別の問題は2018年ごろから世界で大きく取り上げられるようになり、現在はIBM Watson OpenScaleなどのチームが、AIが差別をしないようにチェックするためのツールの開発に着手しています。

 しかし、AIが女性の点数を下げていることにアマゾンが気付いたのは幸運で、この背景には、彼らがジェンダー問題に敏感なグローバル企業だったこともあるのではないかと私は推測します。残念ながら、今の多くの日本企業であれば差別に気付かないままの可能性が高いのではないでしょうか。「このAIを使うと、なんて効率よく採用できるんだ」と、無自覚に使い続けてしまう。実際はそのAIが女性や外国人、障害者などの候補者を減点していることには気付かずに……。この例のように、AIには性別に限らず、さまざまな差別を加速させるリスクがあるのです。

 AIによるバイアスの再生産についてより詳しく知りたいという人には、ネットフリックスの「AIに潜む偏見~人工知能における公平とは~」というドキュメンタリーがお薦めです。