2020/09/02

顔認識技術のジェンダーバイアスについて

2020 年 9 月 2 日 編集部記事

顔認識ソフトウェアが、ここ数ヶ月注目を浴びています。潜在的なプライバシーへの影響から差別の助長に果たす役割まで、研究者、業界の専門家、企業、政策立案者などがさまざまな問題を提起しています。ミシガン大学は最近、キャンパス内での顔認識の使用とこれらの問題と関連付ける研究を発表しました。

Help Net Security の記事では、ウォッチガードのセキュリティアナリストである Trevor Collins が顔認識アルゴリズムに存在するバイアスについて説明しています。ウォッチガード脅威ラボの新たな研究結果を紹介しつつ、顔認識テクノロジに潜むジェンダーバイアスとそれに対する業界の対処方法について述べています。記事の一部を抜粋してご紹介します。

今日顔認識に使用されるアルゴリズムは、機械学習(ML)モデルに大きく依存しており、相当量のトレーニングを必要とします。残念ながら、トレーニングの過程でこれらの技術にはバイアスが生じることがあります。トレーニングに母集団の典型的なサンプルが含まれていない場合、機械学習は間違った母集団を正しく識別することができません。

これは、ソーシャルメディアのプラットフォーム上で顔をマッチングする場合には深刻な問題にはならないかもしれませんが、Amazon や Google、Clearview AI などの顔認証ソフトウェアが政府機関や法執行機関で使用される場合、はるかに大きな問題となる可能性があります

顔認識ソフトウェアのジェンダーバイアスとそれに対する対処方法についてはこちらの原文をお読みください。より技術的な詳細はウォッチガードのレポートでご確認ください。