AIのバイアスを防ぐためにできる8つのこと

06/28/2024

エンドユーザー向けAIモデルの目的は、優れた顧客体験を提供することです。AI 開発プロセスのさまざまな段階でAIモデルから意図しないバイアスを取り除くための戦略を紹介します。


AIバイアスとは

AIにおけるアルゴリズムのバイアスは、普遍的な問題です。例えば、音声認識で「hers」という代名詞は識別できないが「his」は識別できる、顔認識ソフトウェアでは有色人種を認識しにくい、などのバイアスのかかったアルゴリズムの例がニュースで取り上げられたことを思い出すでしょう。

AIのバイアスを完全に排除することは不可能ですが、AIのバイアスを減らす方法を理解し、バイアスを防ぐために積極的に取り組むことが重要です。AI システムのバイアスを軽減する方法を理解するには、モデルの生成と進化に使用される学習用データセットについて理解することが必要です。弊社の2020年のAIと機械学習の現状に関する報告書によると、データの多様性、バイアスの軽減、AIのグローバル規模を「重要ではない」と回答した企業はわずか15%でした。これは前向きなデータですが、「バイアスのない多様なグローバルAIをミッションクリティカルだ」と答えたのはわずか24%でした。これは、多くの企業がより積極的にAIにおけるバイアスを克服する取り組みを実施するべきであることを示しています。AIアルゴリズムにバイアスはないと考える人も多いようですが、機械学習モデルは人々によって作成されていることを忘れてはいけません。既存の人間のバイアスをAIが学習し、より増幅させるという課題とリスクがあることを認識しましょう。


AIにおけるバイアスの例

バイアスへの対処は大手企業にとっても簡単ではありません。AIバイアスは、評判やエンドユーザーに影響を及ぼす可能性があります。

顔認識

研究者が複数の大手企業の顔認識ソフトウェアをレビューした結果、肌の色が濃い女性を識別する際、肌の色が薄い男性を識別する時と比べてエラー率が34%も高いことを発見しました。顔認識ソフトウェアをいつどのように使用するかによって、バイアスの影響は非常に大きくなる可能性があります。

音声認識

音声テキスト変換サービスまたは音声操作のバーチャルアシスタントは、AIの音声認識テクノロジーによって開発されています。音声認識のアルゴリズムは、女性よりも男性の声を認識しやすい傾向にあるようです。これらのモデルのトレーニングに使用されるデータは、女性よりも男性のデータが多い傾向がある理由で、女性の声の認識精度が低くなります。これは顧客による購買決定要因になるでしょう。

銀行ローン

AIにおけるバイアスのもう一つの例は、銀行業界に関することです。一部の銀行は、融資審査アルゴリズムを使用して、借り手の潜在的な財務状況を評価し、信用度を判断します。しかし、アルゴリズムが過去のデータでトレーニングされていると想像してみてください。そのアルゴリズムは、歴史的に社会的バイアスのために女性よりも男性の方がローンを与えられていたため、男性が女性よりも信用力が高いと学習する可能性があります。実際、ある男性とその妻が金融機関に同一の申請書を提出したケースでは、アルゴリズムは男性のローンを承認した一方で、女性が申請したローンは承認しませんでした。データの中身、バイアスに注意を払わなければ、公平に機能しないAIソリューションとなるリスクがあります。バイアスは、モデルの構築およびデプロイ後のプロセスの段階で、偶発的に生じる可能性があります。そのため、プロジェクト全体を通してバイアスを軽減するために警戒を怠らないことが重要です。


AIのバイアスを防ぐためにできる8つのこと

AIのバイアスを防ぐ (減らす)ためにできることを理解し、トレーニングデータを積極的に活用してこの課題に対処しましょう。バイアスを最小限に抑えるには、統計とデータ探索で異常値 (外れ値)を監視しましょう。AIのバイアスは、トレーニングデータのさまざまなサンプルを比較して代表性を検証することで削減および防止されます。このバイアス管理がなければ、AIの取り組みは最終的に崩壊してしまいます。ここでは、AIのバイアスを防ぐためにできる8つのことを紹介します。


AIのバイアスを減らすための8つのステップ

  1. ビジネス課題を狭く定義する:解決しようとするシナリオが多すぎると、多くの場合、管理できない数のクラスに大量のラベルが必要になります。まず、ビジネス課題を狭く定義することで、モデルを構築した正確な理由でモデルが適切に機能していることを確認できます。
  2. 多様なデータ収集する:1つのデータポイントに対して、複数の有効な意見やラベルが存在することがよくあります。多様な意見を収集し、正当で主観的な意見の相違を考慮することで、モデルの柔軟性が高まります。
  3. トレーニング データを理解する:学術的なデータセットにも商業的なデータセットにも、アルゴリズムにバイアスをもたらすクラスとラベルが含まれている可能性があります。また、データがエンドユーザーの多様性を完全に表していることもチェックしてください。収集したデータは、潜在的なユースケースのすべてをカバーしていますか?そうでない場合は、追加のデータ ソースを見つける必要があります。
  4. 多様な機械学習チームを構成する:私たちは皆、職場に異なる経験やアイデアを持ち込んでいます。人種、性別、年齢、経験、文化など、様々なバックグラウンドを持つ人々は本質的に異なる質問をし、異なる方法でモデルと対話するでしょう。多様なチームを構成することは、モデルを本番稼働させる前に課題を見つけるのに役立ちます。
  5. すべてのエンドユーザーについて考える:エンドユーザーがあなたやあなたのチームと同じように思考するとは限りません。エンドユーザーの異なるバックグラウンド、経験、属性を認識する必要があります。あなたとは異なる人々があなたのテクノロジーとどのように関わり、そうすることでどのような問題が生じるかを予測することで、AIバイアスを回避しましょう。
  6. アノテーションと多様性:アノテーションを行う人は多ければ多いほど、多様な視点を持つことができます。視点の多様性が高めることは、バイアスを減らすのに非常に役立ちます。多様なアノテーションは、さまざまな視点を提供するだけでなく、さまざまな言語、方言、地域特有のコンテンツをサポートします。
  7. フィードバックを念頭に置いてテストする:モデルはほとんどの場合、全期間を通じて静的なものではありません。よくある間違いは、エンドユーザーが実世界でモデルがどのように適用されているかについてフィードバックを提供する手段を持たずにモデルをデプロイすることです。フィードバックのためのコメント欄やフォーラムを用意することで、モデルがすべての人にとって最適なパフォーマンスレベルを維持していることを継続的に確認できます。
  8. フィードバックを活用してモデルを改善する具体的な計画を策定する:エンドユーザーのフィードバックだけでなく、変更点、エッジケース、見落としている可能性のあるバイアスなどを監査するために独立したチームも活用して、モデルを継続的にレビューすることが重要です。モデルからフィードバックを受け取り、自分自身からもフィードバックを提供して、パフォーマンスを向上させることを確認し、常により高い精度を目指して反復してください。

AIバイアス問題の今後の展望

弊社の2020年のAIと機械学習の現状に関する報告書によると、調査対象企業の約85%が、AIの取り組みにおいてバイアスを軽減することが少なくともある程度は重要であると考えています。バイアスの軽減が重要であるだけでなく、ミッションクリティカルであると認識する組織が増えることが期待される一方で、責任あるAIに関する議論が進んでいます。テクノロジー企業は、より多くの女性や多様な人種を雇用する方向で取り組んでおり、これはより高性能で、より包括的なAIモデルを生み出すことが期待されています。こうした取り組みを補完するために、組織はバイアスと責任あるAIに関するアプローチやポリシーを含むAIガバナンスのフレームワークを開発すべきです。上記の8つのステップの要素を組み込んだ包括的なフレームワークは、多様性へのコミットメントを高め、バイアスの少ないAIプロダクトを生み出すことにつながるでしょう。


AppenはAIのバイアスの防止をご支援

Appenでは、20年以上にわたってデータアノテーションを取り組んでおり、多様な人材を活用して、企業がAIモデルを自信を持ってデプロイできるように支援してきました。130ヵ国から100万人以上のクラウドメンバーが参加するプラットフォームを提供するだけでなく、AIモデルに最適なトレーニングデータを生成するために、専門家のマネージドサービスも提供しています。