ハルシネーションとは?定義、原因・事例・リスク・対策

AIのハルシネーションとは?
本記事では、AIのハルシネーションの定義、種類、発生する主な原因、具体的な事例、リスクと影響、ハルシネーションを抑える対策を解説していきます。
ハルシネーションの定義
ハルシネーション(Hallucination)とは、生成AIなどのAIモデルが、事実とは異なる情報や、誤解を招くような情報を生成してしまう現象を指します。
この現象では、誤った情報を、あたかも真実であるかのように出力するため、ユーザーに対して誤解を与えるなどの悪影響を及ぼす可能性があります。
ハルシネーションと呼ばれる理由
Hallucination(ハルシネーション)は、日本語で「幻覚」という意味です。
生成AIが、あたかも人間が幻覚を見ているかのように、事実とは異なる内容を生成することから、ハルシネーションと呼ばれています。
ハルシネーションの種類
ハルシネーションは、内在的ハルシネーションと外在的ハルシネーションの2種類に分類できます。
内在的ハルシネーション
内在的ハルシネーション(Intrinsic hallucination)は、AIモデルが、学習データと矛盾する情報を出力する現象を指します。
例えば、「日本は東アジアに位置する国家です」と学習させたAIモデルが、「日本は中央アジアに位置する国家です」と出力した場合、内在的ハルシネーションに分類されます。
外在的ハルシネーション
外在的ハルシネーション(Extrinsic hallucination)とは、AIモデルが、学習データには存在しない情報を出力する現象を指します。
例えば、「2024年、日本全国では空飛ぶタクシーが日常的に利用されていました」という出力は、2024年時点で空飛ぶタクシーが実用化されておらず、その情報が学習データにも含まれていないと仮定した場合、外在的ハルシネーションに分類されます。
ハルシネーションが発生する主な原因
ハルシネーションが発生する主な原因として、学習データの質と量、プロンプトの質と量、過学習、専門知識の不足、アーキテクチャの欠陥、敵対的攻撃への脆弱性などが挙げられます。
学習データの質と量
学習データの質と量は、ハルシネーションの発生原因になります。
AIモデルは学習データの品質に依存しており、学習データが不正確であったり、時代遅れであったり、偏っていたり、量が不足していたりする場合、ハルシネーションが発生する可能性が高まります。
例えば、インターネット上には、事実と異なる情報や、更新されていない古いデータ、偏った情報などが数多く存在します。また、時代が進むにつれて、事実、データ、書籍の内容も変化する可能性があります。これらを学習データに含めてしまうと、AIモデルが誤った情報を学習し、ハルシネーションの発生原因になります。
プロンプトの質と量
プロンプトの質と量は、ハルシネーションの発生原因になります。
プロンプトが曖昧で具体性に欠けたり、明確な指示を含まないなど情報が不足している場合、AIにプロンプトの意図や文脈が正確に伝わらない可能性があります。また、性能の低いAIモデルの場合、文脈を適切に理解できない可能性もあります。
過学習(Overfitting)
過学習は、ハルシネーションの発生原因になります。
過学習は、過剰適合とも呼ばれ、AIモデルが学習データに過剰に適合し、汎用性や柔軟性を失ってしまう現象です。学習データに過剰に適合し、新しい入力や曖昧なプロンプトに対応できず、特定のフレーズを繰り返したり、誤った出力を生成しやすくなります。
過学習は、特に専門知識が必要な分野で高品質な学習データが不足している場合に顕著に発生します。過学習は、AIの適応力を低下させ、誤解を招くハルシネーションの一因ともなります。
専門知識の不足
専門知識の不足は、ハルシネーションの発生原因になります。
特定の領域やタスクに特化したAIモデルは、専門外の分野に関する入力に対してハルシネーションを起こすことがあります。これは、モデルがその領域に必要な知識や文脈を十分に持たないため、適切な出力を生成できなくなることが原因です。
例えば、多言語に対応したモデルであっても、膨大な語彙を学習していても、文化的背景や歴史、微妙なニュアンスに対する深い理解が不十分な場合には、誤った出力を生む可能性があります。
アーキテクチャの欠陥
アーキテクチャの欠陥は、ハルシネーションの発生原因になります。
モデルのアーキテクチャに欠陥があると、言語の文脈や文化的なニュアンス、専門的な知識を正しく理解できず、AIが単純すぎる、あるいは的外れな出力を行う原因になります。特に専門性の高いタスクでは、モデルの複雑さや処理能力が不十分だと、誤った解釈や事実に反する回答が生じやすくなり、ハルシネーションの大きな要因となります。
敵対的攻撃への脆弱性
敵対的攻撃への脆弱性は、ハルシネーションの発生原因になります。
敵対的攻撃(Adversarial attacks)は、AIに誤った出力を誘導するよう意図的に設計された入力を与える手法です。ハルシネーションを人工的に引き起こす原因となります。
ハルシネーションの具体的な事例
ハルシネーションは、さまざまな場面で実際に問題を引き起こしています。注目を集めた事例をいくつかご紹介します。
名誉毀損につながった例
生成AIが、アメリカ・ジョージア州のラジオ司会者の男性が詐欺や横領を働いたとする虚偽の訴訟概要を作成。男性は名誉を傷つけられたとして、開発企業を提訴。
参考:https://forbesjapan.com/articles/detail/63762
不当な扱いにつながった例
大学の講師が、生成AIを使用して学生が提出した課題にAIが使われているかを判定した結果、生成AIが「課題はAIによって生成された」と判断。講師は学生に対して落第点を付けると通知。
参考:https://www.nbcnews.com/tech/chatgpt-texas-college-instructor-backlash-rcna84888
捏造につながった例
アメリカの弁護士2名が、調査に生成AIを利用し、生成AIが提示した6つの判例を裁判資料として提出。後にそれらが生成AIによって捏造された架空の判例であることが判明。
ハルシネーションのリスクと影響
ハルシネーションは、先に紹介した事例のように、さまざまな分野で深刻なリスクをもたらします。特に、情報の正確性や信頼性が求められる分野においては、極めて重大な影響を及ぼすリスクがあります。
セキュリティリスク
ユーザーがAIの出力を検証せずに鵜呑みにしてしまうと、意思決定に深刻な影響を及ぼす可能性があります。特に、金融、医療、法律などの分野では、誤った情報や捏造が重大な判断ミスにつながることもあります。
誤情報が拡散するリスク
ハルシネーションによって生成された誤情報がSNSなどで拡散され、多くの人々が虚偽の情報を信じてしまうと、誤解や混乱を招くリスクが高まります。最悪の場合には、社会全体に深刻な影響を及ぼし、事件の発生や、急激な世論形成による社会的混乱を引き起こすリスクも懸念されます。
信頼失墜につながるリスク
ハルシネーションは、企業に経済的損失や信頼性の低下というリスクをもたらします。企業やメディアがAIを用いてコンテンツを自動生成し、ハルシネーションによる誤情報を発表または報道したり、AIを活用したカスタマーサポートが誤った情報を提供したりした場合、ブランドの信頼失墜、法的責任、そして経済的な損失につながる可能性があります。
ハルシネーションを抑える対策
AIのハルシネーションを軽減させる対策を講じることで、リスクを抑えることができます。
高品質データ
ハルシネーションの問題に取り組むための重要な方法の一つは、AIモデルに多様で高品質な学習データを提供することです。
多様で高品質な学習データを活用することで、AIモデルはさまざまな文脈やシナリオを学習し、不正確な出力や誤解を招く結果を生成するリスクを軽減できます。
高品質なトレーニングデータの提供に加え、AppenはAIモデルの意思決定プロセスにおける文脈理解の向上を目的とした革新的なソリューションも開発しています。その一例として、自然言語処理(NLP)技術を活用し、入力の文脈を分析してモデルに追加情報を提供する手法があります。
例えば、カスタマーサービス用のチャットボットが、ユーザーからの質問を受けた際、固有表現抽出(NER)や感情分析などのNLP技術を用いることで、AIモデルの性能を向上させることができます。これにより、質問の文脈を深く理解し、ユーザーの履歴や好み、過去のやり取りに関する追加情報を提供できるようになります。これにより、ハルシネーションを軽減することが可能になります。
RLHF(人間のフィードバックによる強化学習)
人間のフィードバックによる強化学習(RLHF:Reinforcement Learning with Human Feedback)は、AIが生成する出力に対して人間の価値観、意見、好み、フィードバックを与えファインチューニングすることで、大規模言語モデルの出力をより「人間らしく」「自然に」することを目的としています。
生成AIモデルによるハルシネーションの問題に対処するため、Appenは人間のフィードバックによる強化学習(RLHF)を採用しています。このアプローチでは、AIが誤った情報を出力した際に、正しい答えを人間が指摘することで、誤りを修正しながら精度を向上させることができます。これにより、ハルシネーションを軽減することが可能になります。
例えば、患者の診断や治療に役立つ大規模言語モデル(LLM)を開発したい医療機関を考えてみましょう。これらの機関は、Appenの「ヒューマン・イン・ザ・ループ(Human-in-the-loop)」システムを用いて、モデルの訓練と検証を行います。医師や看護師といった専門家がモデルの出力をレビューし、それが正確かどうか、患者の症状や病歴に関連しているかを確認し、フィードバックを提供します。このプロセスは、モデルの整合性を高め、精度を向上させるために重要です。また、フィードバックには、モデルが特定の質問に対して自信を持って答えられないことを学習させる内容も含まれます。
さらに、Appenの専門家チームは、モデルに対して文脈や領域に特化した知識を提供し、医療用語を正確に理解させることで、より適切な出力を生成する手助けをします。人間は単に監視するだけでなく、モデルに対してフィードバックや修正を行うこともできます。具体的には、モデルの出力を監視して不正確な応答にフラグを立てたり、時間が経つにつれてモデルが学習し改善されるように修正フィードバックを提供したりします。
このように、ヒューマン・イン・ザ・ループを活用することで、医療機関はより正確で信頼性の高い大規模言語モデルを開発し、医療専門家が患者を診断し治療する際のサポートが可能になります。新しいデータやフィードバックに基づいて継続的に更新・改良することで、常に正確で最新の情報を提供できるようになります。
説明可能性と解釈可能性
説明可能性(XAI:Explainable AI)は、AIがどのようにして特定の答えを導き出したのかを解明する技術です。AIの判断プロセスを明確にし、その出力結果の根拠を示すことができるモデルを用いることで、不正確な情報が出力されるリスクを軽減できます。
解釈可能性(Interpretability)は、AIの意思決定や出力の根拠を、人間が理解できるように説明できるかを指します。AIがどのようにして特定の結論に達したのかを理解できることは、出力の正確性・信頼性を確認するために不可欠です。
解釈可能性を持つAIでは、誤った出力の理由を追跡することが可能です。例えば、あるプロンプトに対して誤った回答が生成された場合、その回答がどのようにして生成されたのかを解析することで、問題の根本原因を特定し、修正することが可能です。このような透明性があることで、ハルシネーションを抑制するために必要な調整を効率的に行うことができます。
Appenのソリューション
Appenは、大規模言語モデル(LLM)アプリケーション開発を検討している企業向けに、さまざまなサービスと製品を提供しています。
データ収集・データアノテーション
AIデータ企業のAppenは、AIデータ業界のグローバルリーダーとして、28年以上にわたり、290以上の言語・方言に対応した高品質なデータを提供してきました。データクリーニング、データセット作成、データ収集、データアノテーションなど、お客様のAIモデル開発に必要な一連のサービスを提供しています。詳しくはこちらをご覧ください。
アッペンのハルシネーション対策
Appenは、生成AIモデルにおけるハルシネーションの問題に取り組むために、さまざまな革新的なソリューションを開発しています。
高品質な学習データを提供し、意思決定プロセスの文脈を改善し、人間のフィードバックを取り入れた強化学習を用いることで、AIモデルの説明可能性と解釈可能性を向上させています。
AIと機械学習の専門知識を持つAppenは、ハルシネーションのリスクを最小限に抑えながら、企業や組織が大規模な言語モデルを効果的に活用できるよう支援しています。
大規模言語モデル開発プラットフォーム
Appenが独自に開発した大規模言語モデル開発プラットフォームは、大規模言語モデルの開発プロセスを効率化します。トレーニング、ファインチューニングだけでなく、開発に必要な様々なツールを提供し、迅速なモデル開発をサポートします。
大規模言語モデル開発に関するご相談は、こちらよりお気軽にお問い合わせください。