ChatGPTを含むLLMや文書生成AIの発展、課題とその対策
自然言語処理AIの中でも大規模言語モデル(LLM)の発展は急速で、ChatGPTの元のGPT-3.5/4などのみならず、有名なところではGoogleのPaLMやGemini、MetaのLlama 2、最近ではClaudeなど、多くのLLMが次々に開発されています。一方で、LLMに基づく文書生成AIがハルシネーションを起こすことが課題でした。
ハルシネーションの原因
ハルシネーション(hallucination)とは「幻覚」の意味で、ChatGPTなどの生成AIが時に事実でないことを本当のように語る現象も指すようになりました。この原因は、ChatGPTをはじめLLMに基づく自然言語処理AIが言葉の意味を理解して文章を作るのではなく、次の単語を推測することで文章を紡いでいくことも一因で、この性質のため回答が文脈重視になる傾向があります。その他、古かったり不正確だったりする情報源を参照してしまう場合などもあるためと考えられます。
ハルシネーションへの対策の前提となる心構え
ハルシネーションへの対策として最も効果的な対応は、AIの出した内容をそのまま鵜呑みにせず、内容を判断できるリテラシーを身につけた上で活用することに尽きます。
ハルシネーションへの具体的な対応策の例
ハルシネーションを低減するために取りうる手法としては、プロンプトでの対策や、生成した回答への情報源の付与などが挙げられます。
プロンプトで対策
プロンプトで正確に指示を出す、あるいは段階を分けながら回答させるなどして、AIモデルの回答を制限しつつ、回答をコントロールする方法があります。
情報源とともに回答を提供する
参照した情報源のリンクなどを付与しながら回答を生成する手法もあります。利用する人間がファクトチェック(事実確認)をしやすくなり、誤りを正しやすくなります。