ChatGPTの誤りについて責任を負うのは誰か? 米国の判決が回答を示す(現時点では)

2025年5月、アメリカ・ジョージア州の裁判所は「ChatGPTの出した結果をそのまま信用してはいけない」と判断しました。OpenAIは、AIの誤情報(いわゆる“ハルシネーション”)について責任を問われないという内容です。

事件の経緯

有名なラジオ司会者マーク・ウォルターズさんが、財団の資金を横領したとする記事を出されました。しかし、その情報はChatGPTが作り出した誤情報でした。記者はAIの結果に疑問があると知っていたのに、確認せずそのまま記事を書いたのです。

裁判の判断ポイント

  • 誹謗中傷になるには、「事実のように見える嘘」が必要。今回はAIが作った情報であり、OpenAIが悪意を持ってやった証拠はありませんでした。

  • ChatGPTには「正確ではない可能性がある」と注意書きがあり、それを読んだ人はもっと慎重に使うべきだと裁判所は述べました。

  • 記者がAIに無理に情報を出させ、間違いに気づいたのに無視した行為が記者自身の過失とされました。

この判決の意味

  • AIの開発者(OpenAI)は、意図的でなければ責任を問われにくい

  • 利用者がAIの結果を使って損害が出たとしても、証拠がなければ賠償請求は難しい。ただし、それは知的財産や専門的な情報にアクセスできない人には不利です。

  • 裁判所は、「AIの出す情報を使う人自身にも責任がある」と認めました。つまり、使い方を間違えたら自分の責任です。

AI製品の売り方にも注意が必要

AIの機能を過剰に宣伝していたり、「正確な答えが出ます」と思わせる表現をしていると、将来訴えられる可能性があります。OpenAIは注意喚起や説明をしていたため、責任を免れましたが、他社は注意が必要です。

A longer text in English is here.