AIを信じすぎてはいけないという教訓めいた事件が米国で起こった。ある弁護士がChatGPTに頼って法律調査を行った結果、虚偽の情報を提出するという事件が発生した。
この事件は、人身事故の疑いで航空会社を提訴した男性を中心に展開された。原告の弁護団は、過去の裁判例をいくつか引用した準備書面を提出し、自分たちの主張の判例を確立しようとした。しかし、航空会社の弁護士は、参照した裁判例のいくつかが存在しないことを発見し、速やかに裁判長に警告を発した。
裁判長であるKevin Castel判事は、この事態を “前代未聞の事態”とし、命令で、原告側の弁護団に説明を求めた。
主任弁護士の同僚であるSteven Schwartz氏は、ChatGPTを利用して類似の判例を検索していたことを告白した。Schwartz氏は書面で、「これまでAIを法律研究に利用したことがなく、その内容が虚偽である可能性があることを知らなかった 」と深い後悔を表明した。
申請書に添付されたスクリーンショットには、Schwartz氏とChatGPTの会話が写されている。プロンプトの中でSchwartz氏は、特定のケースであるVarghese v. China Southern Airlines Co Ltdが本物かどうかを尋ねている。
ChatGPTは、LexisNexisやWestlawなどの法律文献データベースで検索できることを示し、その信憑性を確認した。しかし、その後の調査により、この事例は存在しないことが判明し、ChatGPTが提供する他の事例についても疑義が生じた。
今回の事件を受け、本件に関与した法律事務所Levidow, Levidow & ObermanのPeter LoDuca氏とSteven Schwartz氏の両弁護士は、6月8日に予定されている懲戒公聴会に召喚され、自らの行動を説明することになっている。
今回の事件を契機に、法曹界では、法的調査におけるAIツールの適切な使用や、同様の事態を防ぐための包括的なガイドラインの必要性などについて議論が行われている。
Source
- The New York Times: Here’s What Happens When Your Lawyer Uses ChatGPT
コメントを残す