新着情報
【タックル法律講話】チャットGPTを使って書面を作成したアメリカの弁護士が大失敗!
実在しない判例を盛り込んでしまいました。
人類がチャットGPTに負けないよう英知を備えるべき時代です。
2023/07/03
チャットGPTを使って書面を作成したアメリカの弁護士が大失敗!
実在しない判例を盛り込んでしまいました。
人類がチャットGPTに負けないよう英知を備えるべき時代です。
実在しない判例で赤っ恥
アメリカ・ニューヨークの連邦裁判所の民事訴訟で、弁護士が対話型人工知能(AI)「チャットGPT」を使って書面を作成したところ、実在しない6件の判例が含まれていたことが分かりました。弁護士は「チャットGPTが虚偽内容を示す可能性に気づいていなかった」とし、「信頼性が完全に検証されるまで二度と頼らない」と述べたそうです。
この弁護士は、2019年に航空機内で配膳カートがひざに当たって負傷したとして航空会社を訴えた男性の代理人でしたが、裁判所に提出した書面で引用した「航空会社が被告となった訴訟の判例」が実在していませんでした。
航空会社の弁護団や裁判所が「判例データベースで確認できない」として問い合わせたところ、弁護士が書面の作成にチャットGPTを使ったことが分かりました。弁護士は実務歴30年のベテランで、チャットGPTを法的調査に利用したのは初めてで、「裁判所や航空会社を欺く意図はなかった」とし、「非常に後悔している」と話しているそうです。
チャットGPTは、ネット空間上の全ての情報を拾ってくるだけなので、それが真実かどうかは検証しません。弁護士や法律家の基本は「原典に当たれ」です。つまり、判決文そのもの、原書を確認し、しっかり読み込むことが求められます。二次情報、三次情報では間違いを犯しやすいので、極力、一次情報に当たるべきなのです。
チャットGPTは今後広まっていく可能性があります。その際、どこまで使えるのかを研究すべきでしょう。東大ではチャットGPTを使った模擬裁判のイベントも開かれています。定型文や簡単な報告書の作成にはチャットGPTは便利だと思います。起承転結の文章を自動的に作成してくれて、あとは人間が事実を肉付けしていけばいいので、文章を書く労力はかなり省けます。しかし、最終的に精査して確認するのは人間です。そこをしっかりやらないと、このアメリカの弁護士のような重大ミスを犯してしまいます。
チャットGPTはあくまでも道具
要は使う側である人間の問題に行き着きます。確かに便利ではありますが、これに頼り過ぎると自身の思考能力が低下することも覚悟しておくべきでしょう。ただでさえ、ネットが普及した結果、人が垂れ流した情報を疑いもせず、コピー&ペースト(コピペ)してしまう今の風潮にチャットGPTはますます拍車をかけることになるでしょう。
思考力が低下すると、情報の真贋を判断する力も落ちます。実際、文章をまともに書けない人が増えています。
AI技術はあくまでも道具のはずなのですが、いつの間にか、その道具に人間が使われて、人間が本来持っている能力の退化が急速に進んでいます。ネットの仮想空間と現実の空間の区別がつかなくなっています。
そうなると、簡単にデマが拡散してしまいます。デマを拡散させたい人間にとっては有利な時代になってきつつあります。某国のように「嘘も百回言えば真実になる」というやり方がまかり通ることになります。嘘でもネット上に残っていれば、チャットGPTが拾ってしまい、その結果拡散されていつの間にか真実になってしまう危険性があります。逆に、真実やどんなに素晴らしい論考であっても、ネットで拾われなければ存在しないことになってしまいます。
そうならないように、人間はもっと思考力を付けて、情報の真贋を見分ける能力を持つべきでしょう。チャットGPTを使いこなすには、それを超える英知を人類が身につけないといけません。それでは次号で!