OpenAIの高度なチャットボットChatGPTを使って作成された科学論文の要旨を、科学者らが約3回に1回の割合で本物の論文だと思わせたことが最新研究で明らかになった。薄気味悪いほど人間に近いこのプログラムは、人工知能の未来に関する議論を呼んでいる。 ノースウェスタン大学とシカゴ大学の研究チームは、医学雑誌で公開された本物の論文10件に基づいて偽の論文要旨を生成するようChatGPTに指示を出し、その結果を本物の論文と見分けるために2つの検出プログラムに入力した。 さらにチームは、偽の論文と本物を複数の査読者に渡し、それぞれを区別するよう盲検試験形式で依頼した。 査読者らはChatGPT作の要旨を68%の確率で正しく識別したが、同時に本物の要旨を14%誤って偽物だと判断した。 作成された偽論文はすべて、盗作検出プログラムによって100%独自であると判定されたが、科学論文誌が要求する投稿規定
![ChatGPT作のニセ論文要旨は1/3の割合で査読者に本物だと思わせる | Forbes JAPAN 公式サイト(フォーブス ジャパン)](https://cdn-ak-scissors.b.st-hatena.com/image/square/05c4bcde2478a435bac828dbd90dc20a8c8bc0f2/height=288;version=1;width=512/https%3A%2F%2Fimages.forbesjapan.com%2Fmedia%2Farticle%2F60030%2Fimages%2Fmain_image_b1f4c599fd428ee2ae9d94c084357eb24d64b959.jpg)