エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ChatGPTの「ウソ」が巧妙化してきた…AI研究者が解説「ハルシネーションとうまく付き合うプロンプトの書き方」 「ノーベル文学賞を受賞したのは村上春樹を含め3人」と言われたら
記事へのコメント13件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ChatGPTの「ウソ」が巧妙化してきた…AI研究者が解説「ハルシネーションとうまく付き合うプロンプトの書き方」 「ノーベル文学賞を受賞したのは村上春樹を含め3人」と言われたら
ChatGPTを仕事でも使う人が増えているが、事実と異なる回答が出てくることが多い。北陸先端科学技術大学... ChatGPTを仕事でも使う人が増えているが、事実と異なる回答が出てくることが多い。北陸先端科学技術大学院大学客員教授の今井翔太さんは「現在のAIで間違いをなくすことは構造的に難しく、またなぜウソをつくのかも正確に解明できていない」という――。 仕事では使えない⁉ ChatGPTは驚くようなウソをつく ――対話式生成AIの「ChatGPTチャットジーピーティー」を仕事で使っていたところ、明らかなウソをつかれました。そのときに知ったのですが、こういった現象を「ハルシネーション」というそうですね。 【今井】はい。言語生成AIがウソの情報を出力してしまうことを「ハルシネーション(日本語では幻覚、妄想の意味)」と呼びます。われわれは、2022年11月30日にChatGPTが正式公開される前から、AIを研究しているわけですが、ハルシネーションは昔からある問題で、公開時は「江戸幕府を開いたのは織田信長













2025/05/31 リンク