あと大規模言語モデルに特定の思想を植え付けることは簡単だということも注意したい。ChatGPTが爆弾の作り方を教えてくれないのはAIが自ら良識を獲得したからではない。

ku__ra__geku__ra__ge のブックマーク 2024/06/24 18:48

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

解説:生成AIのハルシネーションはなぜ起きるのか

    大規模言語モデルが「ハルシネーション(幻覚)」を生成することはよく知られている。ただ、その仕組みから明らかのように、LLMの出力は質的にはすべてハルシネーションであり、間違いが発覚したものがそう呼ば...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう