タグ

2023年4月8日のブックマーク (3件)

  • GPT-4のハルシネーション(幻覚)の研究|IT navi

    3月14日、OpenAIから大規模言語モデルGPTの最新バージョンであるGPT-4が公表され、すぐにChatGPT有料版でも利用できるようになりました。 GPT-4は、その抜きん出た性能で一躍話題になる一方で、まるで事実であるかのような嘘をつくというハルシネーション(AIの幻覚)の欠点は、まだ克服されていません。 今回は、このGPT-4のハルシネーションについて、これまでよりも深く調べてみました。 1.ハルシネーションが起こる理由AIのハルシネーションとは、AIが生成する情報や文章が実際の事実や知識とは異なる架空の内容になってしまうことを言います。 文章生成AIがハルシネーションを引き起こすのは、学習した知識やデータに基づいてAIが情報を生成する過程で、いくつかの理由により、現実とは異なる結果を生み出してしまうことがあるためです。 主に以下の理由により、AIのハルシネーションが発生します。

    GPT-4のハルシネーション(幻覚)の研究|IT navi
  • AI(LLM)についてまだみんなが知らない8つの事実(論文:Eight Things to Know about Large Language Modelsについて)

    いかにも海外の煽り記事みたいなタイトルを付けてしまったが、おおむねそういう感じの内容の論文が発表されて、興味深かったので今回はそれについて書いてみたい。 最近、「AGIが人類を滅亡させる!」みたいなAI人類滅亡説がにわかに広がっているらしい。 これの言い出しっぺみたいな人は、ユドコウスキー氏という方らしいが、彼は何十年も前からAI脅威論を言っていたらしい。そういう人もいるとは思うが、最近はそれを真に受けちゃう人が増えてるらしい。ChatGPTの実力に驚いた人が増えたからだろうか。 ホワイトハウスでFox Newsの記者が「AIが人類を滅亡させるってホントですか?」と質問しちゃうというような、パニック映画さながらの出来事まで起きている。これはエイプリルフールではない。 ホワイトハウスでFox Newsの記者が「機械知能研究所の専門家がAI開発を無期限に停止しないと文字通り地球上のすべての人間

    AI(LLM)についてまだみんなが知らない8つの事実(論文:Eight Things to Know about Large Language Modelsについて)
  • ChatGPTなどのチャットAIがどんな風に文章をトークンとして認識しているのかが一目で分かる「Tokenizer」

    OpenAIが開発したChatGPTをはじめ、さまざまなAIが人間レベルの会話を行ってくれるようになりました。AIは文章を読み書きするとき「トークン」という単位で認識を行うのですが、普通の文章がトークン的にはどのように分解されるのかを一目で教えてくれるツール「Tokenizer」がOpenAIのページ上で公開されています。 OpenAI API https://platform.openai.com/tokenizer Tokenizerの画面はこんな感じ。テキストを入力する必要がありますが、いったん「Show example」をクリックして例を見てみます。 英語の場合、252文字の文章で64トークンとなる模様。下部にて文字がトークンのまとまりごとに色分けして表示されています。 「TOKEN IDS」をクリックするとそれぞれの数値も確認できます。人間が見てもなにがなんだか分かりませんが、G

    ChatGPTなどのチャットAIがどんな風に文章をトークンとして認識しているのかが一目で分かる「Tokenizer」