並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 12 件 / 12件

新着順 人気順

hallucinationの検索結果1 - 12 件 / 12件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

hallucinationに関するエントリは12件あります。 AI人工知能techfeed などが関連タグです。 人気エントリには 『AIがハルシネーション(Hallucination)を起こす最大の理由【AGIの未来】 - Qiita』などがあります。
  • AIがハルシネーション(Hallucination)を起こす最大の理由【AGIの未来】 - Qiita

    ハルシネーション(Hallucination)とは? もっともらしいウソ(=事実とは異なる内容や、文脈と無関係な内容)の出力が生成されることである。人間が現実の知覚ではなく脳内の想像で「幻覚」を見る現象と同様に、まるでAIが「幻覚」を見て出力しているみたいなので、このように呼ばれる。 なぜハルシネーションを起こすのか? AIに掛け算をさせてみよう 5x5=は正解できたが、438890x819471=は不正解である。なぜならAIは掛け算を理解しておらず、人間が九九を暗記しているにすぎないのである。 ではどうすれば、438890x819471=を正解できるのであろうか?それは、簡単だ。RNNのように時系列の次元をTransformerに追加することで正解に導くことができる。 これは一体何を意味するのだろうか。GPT-4はまさにマルチモーダル(画像)を扱えるが、GPT-5で動画。 つまり、時系列

      AIがハルシネーション(Hallucination)を起こす最大の理由【AGIの未来】 - Qiita
    • 星 暁雄 (ITと人権) on Twitter: "「AIのつく嘘」の問題について、連続ツイートをします。 会話するAI(知識ベース会話モデル)は事実と異なる発言をすることが知られており、この現象は一般にHallucination(幻覚)と呼ばれています。 この問題はごく最近に… https://t.co/328suuJSHS"

      「AIのつく嘘」の問題について、連続ツイートをします。 会話するAI(知識ベース会話モデル)は事実と異なる発言をすることが知られており、この現象は一般にHallucination(幻覚)と呼ばれています。 この問題はごく最近に… https://t.co/328suuJSHS

        星 暁雄 (ITと人権) on Twitter: "「AIのつく嘘」の問題について、連続ツイートをします。 会話するAI(知識ベース会話モデル)は事実と異なる発言をすることが知られており、この現象は一般にHallucination(幻覚)と呼ばれています。 この問題はごく最近に… https://t.co/328suuJSHS"
      • さまざまなチャットAIがどれくらい幻覚を見るのかをランキングにした「Hallucination Leaderboard」が公表される

        ChatGPTなどの大規模言語モデルは、まるで人間かのようにすらすらと言葉を操ることができますが、一方で事実とは異なる内容をあたかも真実であるかのように話す「幻覚」が発生することもあります。AI企業のVectaraが、さまざまな大規模言語モデルにおいてどれくらい幻覚が発生するのかを調査した結果を公表しました。 vectara/hallucination-leaderboard: Leaderboard Comparing LLM Performance at Producing Hallucinations when Summarizing Short Documents https://github.com/vectara/hallucination-leaderboard Cut the Bull…. Detecting Hallucinations in Large Language

          さまざまなチャットAIがどれくらい幻覚を見るのかをランキングにした「Hallucination Leaderboard」が公表される
        • ハルシネーション(Hallucination)とは?

          ハルシネーションとは、チャットAIなどが、もっともらしい誤情報(=事実とは異なる内容や、文脈と無関係な内容)を生成することを指す。AIから返答を受け取った人間が「本当かどうか」の判断に困るという問題がある。この問題を回避する方法として、独自の情報源を付与するRAGや、Webアクセスを含める機能などがある。 連載目次 用語解説 生成AI/自然言語処理における「ハルシネーション(Hallucination:幻覚)」とは、もっともらしいが「事実とは異なる内容」や「文脈と無関係な内容」といった誤情報を、人工知能(AI)が生成することである。人間が現実の知覚ではなく脳内の想像で「幻覚」を見る現象と同様に、まるでAIが「幻覚」を見て出力しているみたいなので、このように呼ばれる。 このキーワードは、チャットAI「ChatGPT」などの生成AIが広く使われるようになってから注目されている。現状の生成AIは

            ハルシネーション(Hallucination)とは?
          • 【インターンレポート】グラフベースで、機械学習を用いないニュース記事要約文の hallucination 検出

            LINE株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。 LINEヤフー Tech Blog こんにちは、黒澤友哉と申します。 2022 年 8 月 15 日から 6 週間、LINE株式会社の NLP 開発チーム(現在は NLP チーム)で就業型インターンシップを行ないましたので、その内容を報告していきたいと思います。私は東京大学情報理工学系研究科コンピュータ科学専攻の修士で、自然言語処理を専門としています。所属は谷中研究室です。 0. 概要 本文に入る前に、このレポートの概要を書きます。以下の図はこのインターンレポートの背景と手法をまとめた図です。このレポートでは第 3 章で「言語モデルを用いた要約生成」、「hallucination」、「日本語のグラフ」について説明した後、第 4 章でグラフ生成手順と halluc

              【インターンレポート】グラフベースで、機械学習を用いないニュース記事要約文の hallucination 検出
            • Hallucination is Inevitable: An Innate Limitation of Large Language Models

              Hallucination has been widely recognized to be a significant drawback for large language models (LLMs). There have been many works that attempt to reduce the extent of hallucination. These efforts have mostly been empirical so far, which cannot answer the fundamental question whether it can be completely eliminated. In this paper, we formalize the problem and show that it is impossible to eliminat

              • Hallucination (artificial intelligence) - Wikipedia

                A screenshot from a video generated by artificial intelligence Sora. The image contains a mistake: it shows the Glenfinnan Viaduct, a famous bridge, but with an extra train track added that isn't there in reality. The train itself looks like a real train called the Jacobite train, but it has an extra chimney that shouldn't be there. In the field of artificial intelligence (AI), a hallucination or

                  Hallucination (artificial intelligence) - Wikipedia
                • GitHub - vectara/hallucination-leaderboard: Leaderboard Comparing LLM Performance at Producing Hallucinations when Summarizing Short Documents

                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session.

                    GitHub - vectara/hallucination-leaderboard: Leaderboard Comparing LLM Performance at Producing Hallucinations when Summarizing Short Documents
                  • Chain-of-Verification Reduces Hallucination in Large Language Models

                    Generation of plausible yet incorrect factual information, termed hallucination, is an unsolved issue in large language models. We study the ability of language models to deliberate on the responses they give in order to correct their mistakes. We develop the Chain-of-Verification (CoVe) method whereby the model first (i) drafts an initial response; then (ii) plans verification questions to fact-c

                    • A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity

                      This paper proposes a framework for quantitatively evaluating interactive LLMs such as ChatGPT using publicly available data sets. We carry out an extensive technical evaluation of ChatGPT using 23 data sets covering 8 different common NLP application tasks. We evaluate the multitask, multilingual and multi-modal aspects of ChatGPT based on these data sets and a newly designed multimodal dataset.

                      • GitHub - stanford-oval/WikiChat: WikiChat stops the hallucination of large language models by retrieving data from Wikipedia.

                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                          GitHub - stanford-oval/WikiChat: WikiChat stops the hallucination of large language models by retrieving data from Wikipedia.
                        • Survey of Hallucination in Natural Language Generation

                          Natural Language Generation (NLG) has improved exponentially in recent years thanks to the development of sequence-to-sequence deep learning technologies such as Transformer-based language models. This advancement has led to more fluent and coherent NLG, leading to improved development in downstream tasks such as abstractive summarization, dialogue generation and data-to-text generation. However,

                          1

                          新着記事