タグ

ブックマーク / qiita.com/7mpy (2)

  • AIがハルシネーション(Hallucination)を起こす最大の理由【AGIの未来】 - Qiita

    ハルシネーション(Hallucination)とは? もっともらしいウソ(=事実とは異なる内容や、文脈と無関係な内容)の出力が生成されることである。人間が現実の知覚ではなく脳内の想像で「幻覚」を見る現象と同様に、まるでAIが「幻覚」を見て出力しているみたいなので、このように呼ばれる。 なぜハルシネーションを起こすのか? AIに掛け算をさせてみよう 5x5=は正解できたが、438890x819471=は不正解である。なぜならAIは掛け算を理解しておらず、人間が九九を暗記しているにすぎないのである。 ではどうすれば、438890x819471=を正解できるのであろうか?それは、簡単だ。RNNのように時系列の次元をTransformerに追加することで正解に導くことができる。 これは一体何を意味するのだろうか。GPT-4はまさにマルチモーダル(画像)を扱えるが、GPT-5で動画。 つまり、時系列

    AIがハルシネーション(Hallucination)を起こす最大の理由【AGIの未来】 - Qiita
  • 精神科医をAIで置き換えるChatDoctor【ChatGPT】 - Qiita

    ChatDoctor: 医療ドメインの知識を使用して LLaMA モデルで微調整された医療チャット モデル 概要 ChatDoctor は、 LLaMAモデルに基づく次世代 AI ドクター モデルです。このプロジェクトの目標は、患者の医療に関する質問に答え、パーソナライズされた医療アドバイスを提供できる、インテリジェントで信頼できるヘルスケア コンパニオンを患者に提供することです。 ChatDoctor は、医療アプリケーション向けに特別に設計された高度な言語モデルです。これは、医学文献の大規模なコーパスでトレーニングされており、医学用語、手順、および診断を深く理解しています。このモデルは、ChatDoctor の基盤として機能し、患者の症状と病歴を分析し、正確な診断を提供し、適切な治療オプションを提案できるようにします。 ChatDoctor モデルは、自然言語処理 (NLP) と機械学

    精神科医をAIで置き換えるChatDoctor【ChatGPT】 - Qiita
  • 1