記事へのコメント39

    • 注目コメント
    • 新着コメント
    plasmatic
    “被験者がLLMに不完全な情報を提供した結果、LLMが正しい診断を下せなくなっていることが明らかになっています。”

    その他
    filinion
    「問診」とは「問う診断」。LLMはユーザーが話した情報を受け取るけど、人間の医者のように「いつ頃からですか?」とか「ずっと同じ場所が痛みますか?」とか尋ねないし、患者の様子を目視もしないので診断を誤る。

    その他
    inazuma2073
    自分の身体の状態をテキパキ文章化できる人なんかそう多くないよ。

    その他
    dgen
    医療に関してはLLMも一発で結論を出すんじゃなく医師と同様に繰り返し質問して絞り込んでいくようにすればいい。

    その他
    misshiki
    “ChatGPTは医師免許試験に合格できるというだけでなく、人間の医師よりも患者に好まれる回答を出力できることも明らかになっています。既にさまざまな医療現場でチャットAIが活用されていますが、人間がチャットAIを利

    その他
    ghostbass
    むしろアキネーターが必要

    その他
    tekitou-manga
    "LLMが人間とのインタラクションを目的として設計されている場合、非インタラクティブなベンチマークのみに頼ると、実世界での性能について誤った安心感を抱く危険性があります"

    その他
    tu_no_tu
    tu_no_tu 医者の専門的な問診能力が大事って記事だよ。患者はつらい事しか伝えないが、それでは正しい診断は出来ない。様々な情報収集を正しく客観的に把握する医師の能力があって初めて、正しい診断が可能。

    2025/06/17 リンク

    その他
    pptppc2
    やはりAI様が人間を使うほうが人類のためになることがわかりますね。市民、幸福は義務です。

    その他
    yorkfield
    yorkfield "推論できない確率は44.2%ですが、LLMが単独で正しい行動方針を推論する場合の失敗率は56.3%とより高かったそうです。" / 原文もちょっと分かりにくいけどおそらくこれは誤訳。これらの確率は成功率と思われる。

    2025/06/17 リンク

    その他
    xx9xx91024
    政治などについても同じことが言えそう。例えば日本の状況で消費税を減税/増税すべきとAIが判断したとしても多くの人は納得しないだろう。やはりディストピアを作るしか無いのか

    その他
    strawberryhunter
    まず患者がクリニックを訪れるか、予約時に問診票というか、AIと対話して症状を入力する。その時点でAIが診断できるはず。というか、ChatGPT登場前に存在したので、今はかなりのレベルに達しているのではないか。

    その他
    tyhe
    タイトルから誤った理解を得る人が多そうなタイトルだ。

    その他
    jintrick
    cf. https://gendai.media/articles/-/142064

    その他
    rlight
    アキネーター式の対話型LLMが求められる

    その他
    hogetax
    hogetax 現実社会でもXY問題として名前があるほど知られてるので肌感覚で納得できる。生成AIを使用したプロダクト設計時に考慮すべき点だよね。むずいけどw

    2025/06/17 リンク

    その他
    otihateten3510
    本当のことを書くなw

    その他
    inks
    inks これ何気に辛い話だな。人間が介在すると間違いが増えるって...。今の若者は、より社会から要請されなくなるって事だぞ。逃げ切れる世代は良い。

    2025/06/17 リンク

    その他
    kazuhix
    kazuhix 診断を下し、その判断が間違っていたとき責任をとれるのは医師だけ。レベル3の自動運転で「事故の責任は運転者にありますよー」とメーカー涼しい顔なのと似ている現象

    2025/06/17 リンク

    その他
    zgmf-x20a
    何でIBM PC/AT?何でLlama3.3でなくてLlama3?

    その他
    lainof
    不足してる情報がないか確認しないと勝手に補完して回答してくるのは既知の事象では?最近だと聞き返してくるケースもあるけど。

    その他
    hkdn
    要は94.9%ってただの理論値ってことだよね。LLMが単独でどう診察するんだよ。

    その他
    myrmecoleon
    得られた情報の何が提供すべき正確な情報なのか、という判断のスキルも専門教育の対象なのだから当たり前。LLMを診断で正しく使うには医学知識がいる。

    その他
    hhungry
    よう分からん。@grokもっとわかりやすく説明して

    その他
    iwiwtwy
    準委任契約は日本でのみ通じる関係性なのかしら。ある程度のストレスがかかる状況はある程度の偽りを排除しうるからね。too much informationの渦の中で、stressedは情報の取捨選択の精度が増すよね。

    その他
    sororo9797
    sororo9797 だからこそカウンセリング、ヒアリングの技術が必要だよね。AIなら人間より上手にできる気がするけどなー。

    2025/06/16 リンク

    その他
    TakamoriTarou
    よいもわるいもリモコン次第

    その他
    kusomamma
    偽陽性率も偽陰性率も事前確率次第。たぶん書いてる人がわかってない。

    その他
    mutinomuti
    すべての診断はAIしか信じないって人?

    その他
    mozukuyummy
    mozukuyummy 人間の認知を介さない情報を与える方が良さそう。バイタルとか、顔の画像、瞳の画像、手のひらの画像とか。健康診断用に近赤外線照明を備えたスマホがあると良いかもね。

    2025/06/16 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    AIは94.9%の精度で病状を診断できるが人間がAIを使うことで34.5%まで精度が急低下する

    チャットAIChatGPTは医師免許試験に合格できるというだけでなく、人間の医師よりも患者に好まれる回答...

    ブックマークしたユーザー

    • pigumii2025/06/25 pigumii
    • midas365452025/06/20 midas36545
    • deejayroka2025/06/19 deejayroka
    • sanko04082025/06/18 sanko0408
    • plasmatic2025/06/18 plasmatic
    • laos2025/06/18 laos
    • yug12242025/06/17 yug1224
    • filinion2025/06/17 filinion
    • naggg2025/06/17 naggg
    • hhironyon2025/06/17 hhironyon
    • inazuma20732025/06/17 inazuma2073
    • gyu-tang2025/06/17 gyu-tang
    • dgen2025/06/17 dgen
    • misshiki2025/06/17 misshiki
    • sora05132025/06/17 sora0513
    • akishin9992025/06/17 akishin999
    • tkslimee2025/06/17 tkslimee
    • ghostbass2025/06/17 ghostbass
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む