エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
AIは世界をどう見ているのか…ChatGPT自身が答えた「間違った回答」を克服する納得の方法 「時々間違うが、信じられないほどの博識」な道具を使いこなす
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
AIは世界をどう見ているのか…ChatGPT自身が答えた「間違った回答」を克服する納得の方法 「時々間違うが、信じられないほどの博識」な道具を使いこなす
非常に便利なChatGPTをはじめとする生成AIはなぜ間違うのか。この問題について、『ChatGPT「超」勉強法... 非常に便利なChatGPTをはじめとする生成AIはなぜ間違うのか。この問題について、『ChatGPT「超」勉強法』を上梓した野口悠紀雄さんは「生成AIが間違える原因は、AIと人間の『理解』のプロセスの違いにある」という――。(第4回/全4回) ※本稿は、野口悠紀雄『ChatGPT「超」勉強法』(プレジデント社)の一部を再編集したものです。 人間とAIはものごとの「理解」の仕方が異なる AIの理解は、人間の理解とは異なる。 「シンボル・グラウンディング(幻覚)問題」とは、人間やAIがシンボル(言葉、数字、画像など)を実世界の具体的な対象や概念にどのように結びつけて理解しているかという問題だ。 人間は、生まれたときからの様々な実体験や観察を通じて、言葉や概念の意味を理解している。 例えば、「熱い」という言葉は、実際に高温を感じた経験に基づいて理解される。つまり、「熱い」という言葉や概念が、実世