エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
飲めないのに「コーヒーが好き」…なぜAIの言葉は嘘っぽく聞こえるのか 適切な共感は人間でも難しい
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
飲めないのに「コーヒーが好き」…なぜAIの言葉は嘘っぽく聞こえるのか 適切な共感は人間でも難しい
ロボットに感情を持たせることはできる? ペッパーがリリースされた際、感情を理解することができると大... ロボットに感情を持たせることはできる? ペッパーがリリースされた際、感情を理解することができると大々的にアピールされていました。また、りんなもユーザと感情を伴った交流ができることを特徴としています。人間らしいロボットの話題になると、多くの人は「感情を持っているロボット」を想像するようです。多くの人は「あの人はロボットみたいだ」と言われると感情がないと指摘されたように感じると思います。 感情を理解できることは対話システムにとって重要です。相手が悲しい時に、まったくそれを理解しない無神経な話をしてしまったり、相手が喜んでいるときに一緒に喜べなかったら、社会的にまったく不適切でしょう。米軍が作っている兵士向けのカウンセリングシステムも話者の感情を推定し、適切な対話戦略を取るように作られています。 人間は意外なほど話し相手に共感している 感情理解の目的の一つは共感にあるといっても過言ではありません

