「私が今もまだ考えている最大の課題は、大規模言語モデル(LLM)は本当に何の役に立つのかということだ」 Bardのユーザー・エクスペリエンス部門の責任者を務めるキャシー・パール(Cathy Pearl)は、ブルームバーグによると2023年8月のチャットにこう書いたという。 「本当に役に立つものだ。ただし未定!」 「私の経験則では、独自に検証できない限り、LLMのアウトプットは信用しないことにしている」とBardのシニアプロダクトマネージャー、ドミニク・ラビージ(Dominik Rabiej)は2023年7月に語っている。 「LLMを使えるところまで持って行きたいが、まだそこまでには至っていない」 AIを搭載したチャットボットは幻覚に陥りやすく、しばしば事実を捏造したり、誤って伝えたりすることが多い。例えば、グーグルのBardは、ガザとイスラエルの間で最近武力衝突が激化しているのにも関わらず
![グーグル社員、Bardの有用性と投入された資金の多さを疑問視](https://cdn-ak-scissors.b.st-hatena.com/image/square/f101ed128e818a3f789589b04456fbdb472cb648/height=288;version=1;width=512/https%3A%2F%2Fmedia.loom-app.com%2Fbi%2Fdist%2Fimages%2F2023%2F10%2F16%2F64624c64785af800192b5c3b.jpg%3Fw%3D1280%26h%3D630%26f%3Djpg)