人間とAIの大きな違い ChatGPT-4の前身GPT-3は、ユーザーのプロンプト(AIに対する指示)から導ける範囲のことしか理解できない。だから、プロンプト最後の数単語がなんであれ、それに対して統計的に正解の可能性が低い回答をしてしまう。 ChatGPT-4では、この点が多少改善されている。このモデルは正解の可能性が高い回答をするだけでなく、その反応は人間の評価者によって“調教”されてもいる。GPT-4がある回答をすると、人間の評価者がその回答の善し悪しを判断して、強化学習をさせる(評価者にとっては神経が疲れる、トラウマものの作業だ)。 結果としてできあがるのは、妥当性の高い回答だけでなく、(理想的には)人間が適切と評価する回答、つまり正しいとまでいかなくても、少なくとも侮蔑的ではない回答をするシステムだ。
![ChatGPTの「失言」から考える、人間との“あまりにも大きな相違点” | 哲学者とメタの専門家が提言](https://cdn-ak-scissors.b.st-hatena.com/image/square/192478c4bb0a69f52bf9264343584ce16e7dbbd7/height=288;version=1;width=512/https%3A%2F%2Fcourrier.jp%2Fmedia%2F2023%2F04%2F19210913%2FGettyImages-903814798.jpeg)