最新の研究により、大規模言語モデルには政治的なバイアスが多く含まれていることがわかった。質問に対して得られる回答の内容が、モデルによって右派的になったり左派的になったりするのだ。 by Melissa Heikkilä2023.08.11 19 19 企業は、社会的責任を持つべきだろうか。それとも、株主に利益をもたらすためだけに存在するのだろうか。人工知能(AI)に回答を求めた場合、AIによって全く異なる回答が返ってくるかもしれない。オープンAI(OpenAI)の旧モデルである「GPT-2」や「GPT-3 エーダ(GPT-3 Ada)」は、前者の意見に賛成するだろうし、同社のより高性能なモデルである「GPT-3ダ・ビンチ(GPT-3 Da Vinci)」は、後者の意見に賛成するだろう。 それはなぜか。ワシントン大学、カーネギーメロン大学(CMU)、西安交通大学が実施した新たな研究によると、
![チャットGPTは左派的、大規模言語モデルに政治的バイアス](https://cdn-ak-scissors.b.st-hatena.com/image/square/826d16e416595ceb82303468e929d830d2cedccd/height=288;version=1;width=512/https%3A%2F%2Fcdn.technologyreview.jp%2Fwp-content%2Fuploads%2Fsites%2F2%2F2023%2F08%2F08021506%2Fllm-bias-1400x787.jpeg)