ブックマーク / note.com/ifuiaa (1)

  • LLM、AGI研究とAI安全性についての思案|Ippei Fujisawa

    はじめに大規模言語モデル(LLM)だけを念頭に規制を考えると足元をすくわれるのではないか。LLMだけではおそらく汎用人工知能(AGI)ましてや超知能(ASI)(以下、特に区別せずAGIとする)にはたどり着けない。LLMの過熱が落ち着くと、AGIを目指したブレイクスルーを狙う研究に多くの研究者がシフトしていくはずだ(もちろんLLMの上に成り立つブレイクスルーの可能性も依然あるとは思うけど)。そして、それなりの投資をしても簡単な道ではないと明らかになってくるのではないか。このとき、AIに対する世間の期待はどう変化するのか、どのような資金の流れになるのか、AI安全に対する思想が変化するのか。 AI規制の有効性とその限界多くの国が計算資源に対して制限をかけてAIを規制しようとしているが、これが有効なのは、細かな工夫を二の次にモデルとデータの規模を大きくしていけばよいという現行のパラダイムに限られる

    LLM、AGI研究とAI安全性についての思案|Ippei Fujisawa
  • 1