数学に関するmajichangのブックマーク (2)

  • 大規模言語モデルを利用して数学の未解決問題で新たな解を発見――実用的な課題でもその性能を実証 - fabcross for エンジニア

    Google DeepMindは、大規模言語モデル(LLM)を利用した新手法「FunSearch」を用いて、数理科学において長年の未解決問題である「cap set(キャップ集合)問題」の新しい解を発見した。さらに、現実世界で多様な応用が可能な「ビンパッキング(箱詰め)問題」の、より効果的なアルゴリズムも見つけた。この研究は2023年12月14日付で『Nature』に掲載され、科学や数学の未解決問題に対して、LLMを使って新しい発見をした初めての研究例になるという。 LLMは概念を組み合わせることに優れており、読み書きやコーディングができて、問題解決を支援する便利なアシスタントだ。しかし、LLMはまるで「幻覚」を見たかのように、事実とは異なる情報をもっともらしく生成して出力することがあるという点が明らかになっており、LLMを使用して立証可能な正しい発見をすることは困難だ。 そこで研究者らは、

    大規模言語モデルを利用して数学の未解決問題で新たな解を発見――実用的な課題でもその性能を実証 - fabcross for エンジニア
  • 数学の証明に大規模言語モデル(LLM)は使えるのか|増井 光生🎈

    正直無理だと思ってんですけど。ワンチャン狙いで。 大規模言語モデル(LLM)とは大規模言語モデル(LLM)とは、膨大な量のテキストデータを使ってトレーニングされた自然言語処理のモデルのことです。 LLMは、人間のような自然な言語生成や理解を実現することができます。 LLMは、従来の自然言語処理モデルと比べて、以下の3つの点で大きく異なります。 データ量:LLMは、従来の自然言語処理モデルの100倍以上のテキストデータを使ってトレーニングされます。これにより、より高度な言語の理解と生成が可能になります。 計算量:LLMは、大量の計算量を必要とします。これにより、高性能なハードウェアやクラウドコンピューティングが必要です。 モデルサイズ:LLMは、従来の自然言語処理モデルよりもはるかに大きなモデルサイズを持ちます。これにより、より複雑な言語モデルを構築することができます。 LLMは、さまざまな

    数学の証明に大規模言語モデル(LLM)は使えるのか|増井 光生🎈
  • 1