
やはりSakanaは釣りだった!?Sakana.aiが発表した論文が海外のAI研究者コミュニティで炎上 2025.02.21 Updated by Ryo Shimizu on February 21, 2025, 15:59 pm JST ついにやらかしてしまったか。 数多くの日本企業から高い評価を受け、資金調達をしてきたSakana.aiは、登場した当時はヒーローだった。 まるで学術的な意味のない面白論文と面白実装を次々と発表する様は、「ロックだなー」と、ある種、ファンの目線で彼らをみていた。 「面白い論文」と「学術的に価値や評価が高い」論文というのは全く違って、最初、Sakana.aiが進化計算の論文を出した時は、クールなジョーク論文だと思っていた。 論文偏重主義に一石を投じ、中身の読めない人をからかうかのような姿勢はトリックスター的な面白さがあった。 唸るような大金を集めておきなが
新手法「TAID」によって学習された小規模日本語言語モデル「TinySwallow-1.5B」は、同規模のモデルの中で最高性能を達成しています。さらに、小規模のため、APIなどを介さずお手元のスマートフォンやPCで完結してチャットが可能です。ウェブアプリまたは、GitHubにてお試しいただけます。 本稿は、経済産業省とNEDOが推進するGENIACによって支援されたSakana AIの研究成果を紹介するブログシリーズの第3回目です。 概要 日常的な対話はもとより、数学やコーティングといった複雑なタスクまでも人間と遜色ないレベルでこなせるようになった大規模言語モデル(LLM)は、今後ますます多くの場面での利活用が期待されています。こうした大きな期待の一方で、LLMの開発・活用の現場では、莫大な計算資源の必要性が大きな壁として立ちはだかってます。まずLLMの開発現場では、「大規模データと巨大計
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く