タグ

2024年4月17日のブックマーク (10件)

  • 「歩くのが遅い人は脳が小さくIQが低い」──歩行速度と脳の構造に相関あり? 米国チームの実験結果

    このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。通常は新規性の高い科学論文を解説しているが、ここでは番外編として“ちょっと昔”に発表された個性的な科学論文を取り上げる。 X: @shiropen2 人は日常的に歩行という動作を行っているが、その速度は単なる身体能力の指標ではないことが、この研究で明らかになった。研究チームは、ニュージーランドで1972~1973年に生まれた1037人(45歳時点で生存していたのは997人、そのうち904人の歩行速度を測定)を対象に、45歳時点での歩行速度とさまざまな健康指標との関連を調べた。参加者は3歳から定期的にさまざまなテストを受けてきた縦断的調査の対象者である。 研究チームは、通常歩行や、二重課題歩行(アルファベットの文字を交互に声に出して読み上

    「歩くのが遅い人は脳が小さくIQが低い」──歩行速度と脳の構造に相関あり? 米国チームの実験結果
    Gln
    Gln 2024/04/17
  • 「教授5人に研究成果を持っていかれそうになった」──タレント・村木風海さんの発言が物議 東大「現在調査中」

    「大学にいたとき、教授5人くらいから研究成果を持っていかれそうになって、戦ったこともありました」──ホリプロ所属のタレントで、二酸化炭素を回収する装置「ひやっしー」を開発する村木風海さんが、テレビ番組「そこまで言って委員会NP」(4月14日放送)で発言したこんな内容が物議を醸している。X上では「事実ならば問題になるのでは」と指摘する声などが上がっている。

    「教授5人に研究成果を持っていかれそうになった」──タレント・村木風海さんの発言が物議 東大「現在調査中」
    Gln
    Gln 2024/04/17
  • RAGを複雑な質問に強くする手法「CoA」について

    記事では、「Chain-of-Abstraction (CoA) Reasoning」についてざっくり理解します。軽めの記事です。 株式会社ナレッジセンスでは普段の業務で、生成AIやRAGシステムを活用したサービスを開発しています。 この記事は何 この記事は、最近聞くようになった「Chain-of-Abstraction (CoA) Reasoning」の論文[1]について、日語で簡単にまとめたものです。 今回も「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 題 ざっくりサマリー LLMが外部ツールを使って回答を生成するときの、回答精度を高める手法についての論文です。Metaの研究者らによって2024年1月に提案されました。「Chain-of-Abstraction (CoA)」という手法を使うメリットは、RAGに応用することで

    RAGを複雑な質問に強くする手法「CoA」について
    Gln
    Gln 2024/04/17
  • 本屋大賞ホント糞。早く終われ

    出版界隈の端っこにいる人間だけどさ。 もともと売れているが、さらに売れるだけの糞賞。書店員なんか一部を除いてベストセラーしか読んでないので、ベストセラーにさらにブーストがかかって他のとの格差がえらいことになるだけの糞賞。売れていないけど良作を書いている作家の、モチベーションと売上を低下させている糞賞。屋大賞のノミネーション10作品が長期間屋のいい場所を占拠し続けるので、選に漏れた良作が埋もれるだけの糞賞。書店員の多数決という糞システムを採用しているので、同じような作家ばかりがノミネートされる糞賞。屋大賞が影響力を持ちすぎたせいで、出版社も書店相手にゲラを読ませて帯コメントを取るなどの糞行為をはじめ、書評家・評論家の立場が低下し業界の批評機能を麻痺させている糞賞。 早く終われこんなもの。出版界の癌やろ。 参考: https://anond.hatelabo.jp/201404131

    本屋大賞ホント糞。早く終われ
    Gln
    Gln 2024/04/17
  • 「なぜ日本の研究は遅れているのか」…ノーベル賞科学者・山中伸弥が教育現場にみる、日本とアメリカの絶望的なほどの「差」(山中 伸弥,羽生 善治)

    想像を絶する速度で進化を続けるAI。その存在は既存の価値観を破壊し、あらゆる分野に革命をもたらしている。人知を超えるその能力を前に、人類はどう立ち向かうべきなのか。 それぞれの分野の最先端を歩む“ノーベル賞科学者”山中伸弥と“史上最強棋士”羽生善治が人間とAI質を探る『人間の未来AIの未来』(山中伸弥・羽生善治著)より抜粋して、新時代の道標となる知見をお届けする。 『人間の未来AIの未来』連載第24回 「居心地がいい」環境が危ない 山中 詰め込んでしまったほうが、実は安心ですからね。これは今の教育の現場全体に言えることだと思うんです。 今、アジアはどこもそうかもしれないですけど、日はまず受験というハードルがあるでしょう。幼稚園に入る時、小学校に入る時、中学受験、高校受験、大学受験。幼少期から、ともかく問いに対して正解を出すトレーニングを受けていますよね。教科書に書いてあること、先生の

    「なぜ日本の研究は遅れているのか」…ノーベル賞科学者・山中伸弥が教育現場にみる、日本とアメリカの絶望的なほどの「差」(山中 伸弥,羽生 善治)
    Gln
    Gln 2024/04/17
  • ChatGPTなど数々の高性能AIを生み出した仕組み「Attention」についての丁寧な解説ムービーが公開される

    さまざまな数学的トピックをムービー形式で解説するサイト「3Blue1Brown」において、ChatGPTに代表されるAIを形作っている「Transformer」構造の心臓部「Attention(アテンション)」についての解説が行われています。 3Blue1Brown - Visualizing Attention, a Transformer's Heart | Chapter 6, Deep Learning https://www.3blue1brown.com/lessons/attention AIの中身と言える大規模言語モデルのベースとなる仕事は「文章を読んで次に続く単語を予測する」というものです。 文章は「トークン」という単位に分解され、大規模言語モデルではこのトークン単位で処理を行います。実際には単語ごとに1トークンという訳ではありませんが、3Blue1Brownは単純化して

    ChatGPTなど数々の高性能AIを生み出した仕組み「Attention」についての丁寧な解説ムービーが公開される
    Gln
    Gln 2024/04/17
  • GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?

    GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニングに必要なデータの数やトレーニング中に使用するメモリの量も増加し、トレーニングのコストが大きく増加してしまいます。そんな中、メモリの消費量を激減させつつ少ないデータでトレーニングできる手法「QLoRA」が登場しました。 [2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs https://arxiv.org/abs/2305.14314 artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs https://github.com/art

    GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?
    Gln
    Gln 2024/04/17
  • GoogleがAIに無限の長さのテキストを処理できる能力を与える技術を発表

    Googleの研究者が、大規模言語モデル(LLM)に無限の長さのテキストを処理させる手法だという「Infini-attention」に関する論文を発表しました。 [2404.07143] Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention https://arxiv.org/abs/2404.07143 Google’s new technique gives LLMs infinite context | VentureBeat https://venturebeat.com/ai/googles-new-technique-gives-llms-infinite-context/ Google Demonstrates Method to Scale Languag

    GoogleがAIに無限の長さのテキストを処理できる能力を与える技術を発表
    Gln
    Gln 2024/04/17
  • ポメラDM250のレビューの決定版|utsuno

    前にも書いたが、IT系ニュースサイトのITmediaはポメラの記事が充実している。 ITmediaは、ソフトバンクグループのネットメディアだが、どういうわけか、最初のポメラDM10の時代から多くの記事を載せてきた。 DM10が発表されたのが2008年だが、その少し後には、ポメラの記事を集めたまとめサイトが作られたほどだ。多分、後にも先にも大手メディアが作ったポメラ専門のサイトはここしかないと思う。 このサイトは、今でも存在しているが、残炎ながら記事の更新は、2010年7月で止まっている。この時期には、毎日のようにアクセスしていたのを覚えている。それから、12年も経っているとはビックリだ。 そんな、ITmediaは、DM250についても、既にレビューを掲載しているが、今日、別のレビューが公開になった。 この記事は、ポメラの歴史から始まってDM250に至るモデルの紹介、DM250の概要から始ま

    ポメラDM250のレビューの決定版|utsuno
    Gln
    Gln 2024/04/17
  • ポメラの次期モデルについて考える|utsuno

    ありがたい話であるが、こんな素人が書いた記事が上位になるほど、ネットでは話題になっていないのかと心配になる。 実際には、今のDM200はかなり完成度が高いモデルだし、DM10が出た頃と違って、ポメラの認知度も上がり、ある意味成熟したと言うこともあるだろう。 完成度が高いと言いながらできないことも多いポメラだが、意外に多くの場面で使っている人の記事を見る。特に、シナリオライターや作家に多い気がする。 キングジムの決算短信から読み解くネットがダメならキングジムからの発表がないのか、決算短信がPDFで公開されているので、10年分さかのぼって調べてみた。 すると、DM10が発売になった2009年6月期の決算短信には、「ポメラ」が6回も出ていて、「大きな反響を呼び、おかげさまでヒット商品となった」とか「今後は『ポメラ』のシリーズ展開に注力し、新しい事業の柱として一層の売上拡大を目指します」と大きく取

    ポメラの次期モデルについて考える|utsuno
    Gln
    Gln 2024/04/17