タグ

2024年1月17日のブックマーク (8件)

  • キーボードの世界にもリストラの波 #CES2024

    たまには思い出してあげてください。彼のこと。 Windowsキーボードに、新たに「Copilot」キーが増えることがMicrosoftから発表済み。今回のCESではその新しいキーを組みこんだPCもいくつか発表されていました。 とはいえ、キーボードのレイアウトを詰めて新しくキーを追加するのではなく、既存のキーと入れ替えになるみたいなんですよね。つまり、戦力外通知を受けたキーがリストラされるということ。 このPCはサムスンのGalaxy Book新モデル「Galaxy Book 4 Ultra」。新旧のモデルが展示されていて、Copilotキーの有無を比較できました さて、Copilotキーがどこに増えたのかというと…。 Photo: ギズモード・ジャパンここ。Altキーとカーソルキーの間ですね(英字キー配列の場合です)。 では、これまでここに誰がいたのか? 思い出してみましょう。 …いいです

    キーボードの世界にもリストラの波 #CES2024
    Gln
    Gln 2024/01/17
  • ITエンジニア本大賞2024

    2024 大賞の発表! ITエンジニアのみなさんとおすすめのを選ぶイベント「ITエンジニア大賞2024」の第一弾のWeb投票、第二弾のプレゼン大会が無事に終了し、プレゼン大会会場にお越しの特別ゲスト・観覧席のみなさんによる最終投票で「技術書部門大賞」、「ビジネス書部門大賞」が決定しました。また、各特別ゲストによる「特別賞」も選出しました。ご参加いただいた皆さま、ありがとうございました! 1冊ですべて身につくJavaScript入門講座 出版社:SBクリエイティブ 著者:Mana 投票した理由や感想などみなさんからのコメント 安心して失敗していい、というところと、コードの例などがわかりやすかったです! 前作の「HTMLCSS」も購入させていただきましたが、前回も書も初学者でも見易く、見返したくなるつくりに仕上がっていました。絵や図解でも解説されているので、近年に多いプログラマーを目指

    ITエンジニア本大賞2024
    Gln
    Gln 2024/01/17
  • 大正製薬HDのMBO成立 7000億円超、上場廃止へ(共同通信)|dメニューニュース

    大正製薬ホールディングスは16日、経営陣による自社買収(MBO)を目的に行った株式公開買い付け(TOB)が成立したと発表した。3月の臨時株主総会を経て、東京証券取引所から上場廃止となる見通し。応募した株式数は約6千万株と、発行済み株式数の約73%が集まり、買い付け予定株数の下限を超えた。総額が7千億円を超える巨額MBOとなる。 大正製薬は栄養ドリンク「リポビタンD」で知られる一般用医薬品の大手。創業家の上原茂副社長が代表を務める会社を通じ、2023年11月27日から24年1月15日まで実施した。買収の完了後に、上原氏は大正製薬HDの社長に就任する。

    大正製薬HDのMBO成立 7000億円超、上場廃止へ(共同通信)|dメニューニュース
    Gln
    Gln 2024/01/17
  • キンドル、購入済み書籍「消える」事象が報告…1年経過すると保証されない?

    Kindle」アプリのダウンロード画面(「App Store」より) Amazon Services International LLC(以下、関連会社も含め「アマゾン」と総称)が提供する電子書籍プラットフォーム「Kindle(キンドル)」で、購入済みの電子書籍が「ライブラリ」にも「コンテンツと端末の管理」にも表示されず読むことができなくなったユーザが、カスタマーサービスに問い合わせたところ「購入から1年以上経過したコンテンツは端末から削除すると再ダウンロードが保証されない」との回答が返ってきたとSNS上に投稿し、話題を呼んでいる。なぜそのような事象が発生するのか。また、Kindleに限らずデジタルコンテンツの販売プラットフォームでは同様の事例は起こり得るのか。業界関係者の見解を交えて追ってみたい。 紙の書籍を保管したり郵送で受け取る手間がなく、重い書籍を持ち運ぶ必要もなく、スマートフォ

    キンドル、購入済み書籍「消える」事象が報告…1年経過すると保証されない?
    Gln
    Gln 2024/01/17
  • Python(PyTorch)で自作して理解するTransformer

    1. はじめに Transformerは2017年に「Attention is all you need」という論文で発表され、自然言語処理界にブレイクスルーを巻き起こした深層学習モデルです。論文内では、英語ドイツ語翻訳・英語→フランス語翻訳という二つの機械翻訳タスクによる性能評価が行われています。それまで最も高い精度を出すとされていたRNNベースの機械翻訳と比較して、 精度(Bleuスコア) 訓練にかかるコストの少なさ という両方の面で、Transformerはそれらの性能を上回りました。以降、Transformerをベースとした様々なモデルが提案されています。その例としては、BERT,XLNet,GPT-3といった近年のSoTAとされているモデルが挙げられます。 ここで、「Attention is all you need」内に掲載されているTransformerの構造の図を見てみま

    Python(PyTorch)で自作して理解するTransformer
    Gln
    Gln 2024/01/17
  • 【独自】政権に切り捨てられた「コロナ専門家」たちの悲惨な末路…なぜ尾身も西浦も感謝されなかったのか《コロナ専門家はなぜ消されたのか》(広野 真嗣) @gendai_biz

    1月17日に緊急出版される広野博嗣『奔流 コロナ「専門家」は、なぜ消されたのか』(講談社)が発売前から話題になっている。当事者である西浦博氏自身が、自身のXで「自分で言ったこととはいえ、この国に関するエピローグの締めくくりを読んでつらい気持ちになってしまいました」と語っている。 政権と世論に翻弄されながら危機と闘ったコロナ感染症「専門家」たちの悲劇とは何だったか? 弩級ノンフィクションの一部を紹介しよう。 英国の「その後」はなぜ日と段違いなのか 西浦博が「完全にディフィーテッド(敗北)」と悔しそうに総括したこともあった。 それは政府に参画して分析を提供する専門家の層の厚みにおいて、疫学の先進国に彼我の差を見せつけられたことだ。22年2月に世界に先駆けてコロナの規制を全廃した英国は「その後」が優れていたという。 「緩和の後、英国は1年以上にわたってオックスフォード大学やケンブリッジ大学が国

    【独自】政権に切り捨てられた「コロナ専門家」たちの悲惨な末路…なぜ尾身も西浦も感謝されなかったのか《コロナ専門家はなぜ消されたのか》(広野 真嗣) @gendai_biz
    Gln
    Gln 2024/01/17
  • 【独自】「コロナ8割おじさん」西浦博、悲痛の告白「あんまりだという思いはあります」《コロナ専門家はなぜ消されたのか》(広野 真嗣) @gendai_biz

    1月17日に緊急出版される広野博嗣『奔流 コロナ「専門家」は、なぜ消されたのか』(講談社)が発売前から話題になっている。当事者である西浦博氏自身が、自身のXで「自分で言ったこととはいえ、この国に関するエピローグの締めくくりを読んでつらい気持ちになってしまいました」と語っている。 政権と世論に翻弄されながら危機と闘ったコロナ感染症「専門家」たちの悲劇とは何だったか? 弩級ノンフィクションの一部を紹介しよう。 海外では惜しみない拍手が 2023年9月5日、私は京都駅の上にあるホテルの喫茶店で、京都大学大学院教授の西浦博に会った。尾身茂が新型コロナウイルス感染症対策分科会の会長として最後に岸田文雄に面会してからちょうど1週間後のことだ。官邸からの去り際の朗らかな尾身の表情をどう見ていたのか。それを質問したかった。西浦は、こう答えた。 「あんまりだという思いはあります。キックアウトですよね」 なぜ

    【独自】「コロナ8割おじさん」西浦博、悲痛の告白「あんまりだという思いはあります」《コロナ専門家はなぜ消されたのか》(広野 真嗣) @gendai_biz
    Gln
    Gln 2024/01/17
  • Understanding and Coding Self-Attention, Multi-Head Attention, Cross-Attention, and Causal-Attention in LLMs

    This article will teach you about self-attention mechanisms used in transformer architectures and large language models (LLMs) such as GPT-4 and Llama. Self-attention and related mechanisms are core components of LLMs, making them a useful topic to understand when working with these models. However, rather than just discussing the self-attention mechanism, we will code it in Python and PyTorch fro

    Understanding and Coding Self-Attention, Multi-Head Attention, Cross-Attention, and Causal-Attention in LLMs
    Gln
    Gln 2024/01/17