タグ

2021年5月14日のブックマーク (3件)

  • トヨタ社長の報酬はマスク氏の2670分の1、質素は美徳なのか

    トヨタ社長の報酬はマスク氏の2670分の1、質素は美徳なのか
    maraigue
    maraigue 2021/05/14
    "現場のカイゼン活動がいかに優れていようと、自動車の電動化という100年に1度の大変革は主導できない。必要なのは上意下達で夢を形にできる、たった一人の強烈なイノベーターだ"
  • 3.11から10年の今思う、日本のコロナ対策が後手に回る根本的な理由

    今までやってきて、よかったな――。そう素直に思えた出来事がありました。 東日大震災が起きてちょうど10年になる今年の3月11日から12日にかけて、岩手県宮古市、山田町、大船渡市、宮城県気仙沼市から、さらに南下して仙台市、福島県相馬市と、被災したエリアを回りました。 2011年当時、私はローソンの社長を務めていましたが、被災した店舗がいくつもあったので震災直後に現地に入りました。そのときの現地の様子は今もまざまざと思い起こせるほど過酷なものでした。失われたものは二度と戻らず、がれきが取り除かれてきれいに整地されてもいまだ人が戻らない町があり、厳しい現実の中を生きる方々がいらっしゃるのは確かです。一方で、わずか10年とは思えないほど力強く新たな生活を切り開いている方々とお会いすることもできました。 山田町には、サントリーホールディングスが復興支援のために取り組む「東北サンさんプロジェクト」の

    3.11から10年の今思う、日本のコロナ対策が後手に回る根本的な理由
    maraigue
    maraigue 2021/05/14
    "有事対応の基本は、当たり前だと思っていたものを疑い、プランBを考えることです。しかし日本では、そもそも有事というものを想定することすら避けてきました"
  • 電気をバカ食いするAIは背徳、脳をまねて省エネするグーグルSwitch Transformer

    人間の脳の消費エネルギーは電力に換算するとわずか20ワットほどであり、消費電力数百ワットのGPUを何百~何千個も学習に使う最先端のAI人工知能)に比べるとはるかに省エネである。そこで脳の動きに習って、AIの省エネを図ろうとする動きが始まっている。代表例が米Googleグーグル)の言語モデルSwitch Transformerだ。 言語モデルは最近非常に注目されている自然言語処理用のAIだ。米国のOpenAI(オープンAI)財団が2020年6月に発表した言語モデルであるGPT-3は、あたかも人間が書いたような自然な文章を作ったことから大きな話題になった。しかしGPT-3は膨大なエネルギーを消費する。 GPT-3が高性能なのは、1750億個ものパラメーターを備えた機械学習モデルに45テラバイト(TB)、4100億単語からなる巨大な文書を学習させたからだ。その学習には米Microsoft(マ

    電気をバカ食いするAIは背徳、脳をまねて省エネするグーグルSwitch Transformer
    maraigue
    maraigue 2021/05/14
    "GShardやSwitch Transformerはモデルの中でもそのタスクに関連しそうな一部しか稼働させない。具体的にはGShardが各タスクを処理する際に稼働させるのは全体の0.25%、Switch Transformerは全体の0.10%にしか過ぎない"