タグ

2023年6月4日のブックマーク (4件)

  • 大雨の影響で名古屋駅がありえないほど混雑していたがJR東海が本気を出し山手線並みのダイヤで新幹線を運行して数時間で混雑が解消する

    𝗧𝗔𝗕𝗜 𝗧𝗔𝗕𝗜 🍎 AM I A TRAVELER? @_tabi_tabi 名古屋駅(特に太閤通口 新幹線口)には絶対に来ないことを強くお勧めします。 東海道新幹線が名古屋駅より東でストップしている影響で、東海道・山陽・九州新幹線や特急乗換を利用して東京へ行こうとする人の多くが名古屋駅に集結して身動きがとれません。たぶん酸素濃度は標高1500mぐらいです。 pic.twitter.com/MSSPArCdzT 2023-06-03 11:32:50 リンク NHK NEWS WEB 記録的大雨 東海道新幹線・名古屋駅で混雑続く|NHK 東海のニュース 【NHK】大雨の影響で東海道新幹線は東京−名古屋間で2日から運転を見合わせ、3日正午ごろに運転を再開しましたが、名古屋駅では混雑が続いています。 … リンク ライブドアニュース 名古屋駅が大混雑「えげつない」 (202

    大雨の影響で名古屋駅がありえないほど混雑していたがJR東海が本気を出し山手線並みのダイヤで新幹線を運行して数時間で混雑が解消する
    nicht-sein
    nicht-sein 2023/06/04
    いや、新幹線一本槍だとこういう事態になるからバイパスとしてリニアも必要、って話じゃないの?今回は1日で復旧したけど、何かあって一週間使えませんとかなったらどーするのよ
  • 障害者への差別発言相次ぐ 名古屋城復元めぐる市主催の討論会:朝日新聞デジタル

    ","naka5":"<!-- BFF501 PC記事下(中⑤企画)パーツ=1541 -->","naka6":"<!-- BFF486 PC記事下(中⑥デジ編)パーツ=8826 --><!-- /news/esi/ichikiji/c6/default.htm -->","naka6Sp":"<!-- BFF3053 SP記事下(中⑥デジ編)パーツ=8826 -->","adcreative72":"<!-- BFF920 広告枠)ADCREATIVE-72 こんな特集も -->\n<!-- Ad BGN -->\n<!-- dfptag PC誘導枠5行 ★ここから -->\n<div class=\"p_infeed_list_wrapper\" id=\"p_infeed_list1\">\n <div class=\"p_infeed_list\">\n <div class=\"

    障害者への差別発言相次ぐ 名古屋城復元めぐる市主催の討論会:朝日新聞デジタル
    nicht-sein
    nicht-sein 2023/06/04
    姫路城は修理後もエレベーターは設置されていない。本人も介助者も無料で入館できるので頑張ってかついであがってね、ってなってる。好意的に解釈するとそういう方向にしたかったんだろうけど、言い方でおじゃん
  • 『特別編 響け!ユーフォニアム~アンサンブルコンテスト~』本予告

    2023年8月4日(金) 劇場上映! TRUEによる主題歌「アンサンブル」も初解禁! ■数量限定! ヴィヴァーチェ!描きおろしペアムビチケカード<全12種選べる2枚セット> 6月9日(金)より上映劇場にて、6月12日(月)よりメイジャー通販サイトにて販売開始! 詳しくはこちら https://ensemble.anime-eupho.com/tickets/ ■イントロダクション 新世代、スタート! 京都アニメーションが描くのは、 吹奏楽に懸ける高校生たちのささやかだけれど“トクベツ”な青春! 武田綾乃の小説「響け!ユーフォニアム 北宇治高校吹奏楽部のホントの話」(宝島社)から、人気エピソードを中編アニメーション化! 強豪吹奏楽部の新部長、はじめての大仕事は部内の“調整”!? 総勢65人の吹奏楽部。 主人公・久美子の部長としての日々は、部員たちから舞い込む相談と勃発するトラブルで

    『特別編 響け!ユーフォニアム~アンサンブルコンテスト~』本予告
    nicht-sein
    nicht-sein 2023/06/04
    イベントで発表予定だったんだろうな……関係者の苦悩と悲しみが偲ばれる。誰が悪いわけでなく天候のせいだけに余計つらい
  • GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?

    GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニングに必要なデータの数やトレーニング中に使用するメモリの量も増加し、トレーニングのコストが大きく増加してしまいます。そんな中、メモリの消費量を激減させつつ少ないデータでトレーニングできる手法「QLoRA」が登場しました。 [2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs https://arxiv.org/abs/2305.14314 artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs https://github.com/art

    GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?
    nicht-sein
    nicht-sein 2023/06/04
    GPUの並列計算能力使い道として機械学習が使われている現状なんだけど、最近の4bit演算とかになると既存のGPUの得意とすることろから外れてきてしまってジレンマがある、って話題になってたなー