タグ

2020年9月3日のブックマーク (7件)

  • “後菅内閣”内定の菅義偉さん、携帯電話会社と地銀を名指しで批判 : 市況かぶ全力2階建

    のぞみ全車指定のJR西日、「お乗りになってから初めて自由席がないことにお気付きのお客様」とつい煽ってしまう

    “後菅内閣”内定の菅義偉さん、携帯電話会社と地銀を名指しで批判 : 市況かぶ全力2階建
    tuka8s
    tuka8s 2020/09/03
  • 発達障害の僕が発見した「すぐやる人」と「なかなか着手できず破滅する人」を分ける思考のクセ

    1985年、北海道生まれ。ADHD(注意欠如・多動症)と診断されコンサータを服用して暮らす発達障害者。二次障害に双極性障害。 幼少期から社会適応がまるでできず、小学校、中学校と不登校をくりかえし、高校は落第寸前で卒業。極貧シェアハウス生活を経て、早稲田大学に入学。 卒業後、大手金融機関に就職するが、何ひとつ仕事ができず2年で退職。その後、かき集めた出資金を元手に一発逆転を狙って飲業界で起業、貿易事業等に進出し経営を多角化。一時は従業員が10人ほどまで拡大し波に乗るも、いろいろなつらいことがあって事業破綻。2000万円の借金を抱える。 飛び降りるためのビルを探すなどの日々を送ったが、1年かけて「うつの底」からはい出し、非正規雇用の不動産営業マンとして働き始める。現在は、不動産営業とライター・作家業をかけ持ちする。 著書に『発達障害の僕が「える人」に変わったすごい仕事術』(KADOKAWA

    発達障害の僕が発見した「すぐやる人」と「なかなか着手できず破滅する人」を分ける思考のクセ
    tuka8s
    tuka8s 2020/09/03
    読みたいが、、、
  • 岸田氏が公約発表 経済格差や分断是正へ「公正でやさしい、芯の通った政治」 | 毎日新聞

    記者会見で自民党総裁選の公約を発表する岸田文雄政調会長=東京都千代田区で2020年9月3日午前10時1分、丸山博撮影 安倍晋三首相(自民党総裁)の後任を選ぶ党総裁選(8日告示、14日投開票)で、岸田文雄政調会長(63)は3日午前、東京都内で記者会見し、公約「岸田ビジョン」を発表した。「分断から協調へ」をテーマに経済格差や国際社会の分断を是正する「公正でやさしい、芯の通った政治」を掲げた。会見では、格差是正へ取り組む姿勢を示し「新しい時代の成長戦略も考えなくてはならない」と述べた。 公約では安倍政権の実績を認める一方、「経済や社会、国際社会の分断が深まりつつある」と指摘。デジタル技術とデータの利活用を通じ「協調」へ転換する「デジタル田園都市国家構想」の実現を提唱した。具体的な施策として、最低賃金の引き上げや教育費・住宅費の負担軽減による中間所得層対策などを挙げた。

    岸田氏が公約発表 経済格差や分断是正へ「公正でやさしい、芯の通った政治」 | 毎日新聞
    tuka8s
    tuka8s 2020/09/03
    “石破茂元幹事長(63)は国会内の歯科医院で週1回の歯科検診をこなし、決戦に向けたコンディションを整えた。”この一文は何がいいたいんだ。
  • ディジタル信号処理 |FIRとIIRの違い - ari23の研究ノート

    今のPjに入って、数年ぶりにディジタル信号処理を勉強し直しています。 フィルタを設計するたびに、「いろんな理由があっていつもFIRを使っているけど、なんでIIRじゃだめなんだっけ?」と毎回調査しているので、今回はそれをまとめたいと思います🐜 間違っていたらごめんなさい。指摘くれると嬉しいです。 FIR IIR FIRとIIRの一般化 差分方程式にZ変換を導入 FIRとIIRの比較 移動平均はFIR?IIR? 結局どっち使うの? おわりに 参考文献 FIR FIRは有限インパルス応答(Finite Impulse Response)の略語で、インパルス応答が有限であることを意味する1。 差分方程式で書くと、以下の通り。 時刻のとき、はシステムの出力、はシステムの入力、はシステムの入力に対する係数である。 つまり、FIRフィルタでは、出力は入力の畳み込み和でのみ計算されることを示す。 IIR

    tuka8s
    tuka8s 2020/09/03
  • 自然言語処理の巨獣「Transformer」のSelf-Attention Layer紹介

    全てのTransformer記事はTransformerから始まる「Transformer」概要2017年中旬、Googleが発表した論文「Attention is all you need」で提出されたモデル「Transformer」は、深層学習の自然言語処理(NLP)分野でいまはデファクトスタンダードとして使われています。Transformerは要するに、過去の自然言語処理(NLP)で多く使われる再帰型ニューラルネットワーク(RNN)や畳み込みニューラルネットワーク(CNN)を「Self-Attention Layer」に入れ替えたモデルです。 それ以降、大抵の自然言語処理(NLP)分野で発表された研究や論文は、Transformerで再構築して発表されています。期待を裏切らなく、再構築されたモデルの結果は、以前の結果を上回っています。 Transformerは2017年に公開され、今

    自然言語処理の巨獣「Transformer」のSelf-Attention Layer紹介
    tuka8s
    tuka8s 2020/09/03
  • 深層学習界の大前提Transformerの論文解説! - Qiita

    この例に関する質問への回答を補足の項に記載しましたので、より良い理解のためにご参照ください。 1.3 モデル構造 トランスダクションモデル(ある文章を他の文章に変換するモデル(翻訳など))において主流なのは以下のようなエンコーダ-デコーダモデルである。 エンコーダ: 入力の文 $(x_1,\ldots,x_n)$ を $\boldsymbol{z}=(z_1,\ldots,z_n)$ へ変換 デコーダ: $\boldsymbol{z}$ から単語 $(y_1,\ldots,y_m)$ を出力。 ただし、1時刻に1単語のみで、前時刻のデコーダの出力を現時刻のデコーダの入力として使う。 Transformerは基的な大枠はエンコーダ-デコーダモデルでself-attention層とPosition-wise全結合層を使用していることが特徴。 つまり、以下の3つ(+2つ)のことが分かればモデル

    深層学習界の大前提Transformerの論文解説! - Qiita
    tuka8s
    tuka8s 2020/09/03
  • N高に政治部 初回は麻生副総理が登壇、特別講師に国際政治学者の三浦瑠麗氏

    角川ドワンゴ学園が運営する通信制高校「N高等学校」(N高)は9月2日、生徒が政治家と直接意見を交わし、政治について学ぶ「N高政治部」を設立すると発表した。特別講師として国際政治学者の三浦瑠麗氏が就任し、9日に行われる初回授業のゲスト講師として麻生太郎副総理が登壇する。 部員はN高に在籍し、書類選考を経て選ばれた20~30人の生徒。与野党を問わず、さまざまな政治家がゲスト講師を務め、部員のアンケートを基にゲストが話すテーマを決めるという。部員が政治家へ直接質問する時間を設け、授業後はレポートなどを提出する。 部員が政治家の話を直接聞くことで政治への興味関心を高め、世の中には多様な考え方があることを知り視野を広げることが目的。政治に関してさまざまな情報があふれる中、メディアリテラシーを身につけ、部員が自分で物事を調べ考える習慣を身に付けることを目指す。 麻生太郎副総理がゲスト講師として登壇する

    N高に政治部 初回は麻生副総理が登壇、特別講師に国際政治学者の三浦瑠麗氏
    tuka8s
    tuka8s 2020/09/03
    副総理が来るとかすごいな。次は総理を辞任した安倍さんを。特別講師は片寄らず選んで欲しいところだけれども