フロントエンドのパラダイムを参考にバックエンド開発を再考する / TypeScript による GraphQL バックエンド開発
フロントエンドのパラダイムを参考にバックエンド開発を再考する / TypeScript による GraphQL バックエンド開発
認知負荷および認知負荷理論 (Cognitive Load Theory) をもう少し正確に理解するための心理学研究・知見の紹介 この記事の目的 ここ数年で、ソフトウェア開発やプログラミングの文脈で、「認知負荷」 および 「認知負荷理論」 という用語をよく見聞きするようになりました。私が今思い出せるだけでも、以下のような書籍や Podcast で重要なキーワードとして取り上げられています。 A Philosophy of Software Design, 2nd Edition チームトポロジー 価値あるソフトウェアをすばやく届ける適応型組織設計 プログラマー脳 ~優れたプログラマーになるための認知科学に基づくアプローチ fukabori.fm 102. A Philosophy of Software Design (3/3) w/ twada この「認知負荷」ですが、少なくとも近年見聞
はじめに かつて、ウサギ跳びで筋力トレーニングしていた時代がありました。 (アニメ『巨人の星』より引用) (アニメ『アタックNo.1』より引用) (アニメ『ヒーリングっどプリキュア』より引用) 私も小学校のころ、ウサギ跳びをやっていました。 運動負荷が高く、かなりの効果を得ている実感がありました。 また、実際、運動能力もアップしました。 しかし、アスリートの動きの研究をしている関西大学教授の小田伸午氏によると、「ウサギ跳びはトレーニング効果が無い」そうです。 ウサギ跳び(ウサギとび)は、<略>1980年代以降はトレーニング効果が無く故障のリスクが高いと周知されて廃れた(出典:小田伸午「ウサギ跳び信仰とは何だったのか」『スポーツゴジラ』第2013-11-05号、スポーツネットワークジャパン、 12-14頁。 )。(Wikipediaより引用(太字引用者) ) 「トレーニング効果が無い」と「故
<blockquote class="hatena-bookmark-comment"><a class="comment-info" href="https://b.hatena.ne.jp/entry/4691399354969426082/comment/jacoby" data-user-id="jacoby" data-entry-url="https://b.hatena.ne.jp/entry/s/nlab.itmedia.co.jp/nl/articles/2009/14/news016.html" data-original-href="https://nlab.itmedia.co.jp/nl/articles/2009/14/news016.html" data-entry-favicon="https://cdn-ak2.favicon.st-hatena.com/
はじめに もともとふつうのベンチャーでしたが、2014年に量子コンピュータにピボットしてからはすくすく会社が育ち、向いてることをするのは大事だなと感じてます。 Qiitaはポエムを書かないといけないらしい(多分)ので。おそらく日本初の量子コンピュータベンチャーとしてまず五年目までに気づいたことを書いてみます。 もともとはデザイン会社 もともとうちの会社はデザイン会社でした。出身が建築事務所だったので、そのまま2009年に独立してデザインをしてました。建築時代はphotoshop+autocadを使っていました。イラレはいまだに苦手です。 前の建築事務所は隈研吾建築事務所というところで、青山の美術館の設計や中国のアリババの社屋のコンペなどを主にしていました。 建築は当時CGパースも仕事がたくさんありましたので、CGのモデリングやレンダリングをやりながら当初は生計を立てていました。ただ、リーマ
身内でdeep learningの勉強会をやったらできそうだったので実装した. 読んだのは大体ここらへん. NEURAL NETS FOR VISION(CVPR2012 tutorial) CS294A Lecture notes Sparse autoencoder ImageNet Classification with Deep Convolutional Neural Networks autoencoder autoencoderはunsupervised feature learningの一種.Convolutional Neural Netとは違って,最後の判別器の予測誤差をback propagationさせる,という事はせずある種特徴抽出で完結させている. autoencoderを一言でまとめると,「次元削減を繰り返すNeural Netを多段に繋げて特徴抽出を行う手法
ジュンク堂池袋本店にて 10/11 に行われた「パターン認識と機械学習」(PRML) 愛好家の集まり、じゃあなかった、トークセッションにのこのこ行ってきた、ばかりか前でしゃべってきた。ありがとうございました&お疲れ様でした>各位 PRML同人誌 『パターン認識と機械学習の学習』(暗黒通信団) 刊行記念トークセッション 「今度こそわかる!? PRMLの学習の学習」 http://www.junkudo.co.jp/tenpo/evtalk.html#20121011_talk 参加して下さった上に感想までブログにしたためて下さった方には感謝感謝なわけだが、そういったブログの中で、@yag_ays さんがちょうど今気にしていたことを書かれていたので、ちょこっと紹介。 「今度こそわかる!? PRMLの学習の学習」に参加しました - Wolfeyes Bioinformatics beta 余談:
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く