タグ

あとで読むに関するutgwkkのブックマーク (76)

  • 2016年の深層学習を用いた画像認識モデル - Qiita

    実装 検証が終わっていないモデルの使用は気をつけてください cifar10の数値感覚 現時点で97%以上ではSoTAになると思います。僕が知っている限り、最高精度は96.69%です。そろそろcifar100か別のデータセットを評価の軸にするべきかもしれません。 最近の傾向 今年はResnetファミリーの年だったと思います。特徴的な点として、深さ=精度が終わった点です。googlenetなどは昔から主張していましたが、ある程度深いと、深さよりも幅を広くしたほうが精度が上がるということが、様々な論文の結果で今年は示されました。3月くらいから、Resnetの幅を広くしたほうが良いという結果は副次的にぞろぞろ出ていて、5月23日に出たWide Residual Netowrksで決定的になったような形だと思います。幅が大事といったことが、今年はっきりした点であるように思います。 論文を俯瞰してみる

    2016年の深層学習を用いた画像認識モデル - Qiita
  • 構造的部分型と有界量化に関する型推論 - Qiita

    (建設的な誤謬・誤植の指摘等,大変歓迎致します.) 以下にPDFの冒頭を念のため貼っておきます: 言語処理系を自らの手で実装するとなれば,レコードと構造的部分型を入れたくなるのが人の性です.そして折角ならできるだけ強い型推論と多相型の機能を持たせてみたい,と考えるのも至極当然なことです. ここまではほとんどの方が認める前提かと思いますが[要出典],それなりに古くから研究されているのに反して意外に構造的部分型に関する型推論の知見は和文で共有されていません.例えば原著・和訳ともに良書として広く知られている Types and Programming Languages と『型システム入門』は,構造的部分型の理論は登場するものの,構造的部分型を含めた型推論の実装については述べられていないようです. 「論文を探してみようか」と思っていたところ,和文でも『プログラミング言語の基礎理論』(絶版)に記述

    構造的部分型と有界量化に関する型推論 - Qiita
  • 府大生が趣味で世界一の認識精度を持つニューラルネットワークを開発してしまった論文を読んだ - Qiita

    Deep Learning Advent Calendar 2016の20日目の記事です。 ConvNet歴史とResNet亜種、ベストプラクティスに関連スライドがあります(追記) 背景 府大生が趣味で世界一の認識精度を持つニューラルネットワークを開発してしまったようです。 M2の学生が趣味でやっていたCIFAR10とCIFAR100の認識タスクで,現時点での世界最高性能の結果を出したそうだ…趣味でっていうのが…https://t.co/HKFLXTMbzx — ニーシェス (@lachesis1120) 2016年12月7日 府大のプレスリリース 一般物体認識分野で、府大生が世界一の認識精度を持つニューラルネットワークを開発 黄瀬先生の研究室の学生さんだそうです。凄いですね! ちょうどResNet系に興味があったので、読んでみます。この論文を理解するには、ResNet, (Wide

    府大生が趣味で世界一の認識精度を持つニューラルネットワークを開発してしまった論文を読んだ - Qiita
  • 絵で理解するWord2vecの仕組み - Qiita

    皆さん、Word2vec の仕組みはご存知ですか? Word2vec は gensim や TensorFlow で簡単に試せるので使ったことのある方は多いと思います。しかし、仕組みまで理解している方はそう多くないのではないでしょうか。そもそも家の論文でも内部の詳細については詳しく解説しておらず、解説論文が書かれているくらいです。 記事では Word2vec のモデルの一つである Skip-Gram について絵を用いて説明し、概要を理解することを目指します。まずは Skip-Gram がどのようなモデルなのかについて説明します。 ※ 対象読者はニューラルネットワークの基礎を理解しているものとします。 どのようなモデルなのか? Skip-Gram はニューラルネットワークのモデルの一つです。Skip-Gram は2層のニューラルネットワークであり隠れ層は一つだけです。隣接する層のユニット

    絵で理解するWord2vecの仕組み - Qiita
  • 2016年のディープラーニング論文100選 - Qiita

    これはFujitsu Advent Calendar 2016の11日目の記事です。 掲載内容は個人の意見・見解であり、富士通グループを代表するものではありません。なお、内容の正確性には注意を払っていますが無保証です。 はじめに この記事では先月今年発表されたディープラーニング論文(ArXivでの発表時期、発表された国際会議が2016年開催またはジャーナル掲載が2016年のもの)から私が個人的に重要だと思った論文を収集しています。また、2015年末ごろの論文も重要なものは採用しています。 以下の投稿も合わせてご覧ください。 2017年のディープラーニング論文100選 DeepLearning研究 2016年のまとめ 2016年の深層学習を用いた画像認識モデル foobarNet: ディープラーニング関連の○○Netまとめ NIPS2016実装集 ディープラーニングにとっての2016年 20

    2016年のディープラーニング論文100選 - Qiita
  • 巨大数論

    単行 電子書籍PDF版) 2018年10月13日 2版2刷発行 正誤表 Q&A POD個人出版アワード 窓の杜賞 受賞! 大きな数を考えます。 ただひたすら、大きな数について考える。 巨大数を作ってその大きさを評価するための巨大数論(グーゴロジー)の解説書。 >>> 続きを読む ------------------ ●巨大数とは 億:100000000 兆:1000000000000 無量大数:1の後に0が68個続く数 グーゴル:1の後に0が100個続く数 グーゴルプレックス:1の後に0がグーゴル個続く数 想像も絶する大きな有限の数が巨大数である。 全宇宙の物質をすべてインクに変えて1000...と書いても、グーゴルプレックスには届かない。 このように果てしなく大きいグーゴルプレックスも、巨大数論では入門レベルの大きさの数である。 ------------------ ●書の構成

    巨大数論
  • Large Numbers at MROB

    The earlier parts of this article are very well summarised by Adam Townsend in the wonderful article in UCL's chalkdust magazine This page begins with million, billion, etc., proceeds through Googolplex and Skewes' numbers (organised into "classes" based on the height of the power-tower involved), then moves on through "tetration", the Moser and the "Graham-Rothschild number", on to lesser-known h

  • なぜプレゼンで失敗するのか - 詩と創作・思索のひろば

    自分も大方の人間と同じように人前で喋るのは苦手で、可能であれば避けたいと思っているけれど、一方でこの業界で生きのこる方法のひとつとして避けられないものでもあると思っている(ので苦しい)。若かりしころ手痛い失敗をしたこともあって、かなり苦手意識を持ちつづけていたが、最近はわりかし上手く付き合えるようになってきたかなとふり返って思う。 今もうまいプレゼンテーションをする方法は知らないし、それを僕から知りたいという人はいないとおもうが、プレゼンでしくじる方法なら経験から知っている。準備をしないこと。自分の経験からはそうだし、まずいプレゼンを見ていてもそうなんだろうな、と思うことはやっぱり多い。 このエントリはプレゼンがいやでいやで仕方がなかった自分のための分析であり、プレゼンのマイナスレベルをゼロまで引き上げようとする努力です。ソフトウェアエンジニア技術者間交流のためのプレゼンというのが前提。

    なぜプレゼンで失敗するのか - 詩と創作・思索のひろば
  • Multi-service image search

    Upload an image or thumbnail from a file or URL to find it (or similar images) among: Danbooru (anime artwork)

  • 地図で検索 | ポストマップ

    全国18万近くの郵便ポストを地図から検索。

  • 夜のひつじ

    『相思相愛ロリータ』 ★純愛中出しロリユートピアノベル(18禁) 2014年12月30日 コミケ87 初頒布(DL・委託は1月中旬予定) イベント価格¥1300 DL・委託¥1404〜1499 CD-ROM 対応OS:Windows Vista、7、8 CG16枚+差分 プレイ時間3〜4時間 ヒロインフルボイス ツイート 体験版(プレイ時間一時間ほど) ダウンロード

    夜のひつじ
  • GitHub - wofr06/lesspipe: lesspipe - display more with less

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - wofr06/lesspipe: lesspipe - display more with less
  • UbuntuでPPTP(VPN)サーバを構築する : NETBUFFALO

    知人から自宅のUbuntuにPPTPサーバ環境を構築して外出先から自宅のLANに接続しようと色々と試行錯誤したがうまく動かなかったという話を聞きまして、先日インストールした僕のUbuntuに環境を作ってみることにしました。 今回検証用として用意した環境は次の通りです。

    UbuntuでPPTP(VPN)サーバを構築する : NETBUFFALO
  • Word2Vec のニューラルネットワーク学習過程を理解する · けんごのお屋敷

    Word2Vec というと、文字通り単語をベクトルとして表現することで単語の意味をとらえることができる手法として有名なものですが、最近だと Word2Vec を協調フィルタリングに応用する研究 (Item2Vec と呼ばれる) などもあるようで、この Word2Vec というツールは自然言語処理の分野の壁を超えて活躍しています。 実は Item2Vec を実装してみたくて Word2Vec の仕組みを理解しようとしていたのですが、Word2Vec の内部の詳細に踏み込んで解説した日語記事を見かけることがなかったので、今更感はありますが自分の知識の整理のためにもブログに残しておきます。なお、この記事は Word2Vec のソースコードといくつかのペーパーを読んで自力で理解した内容になります。間違いが含まれている可能性もありますのでご了承ください。もし間違いを見つけた場合は指摘してもらえると

  • 人間と証明とプログラム: 『コンピュータは数学者になれるのか?』を読んだ - 詩と創作・思索のひろば

    ウィッシュリストに入れていたのを知人に頂いた。数学基礎論とコンピュータ科学をつなぐ啓蒙書、という立ち位置のなのだけど、自分はコンピュータ科学のバックグラウンドとしての数学基礎論、というとらえ方で読んでいった。専門的な概念とか簡単な証明とかはバンバン出てくるので基礎を抑えておかないと読むのには難儀しそう。以下、おもしろかった部分を整理がてらかいつまんで説明してみる。あまり丁寧ではないけど、間違っていたら教えてください。 書名にもある「数学者」とは真理を追い求める人のことで、ひいては与えられた命題に対する定理を証明するものである、と最初に位置づけられる。なので人間の証明能力をどのようにして・どこまで機械化できるのか、というところからこのの話は始まる。 形式系 第1章は数学的な準備の章。まず、証明のための言語と推論規則からなる形式系を定める。自然数について語れるよう定義された形式系 が、

    人間と証明とプログラム: 『コンピュータは数学者になれるのか?』を読んだ - 詩と創作・思索のひろば
  • 日本酒造りにおける「水」の重要性 | 日本酒専門WEBメディア「SAKETIMES」

    酒造りに必要な水は、仕込みに使う総米重量のおよそ50倍といわれています。 一般的に、中規模蔵の仕込み量が1500キロといわれていますので、その場合は7万5000リットルの水を使うことになります。すごい量ですね。 厳しい基準が設定されている酒造用水酒造用水は、わたしたちが普段口にする水道水よりも、成分の基準が厳しく設定されています。特に、日酒造りに悪い影響を与えるとされる鉄とマンガンについてはかなり厳格な数値が決められています。 鉄の基準値は水道水が0.3ppm以下であるのに対して、酒造用水では0.02ppm以下(検出されないのが望ましい)。マンガンの基準値は水道水が0.05ppm以下ですが、酒造用水では0.02ppm以下でなければなりません。 鉄が混ざると日酒が褐色に色づき、香味も悪くなります。そのため鉄は、日酒造りにおいて最も有害とされている成分のひとつとされています。マンガンは、

    日本酒造りにおける「水」の重要性 | 日本酒専門WEBメディア「SAKETIMES」