2016年3月28日のブックマーク (10件)

  • Amazonランキング大賞2015(年間) - パソコン・周辺機器:パソコン・タブレットPC|Amazon.co.jp

    「パソコン・周辺機器:パソコン・タブレットPC」のAmazonランキング大賞2015(年間ランキング)。2015年通年で「パソコン・タブレットPC」のAmazon販売データをもとに集計した通販結果をランキング形式で発表。

  • ハノーファー - Wikipedia

    自然保護区と景観保護区[編集] 市域の一部が FFH-地区(ドイツ語版、英語版)の「アルトヴァルムビューヘナー・モーア」[11]、「ハノーファー近郊のマーゲルグルーベ」[12]、「ハノーファーとルーテとの間のライネアウエ」[13]、「ボックマーホルツ=ガイム」[14]、「アラー川(バルンブルーフを含む)、ライネ川下流域、オカー川下流域」[15]に含まれる。その一部は完全にあるいは一部が市域に位置する以下の自然保護区を含む:「ボックマーホルツ」、「マーゲルハルデ」、「ガイム」および景観保護区「ヴィーツェアウエ」、「ヴィーツェ川上流域」、「ラーアー・ヴィーゼン」、「クーゲルファングトリフト=ゼーゲルフルークゲレンデ」、「アルトヴァルムビューヘナー湖」、「アルトヴァルムビューヘナー・モーア=アールテナー・ヴァルト」、「マールダルヴィーゼ」、ブライテ・ヴィーゼ=ナッセ・ヴィーゼ」、「アルテ・ブルト

    ハノーファー - Wikipedia
  • 数億円の経費削減に成功した新型ホームドアの予想外な動きをご覧ください

    乗客が線路に転落したり電車と接触したりする事故を防ぐホームドアは全駅設置が望まれているが、予算の都合上なかなか実現されないもの。 たかが可動式のドアと侮るなかれ。なんと設置には1駅あたり3億円から10億円もかかると算出されているのだ。 ▼海外ではすでに前面シールド式のホームドアが普及しており、かなり安全になっている。日も見習うべきであろう。電車が到着するとドアが自動ドアのように開く仕組み。 ▼こちらは多摩モノレールのホームドア。上部分をカットしてコスト削減に成功しているのが分かる。これでも効果は十分そうだ。 ただ、これでも数億円の費用がかかってしまうのは事実。ちょうどホームドアの開閉するドア部分に電車のドアをぴったりと停車させなければならず、運転手もミスが許されなかった。 しかし、ここに来て大幅なコスト削減に成功したホームドアが登場した。予想外な動きをご覧あれ! 大阪府高槻市に新しく新快

    数億円の経費削減に成功した新型ホームドアの予想外な動きをご覧ください
  • 環境と品質のためのデータサイエンス

    サービス終了のお知らせ いつもYahoo! JAPANのサービスをご利用いただき誠にありがとうございます。 お客様がアクセスされたサービスは日までにサービスを終了いたしました。 今後ともYahoo! JAPANのサービスをご愛顧くださいますよう、よろしくお願いいたします。

  • Goodfellow,Bengio,CourvilleさんのDeep Learning本の18章まとめ - Qiita

    Goodfellow,Bengio,CourvilleさんのDeep Learningの18章まとめ機械学習MachineLearningDeepLearning統計学 重要と思った部分だけ独断で抽出しています. 当にメモ書き程度です. すみません. 間違っている記述があるかもしれません. 心眼で書いている部分があるかもです. Score matchingのくだりは正直よくわかっていないです. 18.Confronting the Partition Function 16章でやったように(無向グラフィカルモデルとかでは)規格化されていない確率分布がよく現れる. このとき規格化するためには積分をする必要があるが一筋縄ではいかない. 18.1 The Log-Likelihood Gradient of Undirected Models 規格化されていない無向モデルの確率分布の勾配を求

    Goodfellow,Bengio,CourvilleさんのDeep Learning本の18章まとめ - Qiita
  • Vertex AI Workbench: Managed notebooks documentation  |  Google Cloud

    Stay organized with collections Save and categorize content based on your preferences. Managed notebooks instances are Google-managed environments with integrations and capabilities that help you set up and work in an end-to-end Jupyter notebook-based production environment. Learn more.

    Vertex AI Workbench: Managed notebooks documentation  |  Google Cloud
  • ディープラーニング(TensorFlow)を使用した株価予想 - Qiita

    なぜかあまりやっている人を見ない、ディープラーニングを使用した株価の予想をしてみます。 ディープラーニング、Pythonともに初心者です。ライブラリ、実装方法、理論等は殆ど分かっておりません。ツッコミ等お待ちしています。 目標 数日分の株価データを使用して、翌日の日経平均株価が「上がる」か「下がる」か「変わらず」かを予想します。(分類) 概要 「上がった」か「下がった」か「変わらず」だったかの判断には翌日の終値をベースに判断。 入力データは数日前から前日までの「始値」「高値」「安値」「終値」を使用。 隠れ層は4つ。 入力として上記過去数日分の株価をぶっこんでトレーニングするだけです。 環境 TensorFlow 0.7 Ubuntu 14.04 Python 2.7 AWS EC2 micro instance 内容 準備 可能な限りの日経平均のデータを用意します。今回はYahooファイナ

    ディープラーニング(TensorFlow)を使用した株価予想 - Qiita
  • Deep Learning

    An MIT Press book Ian Goodfellow and Yoshua Bengio and Aaron Courville The Deep Learning textbook is a resource intended to help students and practitioners enter the field of machine learning in general and deep learning in particular. The online version of the book is now complete and will remain available online for free. The deep learning textbook can now be ordered on Amazon. For up to date an

  • [DL]weight decayって何? - Qiita

    これはつまり、cost functionにL2 regularization項をつけたものです。 この項によりweightの値は小さくなります。 なので、実際に実装するときはL2 regularizationの項をcostに加えることになります。 通常はbiasにはL2 regularizationを適応しません。 これはneuronのweightとbiasの役割の違いから来ています。 weightは入力を選択する役割なので、優先順位さえ変わらなければ値が小さくなっても構いませんが、 biasは閾値の役割のため値が大きくなければならないこともあるためです。 実際にweight decayありとweight decayなしで学習させてweightのヒストグラムを見てみると下図のようになります。 左がweight decayなし、右がweight decayありです。 weightが小さくなっ

    [DL]weight decayって何? - Qiita
  • 酔っ払いはもとの位置に戻ってこれるか? (ランダムウォークの再帰性) - Stroopwaffle

    この問題が何と1,2次元と3次元以上では違ってくるという話を聞きました.1,2次元では必ず(確率1で)帰ってくるが,3次元以上だと必ずしも帰ってくるとは限らない(帰ってくる確率 < 1)となるとのこと.人は空を飛べないので,酔っ払っても必ず帰ってこれるのかーと感心したのであります.しかしなぜ2次元と3次元の間にそのような差が出てくるのか,不思議に思った次第呟いたところ,先日友人が資料をくれて証明を説明してくれました!感謝 まぁその場ではイメージをつかんだだけで,証明まで追えなかったのですが,ようやく少し証明プロセスを飲みこめた気がするので,折角の機会に簡単に説明してみようかと思います! 1次元(対称)ランダムウォーク 定義:位置0から出発,確率1/2で+1,確率1/2で-1に移動する運動 1次元ランダムウォークが確率1で位置0に「帰ってくる」ことを,数学的には「再帰的」というらしい. さて

    酔っ払いはもとの位置に戻ってこれるか? (ランダムウォークの再帰性) - Stroopwaffle