タグ

2017年2月17日のブックマーク (6件)

  • 【心理学から学ぶUXデザイン】デザイナー必見の5つのルール

    Webデザイナーにとって、経験は重要です。しかし、経験のみに基づいてデザインを考えるのは、リスクがあるかもしれません。 たとえば、Webサイトを大幅に再設計してはならないという原則をご存知でしょうか? あるいはまた、閲覧者が男性の場合と女性の場合とで、Webデザインはどのように差異化させるべきでしょうか? Webデザインには、何十年もの研究と心理学実験に基づいた心理学的アプローチがあるのです。 以下では、心理学に裏付けられたUXデザインのヒントを、5つご紹介します。 1.可知差異に関するウェーバーの法則 過去5年間にFacebookを使用していた人は、デザインがあまり変わっていないことを知っていますね。3,500億ドル以上のメガ企業であるFacebookなのですから、この3年間で多くの変化があってもおかしくなかったはずです。にもかかわらず、 Facebookが、そしてFacebookだけで

    【心理学から学ぶUXデザイン】デザイナー必見の5つのルール
    userhiro
    userhiro 2017/02/17
    青は男女が好む色、その他緑は男、紫は女が好きな色
  • TensorFlowで機械学習と戯れる: LSTMでユーザの行動を予測するモデルを作る実験 - Qiita

    はじめに LSTM(Long Short Term Memory) は時系列データの学習によく用いられているものです。 わかるLSTM ~ 最近の動向と共にの記事がとても詳細に説明されています。 上記でも解説されていますが、LSTMは例えば「今までの単語列を入力として、もっともらしい次の単語を予測する」というような「文章の生成」に使うことができます。 このLSTMを使って、例えば、Webサービスにアクセスする 「ユーザの行動」を「単語」 とみなせば 「ユーザの一連の行動」は「文章」 とみなせるわけで、 「こういう行動を取ってきた人は、次にこういう行動を行う」という予測モデルが作れないかと考えました。 この予測モデルが作れれば、あとは文章生成のような形で 行動生成 ができます。つまり、ある種の ユーザ行動のシミュレーション ができることになります。 ユーザがある程度アクセスすれば、 このまま

    TensorFlowで機械学習と戯れる: LSTMでユーザの行動を予測するモデルを作る実験 - Qiita
  • 深層学習による自然言語処理 - RNN, LSTM, ニューラル機械翻訳の理論

    稿ではニューラルネットワーク,誤差逆伝播法,言語モデル,RNN,LSTM,ニューラル機械翻訳の一連の手法について数理的に解説する. 前編の目次 ニューラルネットワーク 順伝播 (Forwardpropagation) 逆伝播 (Backpropagation) リカレントニューラルネットワーク (RNN) Recurrent Neural Network Language Model (RNNLM) Backpropagation Through Time (BPTT) Long Short-Term Memory (LSTM) Gated Recurrent Unit (GRU) RNN のドロップアウトとバッチ正規化 ニューラル機械翻訳 (NMT) Sequence to Sequence (seq2seq) 注意 (Attention) 双方向エンコーダー・多層LSTM 評価手法

    深層学習による自然言語処理 - RNN, LSTM, ニューラル機械翻訳の理論
    userhiro
    userhiro 2017/02/17
    ニューラルネットからニューラル機械翻訳までの一連の手法について数理的に解説
  • Google、深層学習フレームワーク「TensorFlow 1.0」を発表 | OSDN Magazine

    Googleは2月15日、オープンソースの深層学習フレームワーク「TensorFlow 1.0」公開を発表した。高速化や柔軟性の強化、安定性の強化などが行われている。 TensorFlowは深層学習(ディープラーニング)向けの機械学習ライブラリで、Google Brain Teamが20015年にオープンソースで公開した。Dropbpx、Airbnb、Snapchat、SAPなど多くの企業や組織で利用されており、Googleによると公開から1年以上でここから派生した6000件以上のオープンソースリポジトリが存在するという。Google内部でもGoogle Translateの改善など様々なプロジェクトに使われているとのこと。 TensorFlow 1.0ではPython APIが安定扱いとなり、今後のマイナーアップデートリリースでも互換性が保証されるようになった。これによって今まで以上に運

    Google、深層学習フレームワーク「TensorFlow 1.0」を発表 | OSDN Magazine
    userhiro
    userhiro 2017/02/17
    ニューラルネトワークライブラリKerasと完全な互換性のあるtf.kerasモジュールも利用できるようになった
  • 【特化ブログ】月200万達成したバナオレさんのアフィリエイト体験談|ひつじアフィリエイト

    読者の方々、はじめまして!バナオレ(@bana__ore)と申しますm(_ _)m 今までツイッター等SNSを使用していなかったので知名度はゼロですw「こいつ誰や…」って感じだと思いますので、簡単にアフィリエイト経歴を紹介しますね! バナオレさんのアフィリ経歴 年齢:20代 住まい:関西 兼業アフィリエイター(職:サラリーマン) アフィリエイト経歴:1年6ヶ月 プラットフォーム:WordPress デザイン:無料のテンプレ 形式:アフィリエイトサイトに近い 特化ブログ 記事数:約230数 PV:検索9.5割, 55000PV(先月:2017/1) 発生収益:250万(先月:2017/1) 確定収益:217万(先月:2017/1)

  • 畳み込みニューラルネットワークの可視化 - 人工知能に関する断創録

    Deep Learningの学習結果(重み)はブラックボックスで、隠れ層のユニット(特に深い層の!)が一体何を学習したのかがよくわからないと長年言われてきた。しかし、今回紹介する方法を使うとニューラルネットが何を学習したのか目で見える形で表現できる。 畳み込みニューラルネットで学習したフィルタの可視化というと以前やったように学習した第1層のフィルタの重みを直接画像として可視化する方法がある。 しかし、畳み込みフィルタのサイズは基的に数ピクセル(MNISTの例では5x5ピクセル程度)のとても小さな画像なのでこれを直接可視化しても何が学習されたか把握するのはとても難しい。たとえば、MNISTを学習した畳み込みニューラルネット(2016/11/20)のフィルタを可視化しても各フィルタがどの方向に反応しやすいかがわかる程度だ。 各フィルタが何を学習したかを可視化する別のアプローチとして各フィルタ

    畳み込みニューラルネットワークの可視化 - 人工知能に関する断創録