2017年4月22日のブックマーク (5件)

  • Android-x86で4k・8kデレステ遊ぶ

    CPU:Core i3 3220 MB:Gigabyte B75M-D3HMem:DDR3-1600 16GBGPU:Radeon HD7870

    Android-x86で4k・8kデレステ遊ぶ
  • Nakagawa HP - SlideShareのアップロード一覧

    AIと社会、倫理 最終講義資料:人工知能と社会 AI倫理 AI Ethics and Accountability, Privacy Protection AI takes over human jobs AI アカウンタビリティと AI兵器 人工知能倫理と法制度、社会 自動運転車と情報環境 AGIへの道程:2017年度版 シンギュラリティ以前 シンギュラリティ以後 プライバシー保護の数理 Deformation Caused by Anonymization パーソナル履歴データに対する匿名化と再識別 SCIS2017での発表資料 Privacy Protection

    Nakagawa HP - SlideShareのアップロード一覧
    wackyhope
    wackyhope 2017/04/22
    中川裕志氏の公開資料(Slide Share)へのリンク集。機械学習関連も多数。参考に。
  • 線形回帰および識別

    オンライン学習 オンライン(あるいは逐次)学習とは データを1つづつ読み込んで、それまでの学習結果 を更新する。 2つの利用局面 1. データ全体は保持しているが、学習を1データ毎に行う 2. データが1こずつ時系列としてやってくる この場合はストリームという。 データ全体をメモリの乗せなくてよいのでマシンに必 要なメモリ少、あるいはメモリに乗りきらないほど大 きなデータから学習可能 1個のデータからの学習(これを1ラウンドという)だけ なら高速 オンライン学習の定式化 以下1,2,3を時刻 t=1,2,…,Tで繰り返す 1. 時刻tにおいて、仮説ht、入力データxt 、正しい結果 データytが与えられる。 2. 仮説ht による結果ht (xt)を計算し、その後でytとの 比較を損失関数lによって行う。つまりl(ht ,(xt , yt )) を計算 3. 損失関数lの値に応じて

    wackyhope
    wackyhope 2017/04/22
    中川裕志氏による東大での資料。参考に。/氏のリンク集でのタイトルが『線形回帰および識別』のため、ブクマページタイトルにも反映。
  • ビッグデータ時代の機械学習アルゴリズム:オンライン学習

    キーワードで探す カテゴリで探す 業界トレンド/展望 技術トレンド/展望 事例 サービスで探す コンサルティング CRMSalesforce) ERP(SAP/Biz∫) 顧客接点・決済 カーボンニュートラル SCM・ロジスティクス 電子申請 データ&インテリジェンス 生成AI アプリケーション開発・管理 データスペース ブロックチェーン 量子コンピュータ・イジングマシン デジタルツイン IoT ロボティクス・RPA クラウド ネットワーク データセンター サイバーセキュリティ アウトソーシング 業種で探す 金融 官公庁・自治体 医療・ヘルスケア 防災・レジリエンス 品 流通・小売 モビリティ 製薬・ライフサイエンス 農・農業 製造 通信・放送 電力・ガス・水道 建設・不動産 個人のお客様向け 教育 トピックで探す Foresight Day サステナビリティ キーワードで探す カテ

    ビッグデータ時代の機械学習アルゴリズム:オンライン学習
    wackyhope
    wackyhope 2017/04/22
    参考に。"データを1つずつ読み込んでモデル更新を繰り返すことで学習を行う手法/新たなデータのみを既存のモデルに取り込む逐次更新が可能"
  • 確率的勾配降下法 - Wikipedia

    ミニバッチを使い上下に行ったり来たりしながら目的関数の値が減少していく例 確率的勾配降下法(かくりつてきこうばいこうかほう、英: stochastic gradient descent, SGD)は、連続最適化問題に対する勾配法の乱択アルゴリズム。バッチ学習である最急降下法をオンライン学習に改良したアルゴリズムである。目的関数が微分可能な和の形であることを必要とする。 背景[編集] 下記の和の形の目的関数を最小化する問題を扱う。 パラメータ はQ(w) を最小化するように推定する。典型的には、 は i 番目の訓練データ。 古典的な統計学において、和の最小化問題は、最小二乗問題や最尤推定問題などにあらわれる。一般的なケースでは、和を最小化する推定量はM推定量と呼ぶ。しかしながら、Thomas S. Fergusonの例[1]などで示されるように、いくつかの最尤推定の問題において、最小解ではな

    確率的勾配降下法 - Wikipedia
    wackyhope
    wackyhope 2017/04/22
    参考に。"確率的勾配降下法(オンライン学習)では、Q(w) の勾配は、1つの訓練データから計算した勾配で近似/全てではないが複数の訓練データで勾配を計算する方法をミニバッチ"