タグ

学習に関するpipipeeのブックマーク (10)

  • 機械学習と自動微分 (2023)

    「最適化法」第15回(ゲストトーク), 2023年1月20日, 同志社大学.

    機械学習と自動微分 (2023)
  • Hiroshi Takahashi

    Skip to the content. 機械学習の研究者を目指す人へ 機械学習の研究を行うためには、プログラミングや数学などの前提知識から、サーベイの方法や資料・論文の作成方法まで、幅広い知識が必要になります。レポジトリは、学生や新社会人を対象に、機械学習の研究を行うにあたって必要になる知識や、それらを学ぶための書籍やWebサイトをまとめたものです。 目次 プログラミングの準備 Pythonを勉強しよう 分かりやすいコードを書けるようになろう 数学の準備 最適化数学を学ぼう 基的なアルゴリズムとその実践 機械学習の全体像を学ぼう 基的なアルゴリズムを学ぼう 深層学習の基礎を学ぼう scikit-learnやPyTorchのチュートリアルをやってみよう サーベイの方法 国際会議論文を読もう Google Scholarを活用しよう arXivをチェックしよう スライドの作り方 論文の

  • 無料で読める統計学・機械学習周辺のチュートリアル論文や講義ノート10本 - Qiita

    はじめに 千葉大学/Nospareの米倉です.今回は,統計学・機械学習周辺で,僕が良いと思ったチュートリアル/サーベイ論文と講義ノートを簡単なコメント付きで紹介したいと思います.チュートリアル論文やサーベイ論文は,そのトピックの解説や教育面にフォーカスしていて,何か勉強したり,網羅的に把握するときに非常に便利だと個人的に思います.また公開されている講義ノートの中には非常に勉強になるものが多くあります.内容は僕が興味があるトピックに偏っています.またすべて無料で読めます.(教科書等の海賊版みたいなのは載せていません) 10の紹介 Nickl "STATISTICAL THEORY" Nicklの統計学の講義ノートです.いわゆるM推定量の漸近的性質に加え,バーンスタイン・フォンミーゼズ定理等も証明付きで解説されており,上級レベルの数理統計学を学ぶのに重宝すると思います. Doucet and

    無料で読める統計学・機械学習周辺のチュートリアル論文や講義ノート10本 - Qiita
  • ディープラーニングの限界 | POSTD

    (注:2017/04/08、いただいたフィードバックを元に翻訳を修正いたしました。 @liaoyuanw ) この記事は、私の著書 『Deep Learning with PythonPythonを使ったディープラーニング)』 (Manning Publications刊)の第9章2部を編集したものです。現状のディープラーニングの限界とその将来に関する2つのシリーズ記事の一部です。 既にディープラーニングに深く親しんでいる人を対象にしています(例:著書の1章から8章を読んだ人)。読者に相当の予備知識があるものと想定して書かれたものです。 ディープラーニング: 幾何学的観察 ディープラーニングに関して何より驚かされるのは、そのシンプルさです。10年前は、機械認識の問題において、勾配降下法で訓練したシンプルなパラメトリックモデルを使い、これほど見事な結果に到達するなど誰も想像しませんでした。

    ディープラーニングの限界 | POSTD
  • 人間が深層学習のAIを理解できないのには、理由がある:朝日新聞GLOBE+

    【特集】「『予測』という名の欲望」全記事はこちらから読めます ■人間にはAIの考えが分からない? ――ディープラーニングは、大量の「教師データ」を読み込み、入力する変数と、出力する変数との間の関係を見つけ出します。その関係が分かれば、新たなデータを入力したとき、出力が予測できるというわけですが、なぜ人間はそのプロセスを理解できないのでしょうか? おもにふたつの要因があります。質的なものと、量的なものです。量的な問題は、すごくシンプルです。ディープラーニングの内部で動くパラメータ(母数:システムの内部で動く情報)が多すぎるので、その大量・複雑なデータを人間の直感につなげることが難しい、という話です。最近は、多いものでは1億個を超えるパラメータから出力を予測します。じゃあ、その1億個をざっと人間が見てなにか分かるのかといえば、分からない。これが基的に起こることです。 ――大量の変数という意味

    人間が深層学習のAIを理解できないのには、理由がある:朝日新聞GLOBE+
  • テキストから画像を生成するGANまとめ - akmtn記録

    この記事は,テキストから画像を生成するGANについて横断的にまとめることを目指しました. "text-to-image"と呼ばれるタスクであり,テキスト(キャプション)を条件として,そのテキストにあう画像を生成することを目指します. 有名な研究では,StackGANがあります. 以下目次です. References なぜテキストから画像を生成するのか? どういう生成モデルが優れているのか? このタスクを困難にしている要因は? 自然画像の高次元空間 テキスト空間と画像空間の違い データの用意 text-to-image synthesisの研究の流れは? どういう画像を生成するか? 使われているデータセットは? 生成できる解像度は? ネットワーク構造はどうなっているか? Loss関数やDiscriminatorに工夫はあるか? 雑感 おわりに References [1] GAN-INT-C

    テキストから画像を生成するGANまとめ - akmtn記録
  • 統計学を哲学する « 名古屋大学出版会

    内 容 統計学は実験や臨床試験、社会調査だけでなく、ビッグデータ分析AI開発でも不可欠である。ではなぜ統計は科学的な根拠になるのか? 帰納推論や因果推論の背後に存在する枠組みを浮き彫りにし、科学的認識論としてデータサイエンスを捉え直す。科学と哲学を架橋する待望の書。 【ALL REVIEWS】序章(抜粋) 目 次 序 章 統計学を哲学する? 1 書のねらい 2 書の構成 第1章 現代統計学のパラダイム 1 記述統計 1-1 統計量 1-2 「思考の経済」としての記述統計 1-3 経験主義、実証主義と帰納の問題 2 推測統計 2-1 確率モデル 2-2 確率変数と確率分布 2-3 統計モデル 2-4 推測統計の世界観と「確率種」 第2章 ベイズ統計 1 ベイズ統計の意味論 2 ベイズ推定 2-1 仮説の確証と反証 2-2 パラメータ推定 2-3 予測 3 ベイズ統計の哲学的側面 3-1

  • 2020年のエンジニア新人研修の講義資料を公開しました - Cybozu Inside Out | サイボウズエンジニアのブログ

    こんにちは。コネクト支援チームの@tignyaxです。 みなさま、夏はどう過ごされたでしょうか? 私は、夏が好きなのに今年は夏らしいことが出来なくて寂しいなぁとなっています。。。 さて、今年2020年もエンジニア新人研修を行いましたので、その紹介と講義資料を公開いたします。 2020年のエンジニア新人研修について 基的には2019年と同じ形*1での実施となりました。 最初の1週間で必修講義をしたあと、新人の皆さんには2週間ずつ3チームを体験してもらいました。 チーム体験のコンセプトは、新人に「興味のあるチームで実際に業務を体験し、配属希望を決める参考になった。」と言ってもらうことです。 各チーム体験では座学や研修を中心にするのではなく、業務体験が中心です。 チーム体験を通して、配属先を検討する材料にしたり、いろんなチーム/人/業務を知ってもらえる機会となります。 必修講義 誰に: 開発/

    2020年のエンジニア新人研修の講義資料を公開しました - Cybozu Inside Out | サイボウズエンジニアのブログ
  • 自然言語処理でBERTまでの流れを簡単に紹介 - moriyamaのエンジニアリング備忘録

    はじめまして@vimmodeです。普段はMNTSQというリーガルテックの会社で自然言語処理をしています。今回はBERTとBERTまでの流れを簡単に紹介します。 自然言語処理で今やデファクトスタンダードとなりつつであるBERT。登場当時はモデルの複雑さに伴う計算環境や計算リソースの確保が難しく気軽に動かせなかったが、ColabやKaggleカーネル環境が整備されたきたおかげで誰でも気軽に使えるようになりました。 また、haggingface社が公開したBERTと関連モデルのラッパーライブラリであるtransformersによりわずか10行程度でBERTモデルを記述できます。 一方、自然言語処理を始めて間もない段階でいきなりBERTを突きつけられても理解の壁が高いと思いますので、今回は数式やコードを使わずにBERTに至るまでの流れを簡単に紹介したいと思います。 ※これらはあくまで私の理解であり

    自然言語処理でBERTまでの流れを簡単に紹介 - moriyamaのエンジニアリング備忘録
  • https://orenoeigo.com/eigonotatsuzin

    https://orenoeigo.com/eigonotatsuzin
  • 1