サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
iPhone 16
threecourse.hatenablog.com
最近、小〜中規模のプログラムを保守性高く記述するにはどうすればよいかが気になっていて、 ソフトウェアのアーキテクチャについて調べていました。 本を読んでみる 以下の本を浅めに読み通してみました。どの本もそれぞれ学ぶべき点があって興味深かったです。 .NETのエンタープライズアプリケーションアーキテクチャ第2版 https://www.amazon.co.jp/dp/B00ZQZ8JNE C#での設計の話。ドメイン駆動設計など、設計に関わるトピックが広く触れられていて良い。 Adaptive Code C#実践開発手法 第2版 https://www.amazon.co.jp/dp/B07DJ2BL4Y C#での実装の話。SOLID原則を中心に、実装に関わるトピックが広く触れられていて良い。 Clean Architecture 達人に学ぶソフトウェアの構造と設計 https://www.a
本記事は 強化学習苦手の会 Advent Calendar 2020 - Adventar 8日目の記事とするべく、コンペ終了後に書いた記事に追記しました。 7日目の記事(Kaggleの強化学習コンペがグダグダだった話 - Qiita)への返歌みたいなものになります。 雑感 強化学習でどこまで行けるんだろう、ということで勝敗に拘らず強化学習を試してみましたが、何も考えないと思っていたより厳しいなぁという印象でした。 「岩塩のあるところまで行く」→ まぁまぁ簡単にできる 「岩塩のあるところまで行って、スタート地点まで戻ってくる」→ 工夫しないと厳しい 「岩塩のあるところまで行って、スタート地点まで戻ってくるのを複数の船で協調する」→ さらに厳しい 結局、カリキュラムラーニングじみたことをやって、「岩塩のあるところまで行って、スタート地点まで戻ってくるのを複数の船で協調する」までは出来ました。
CatBoostの論文における、prediction shiftについて調べる機会があったのでまとめてみました。 (CatBoost: unbiased boosting with categorical features https://arxiv.org/pdf/1706.09516.pdf ) 以下は、論文の4.1 Prediction shift、AppdendicesのA Proof of Theorem 1を元に、私の理解で構成しなおしたものです。 概要 勾配ブースティングの計算において、各ブースティングで同じ学習データを使うことにより、偏りが発生する。 シンプルな以下の前提で考える。 データセットの前提 データセットの前提は以下のとおり: データの個数は$n$個、特徴量は $(s, t)$ の2つ $s, t$はそれぞれベルヌーイ分布($p=0.5$)に従う二値変数 目的変数
「ヒューリスティック探索入門」というPDFの1章、2章、4章の一部の学習メモです。 特に、「状態空間問題」といった問題設定や用語について認識できたこと、A*法の理論などについてとても勉強になりました。 (PDF) https://jinnaiyuu.github.io/pdf/textbook.pdf (Github) https://github.com/jinnaiyuu/search-ja できる限り元のテキストに沿っているつもりで、私の意見や考えは青字としています。誤りなどありましたら教えて下さい。 1章 イントロダクション このPDFの主な対象は、状態空間問題 (state-space problem)。 特に、状態空間問題のうち完全情報かつ決定論的 モデル 状態空間問題とは、与えられたゴールに到達するための行動の列(=プラン) を発見する問題 完全情報とは、エージェントが世界の
This is table of contents of a book "Data Analysis Techniques to Win Kaggle (amazon.co.jp) written in Japanese and published on Oct. 2019. Authors are threecourse, Jack, hskksk, maxwell . en ja Data Analysis Techniques to Win Kaggle Kaggleで勝つデータ分析の技術 Chapter I: What is data analysis competition? 第1章 分析コンペとは? 1.1 what is data analysis competition? 1.1 分析コンペって何? 1.1.1 what do you do in competition?
xgboostでどのような処理が行われているのかを、メモの意味でまとめてみました。 たぶん続きます。なお、あくまで私の理解であり、正確性の保証は無いのでご注意下さい。 ソースコードは以下を参照しています。 https://github.com/dmlc/xgboost (release_0.90を参照) 前提 以下の前提とする: ブースター(booster)はgbtree 決定木のアルゴリズム(tree_method)はexact カスタム目的関数を使わない GPUの使用、マシン並列を行わない xgboostでは、tree_methodオプションで決定木を作成するアルゴリズムを選択できる。 デフォルトではデータ数が一定未満の場合にはexact、それ以上であればapproxが適用される。 (4UL << 20UL = 4194304件が境目、GBTree::PerformTreeMethod
10/9に技術評論社から、「Kaggleで勝つデータ分析の技術」が出版されます(amazon)。 (ブログ主=著者の一人の門脇です) gihyo.jp 多くの予約を頂いているようで大変有難いです。もし評価がひどくて多方面から矢が飛んで来たらどうしようと怖くなることもありますが、何だかんだで自信を持って出せる本に仕上がったと思っています。以下で、見どころや意図を紹介します。 目指したところ 私が目指したのは、テーブルデータについて「Kaggler(=Kaggleの参加者)の暗黙知を明らかにする」ことです。一度整理したかったですし、なかなか綺麗にまとまっている資料はないようです。 CourseraのHow to Win a Data Science Competitionが比較的近いテーマですが、英語なのはともかく、動画での講義なので情報を整理するコストがなかなか高いですし、またこの講座とも違
このページを最初にブックマークしてみませんか?
『threecourse.hatenablog.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く