リテラシーレベルモデルカリキュラム対応教材 利用条件とアンケート 東京大学と記載のあるスライド教材の利用についてはこちら(一部スライドは冒頭の利用条件をご参照ください)。 東京大学と記載のある講義動画の利用条件は、各動画の冒頭をご参照ください。 滋賀大学と記載のある教材の利用条件はCC BY-NC-SAです。 九州大学と記載のある教材の利用条件はCC BYです。 筑波大学と記載のある教材の利用条件についてはこちら 北海道医療大学と記載のある教材の利用条件はCC BYです。 東京都市大学と記載のある教材の利用条件についてはこちら 教材のアンケートはこちら モデルカリキュラムと対応する講義動画・スライド 1. 社会におけるデータ・AI利活用 2. データリテラシー 3. データ・AI利活用における留意事項 4. オプション 1. 社会におけるデータ・AI利活用 1-1. 社会で起きている変化
機械学習の進化 新しいコンピューティング・テクノロジーの登場により、今日の機械学習は昔の機械学習とは様変わりしています。機械学習は元々、パターン認識と、特定のタスクを実行するようにプログラミングされなくてもコンピューターは学習できるという理論、この2つからから誕生しました。人工知能に興味を持った研究者たちは、コンピューターがデータから「学習」できるのではないかと考えるようになったのです。機械学習の「反復的」という側面は重要です。なぜなら、新しいデータを処理させるたびに、モデルが自律的に適応していくからです。 モデルが学習した結果を使用して、信頼性・再現性のある意思決定およびその結果をもたらします。 この科学はそれほど新しいものではありませんが、まさに今、新たな勢いを見せています。 機械学習のアルゴリズムは長年にわたり数多く存在してきましたが、ビッグデータに対して複雑な数値計算を自動的に、超
はじめに DeepLearningを学び出してから2週間ほど経ちました。そろそろ学んだことが頭から零れ落ちる音がしてきたので、整理がてらにアウトプットしたいと思います。今回から複数回に渡ってDNNを構築していきます。今回はフォワードプロパゲーション編です。 作成するDNNについて 画像が猫である(1)かそれ以外である(0)かを判定するネットワークを構築します。 使用するデータ 209枚の画像をトレーニングデータとし、50枚の画像をテストデータとして使用します。それぞれの画像のサイズは64 * 64です。 Number of training examples : 209 Number of testing examples : 50 Each image is of size : 64 * 64
機械学習において、Feature Hashing(フィーチャーハッシング)は、高速かつ省メモリな特徴量をベクトルに変換する手法であり、任意の特徴をベクトルあるいは行列のインデックスに変換する。kernel trick(カーネルトリック)に似せてHashing Trick(ハッシュトリック)とも呼ばれる[1]。連想配列を走査するのではなく、ハッシュ関数を特徴量に適用し、その値をインデックスとして直接使用する。 使用例[編集] 典型的な文書分類のタスクにおいて、機械学習アルゴリズムには(学習と分類の両方において)自由な形式のテキストが入力される。このテキストからBag of words(英語版)(BOW)表現が作られる。つまり、トークンが抽出・カウントされ、訓練データ中のそれぞれのトークンが、訓練データ・テストデータ両方におけるそれぞれの文書の特徴量(独立変数)として定義される。 ところが、ほ
Feature scaling is a method used to normalize the range of independent variables or features of data. In data processing, it is also known as data normalization and is generally performed during the data preprocessing step. Motivation[edit] Since the range of values of raw data varies widely, in some machine learning algorithms, objective functions will not work properly without normalization. For
sklearn.tree.DecisionTreeClassifier¶ class sklearn.tree.DecisionTreeClassifier(*, criterion='gini', splitter='best', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, class_weight=None, ccp_alpha=0.0, monotonic_cst=None)[source]¶ A decision tree classifier. Read more in the Us
新型コロナウィルス感染拡大に伴い不要の外出を控える社会人や学生のみなさまに向け、 JDLA認定プログラムを実施する事業者の協力を得て、一部のオンライン学習コンテンツを期間限定で無料公開いたします *2020年1月20日に「INTLOOP株式会社」の講座を追加しました *12月1日に「エッジテクノロジー株式会社」の講座提供期間を延長しました *5月19日に「スキルアップ株式会社」の講座期間定めなし、申込み方法追加しました *5月13日に「スキルアップ株式会社」の1講座を追加しました *5月1日に「Study-AI株式会社」の3講座を追加しました *4月27日に「NTTラーニングシステムズ株式会社」の1講座を追加しました *4月24日に「株式会社日経BP」の1講座を追加しました *4月17日に「エッジテクノロジー株式会社」の3講座を追加しました *4月9日に「株式会社キカガク」の1講座を追加し
Kaggleに登録したら次にやること ~ これだけやれば十分闘える!Titanicの先へ行く入門 10 Kernel ~PythonKaggle 事業会社でデータサイエンティストをしているu++です。普段ははてなブログ1で、Kaggleや自然言語処理などデータ分析に関する記事を定期的に書いています。 Kaggleでは2019年に「PetFinder.my Adoption Prediction」2というコンペで優勝(チーム)し、「Santander Value Prediction Challenge」3というコンペで銀メダルを獲得(個人)しました。「Kaggle Master」と呼ばれる称号4を得ており、Kaggle内ランクは、約16万人中最高229位です5。 本記事では「Kaggleに登録したら次にやること」と題して、Kaggleに入門したい方に向けて次のようなコンテンツを掲載します。
初投稿です 追記(20171031) HTMLを出力する際のエンコードがasciiだったため日本語が文字化けしていましたが、UTF-8をサポートするようになったようです! 下記に文字化け対策の文章がありますが、読み飛ばしていただければ幸いです。 導入 セクシーなデータサイエンティストの皆様におかれましては、日々の業務で様々な機械学習のモデルを構築しておられるかと思います。それは例えば、あるサービスのユーザ情報を用いてコンバージョンするかしないかを予測していたり、またある時は年収を回帰で予測していたり、またあるときはユーザが投稿した画像情報についての二値分類やテキストデータについてのネガポジ分類をしていたりすることでしょう。 これらにつきものなのが、この予測モデルを実装する際の関係者への説明です。このモデルはどうしてこのような結果を出しているのか、なんでこのユーザは低い年収だと判定されている
In statistics and machine learning, ensemble methods use multiple learning algorithms to obtain better predictive performance than could be obtained from any of the constituent learning algorithms alone.[1][2][3] Unlike a statistical ensemble in statistical mechanics, which is usually infinite, a machine learning ensemble consists of only a concrete finite set of alternative models, but typically
数学・統計学・計算機科学において、特に機械学習と逆問題において、正則化(せいそくか、英: regularization)とは、不良設定問題を解いたり過学習を防いだりするために、情報を追加する手法である。モデルの複雑さに罰則を科すために導入され、なめらかでないことに罰則をかけたり、パラメータのノルムの大きさに罰則をかけたりする。 正則化の理論的正当化はオッカムの剃刀にある。ベイジアンの観点では、多くの正則化の手法は、モデルのパラメータの事前情報にあたる。 統計および機械学習における正則化[編集] 統計および機械学習において、正則化はモデルのパラメータの学習に使われ、特に過学習を防ぎ、汎化能力を高めるために使われる。 機械学習において最も一般的なのは L1 正則化 (p=1) と L2 正則化 (p=2) である。損失関数 の代わりに、 を使用する。 はパラメータのベクトルで、 は L1 ノル
In machine learning and statistical classification, multiclass classification or multinomial classification is the problem of classifying instances into one of three or more classes (classifying instances into one of two classes is called binary classification). While many classification algorithms (notably multinomial logistic regression) naturally permit the use of more than two classes, some ar
はじめに こちらの記事の内容を1枚絵にまとめたものになります。以下、文章で少しだけ補足します。 正解率系の各種指標について (参考)こちらの記事より引用させて頂きました。 クラス分類モデルの性能評価には様々な評価指標が存在しますが、上記の各種指標の計算で諸々算出されます。 用語を覚える際に混乱してしまいがちですが、以下の関係性さえ理解しておけば丸暗記しなくても思い出せます。 前一文字:正解か不正解かを示す -> T or F 後一文字:モデルからの予測分類を示す -> P or N 偽陽性は、FP(間違って陽性判定した数) / FP + TN(陰性全体の母数) 真陽性は、TP(正しく陽性判定した数) / TP + FN(陽性全体の母数) テキストでROC曲線とAUCをまとめる ①ROC曲線ってなんだ? クラス分類するためのスコア閾値を外部の変数として変化させ、偽陽性率を横軸に、真陽性率を縦
ちょっと前に、しょうもないことを某所で放言したら思いの外拡散されてしまいました。 機械学習の説明可能性(解釈性)、大半のケースで求められているのは厳密な分類・回帰根拠ではなく受け手の「納得感」なので、特に実ビジネス上は説明可能性に長けたモデルを開発するより、納得できないお客さんを巧みに関係性構築した上で口八丁で完璧に説得できる凄腕営業ピープルを雇う方が重要— TJO (@TJO_datasci) 2019年11月23日 これ自体は与太話なので実際どうでも良い*1のですが、最近色々な研究や技術開発の進展はたまた実務家による考察などを見ていて、「機械学習の説明可能性(解釈性)というのは思った以上に複雑な迷宮だ」と感じることがままあったのでした。 ということで、今回の記事では僕のサーベイの範囲でザッと見て目についた資料などを超絶大雑把にリストアップした上で、主に実務における説明可能性とは何かとい
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く