タグ

関連タグで絞り込む (256)

タグの絞り込みを解除

学習に関するcartman0のブックマーク (110)

  • 自己書き換えコード - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "自己書き換えコード" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2022年4月) 自己書き換えコード(じこかきかえコード、英: self-modifying code)とは、目的を問わず実行時に自分自身の命令を書き換えるコードを指す。 自己書き換えコードはアセンブリ言語を使用すると簡単に記述できる(CPUのキャッシュを考慮する必要がある)。 また、SNOBOL4やLISPのようなインタプリタ型の高級言語でもサポートされている。また、COBOLにはALTERという命令が存在していた。 コンパイラで実装するのは難しいが、CLIPPERとS

  • Mastering MuseScore

  • オンライン聴音 - 洗足オンラインスクール

    オンライン聴音810 インターネットで聴音を無料学習できるシステムの中で世界最高峰の問題数。 導入から入試対策まで幅広いレヴェルに対応。 課題実施前に画面上の鍵盤に触れることもできるため、自宅学習の効率がアップ! STEP1~9 旋律聴音(270問) 複旋律聴音(90問) 和声聴音(270問) リズム聴音(180問)

  • CODEPREP | プログラムを書いて動かしながら学ぶ実践型のプログラミング学習サービス

    CODEPREPはオンラインプログラミング学習サービスです。1日10分プログラムを書くことで「毎日こつこつプログラムを書く習慣」と「作ったものを動かす体験」を提供し、プログラミング学習の「継続」をサポートしていきます。そうして、一人でも多くのユーザにプログラミングの楽しさを感じてもらうことをサポートしてまいります。

    CODEPREP | プログラムを書いて動かしながら学ぶ実践型のプログラミング学習サービス
  • 大学での経済学の学び方

    この文書は,これから経済学を勉強しようとしている人たち(経済学部生だけではなく,他学部生,社会人,高校生も含みます)を主たる対象にして,大学で経済学を学ぶときにまず心得えておくべきことを説明します(大学院での経済学の学び方については,こちらをご覧ください)。 経済学を学ぶことの意義や,特定の科目の学習方法については,教科書や授業を通して説明されることと思います。しかし,かりにすべての履修科目で優秀な成績を修めても,全体的な手順が悪ければ,かならずしも充実した学習とはならないおそれがあります。効果的に経済学を学習するためには,最初に,(1)大学で経済学を学ぶことが将来の進路とどう関連しているのか,(2)経済学部のカリキュラムはどのような方針で編成されているのか,を理解しておく必要があります。 なぜ大学で経済学を学ぶのか 経済学を学ぶことの意義については,入門用の教科書がいろいろと工夫して説明

    cartman0
    cartman0 2021/04/06
  • 世界史の窓

    用語集は常時、修正・加筆を加えています。更新ボタンをクリックして下さい。 用語集のスマホ版(同内容)もあります。 更新情報

  • ただよび

    今、頑張れないヤツは 一生頑張れない! 神奈川県鎌倉市生まれ。中学時代から暴走族に加わり特攻隊長となる。高校卒業後、中古自動車販売の仕事をするが、失恋をきっかけに20歳の9月に大学受験を決意。約4ヶ月の猛勉強で国語の偏差値を25から86に上げ、國學院大学文学部に合格する。 大学卒業後、代ゼミで16年間、東進ハイスクールで12年間、No.1古文講師を経て、長年の夢であった「教育の無償化」を実現するため、YouTubeの予備校「ただよび」を開校! 膨大な努力を傾けた綿密な入試問題分析と独自の教授ノウハウが凝縮された熱い講義でダントツの人気と信頼を誇り、100万人を合格に導いてきた、超人気実力講師の授業をYouTubeを通じて完全無料公開! 【著書】『吉野の古典文法 スーパー暗記帖 改訂版』『吉野式 スーパー古文敬語 完璧バージョン』『吉野式 爆走古文単語 完璧バージョン』(学研)『今、頑張れな

    ただよび
  • オンラインで入手できる数理論理学・数学基礎論のテキスト

    オンラインで入手できる数理論理学・数学基礎論のテキスト 数理論理学、数学基礎論の教科書的に使えるテキスト(講義ノート、サーヴェイ、モノグラフ等)のうち、オンラインで入手できるものを集めました。 入門的概説 論理一般 高階論理と型理論 直観主義論理 コンビネータとラムダ計算 時相論理および時制論理 様相論理 適切さの論理 自然言語の論理 空間論理 モデル理論 安定性理論 無限論理 計算可能性理論および再帰理論 集合論 pcf理論 記述集合論 実数の集合論 選択公理 強制法と内部モデル 連続体仮説 NF 証明論と構成的数学 順序数解析 算術の体系と不完全性 証明可能性論理 線形論理 構成的数学 代数的論理と圏論 ブール代数 普遍代数 量子論理 圏論 歴史 入門的概説 [▲] 加茂静夫,「数理論理学(命題論理と述語論理)」.[PDF] 嘉田勝,「数理論理学 講義ノート(2013年度版)」. St

  • 一週間で身につくC#言語の基本|トップページ~C#言語の初心者でも、簡単にプログラミングが気軽に学習できるサイトです。

    編 これからプログラミングを学ぶ初心者に、C#を1週間で身につけてもらうための内容です。内容は以下のようになっています。

  • Googleが開発した多言語の埋め込みモデル「LaBSE」を使って多言語のテキスト分類 - Ahogrammer

    自然言語処理において、テキストをその意味を考慮しつつ固定長のベクトルに変換する埋め込みモデルは重要です。文の意味をよく表現したベクトルを作ることができれば、テキスト分類や情報検索、文類似度など、さまざまなタスクで役立ちます。記事では、Googleが開発した多言語の埋め込みモデル「LaBSE」を使って、テキスト分類をする方法を紹介します。単なるテキスト分類では面白くないため、学習には英語のデータセットを使い、評価には日語とフランス語のデータセットを使います。 記事では要点だけを紹介するので、コードについては以下のノートブックを参照してください。 Text Classification with LaBSE LaBSE LaBSEは、Googleが「Language-agnostic BERT Sentence Embedding」という論文で提案したモデルです。109の言語に対応しており

    Googleが開発した多言語の埋め込みモデル「LaBSE」を使って多言語のテキスト分類 - Ahogrammer
  • Kaggleとは?機械学習初心者が知っておくべき3つの使い方

    機械学習の基礎用語や初歩的な手法、数学的な理解を深めませんか?環境構築が不要、オンラインで実行が可能な機械学習入門チュートリアルを公開中!機械学習の世界へ飛び込んでみませんか? スクラッチで最小二乗法と最急降下法をPythonでコーディング(線形回帰) ロジスティック回帰の概要や数学的理解と実践に役立つ知識(ロジスティック回帰) まず呼び方ですが、Kaggleと書いて「カグル」と読みます。日でも最近は定着してきましたが、Kaggleに参加している方を「カグラー(Kaggler)」とも呼びます。 Kaggleですが、サイトへ行くと一番上に書かれていますが「The Home of Data Science & Machine Learning」(データサイエンスと機械学習の家)と題されている通り、世界中の機械学習・データサイエンスに携わっている約40万人の方が集まるコミニティーです。 Ka

    Kaggleとは?機械学習初心者が知っておくべき3つの使い方
  • dfltweb1.onamae.com – このドメインはお名前.comで取得されています。

    このドメインは お名前.com から取得されました。 お名前.com は GMOインターネットグループ(株) が運営する国内シェアNo.1のドメイン登録サービスです。 ※表示価格は、全て税込です。 ※サービス品質維持のため、一時的に対象となる料金へ一定割合の「サービス維持調整費」を加算させていただきます。 ※1 「国内シェア」は、ICANN(インターネットのドメイン名などの資源を管理する非営利団体)の公表数値をもとに集計。gTLDが集計の対象。 日のドメイン登録業者(レジストラ)(「ICANNがレジストラとして認定した企業」一覧(InterNIC提供)内に「Japan」の記載があるもの)を対象。 レジストラ「GMO Internet Group, Inc. d/b/a Onamae.com」のシェア値を集計。 2023年5月時点の調査。

    dfltweb1.onamae.com – このドメインはお名前.comで取得されています。
  • GraphLassoを用いた株式市場の構造学習 - Qiita

    1. 初めに こちらのページを参考に,株価の構造を直接相関に着目して浮き上がらせ,可視化的にも計算的にも取り扱いやすい疎なグラフへ変換します. 最終的には次のような特定のエッジが強調された対マルコフグラフを描写します. Kaggleの記事でも紹介しましたが,このような変数間の相関関係を教師なし学習で把握することは,機械学習の予測精度を向上させる変数を新たに作成するため,非常に役立つ手段となりえます. また,今回は一般的なピアソン相関ではなく,GraphLassoを用いて対マルコフグラフを描写します.通常,変数間の相関関係は直接相関と間接相関の2種類が含まれています.間接相関とは,来では因果関係が成立しないはずの変数間で第三因子の存在により相関が発生する,見かけ上の相関を意味します.SklearnのGraphLassoは,各変数の確率密度関数がガウス分布に基づくという前提のもと,精度行列を

    GraphLassoを用いた株式市場の構造学習 - Qiita
  • 【ROC曲線とAUC】機械学習の評価指標についての基礎講座 - これで無理なら諦めて!世界一やさしいデータ分析教室

    機械学習ではモデルを作って終わり、ということは無く、モデル作成後にテストデータを使って「当に良いモデルなのか?」という評価を必ず行う必要があります。 では具体的にどのように評価をすれば良いのか?という話になりますが、今回は代表的な評価指標である ROC AUC ついて説明していきます。 この辺りについては、以下書籍でよくまとまっているので、よろしければ是非! Pythonと実データで遊んで学ぶ データ分析講座 作者: 梅津雄一,中野貴広出版社/メーカー: シーアンドアール研究所発売日: 2019/08/10メディア: 単行(ソフトカバー)この商品を含むブログを見る ※追記※ スマホだと数式がうまく表示されない可能性がありますので、こちらのリンク、もしくはPCから購読頂けますと幸いです。 正解率の問題点と、偽陽性率と真陽性率ROC・AUCに入る前に、それらを計算するための性能評価値につい

    【ROC曲線とAUC】機械学習の評価指標についての基礎講座 - これで無理なら諦めて!世界一やさしいデータ分析教室
  • XGBoostの概要 - ともにゃん的データ分析ブログ

    XGBoostの凄さに最近気がついたので、もうちょっと詳しく知りたいと思って以下の論文を読みました。 XGBoost: A Scalable Tree Boosting System せっかくなので、簡単にまとめてみたいと思います。。。と思っていたら結構な量になってしいました。 何か間違い等がありましたらコメントをしていただくか、@kefism へ連絡をしてくださると嬉しいです。 XGBoostとは 基的に内部で行われていることは決定木を複数個作るということです。しかし、その作り方に特徴があります。 ここで記号を定義しておきましょう。 説明変数を次元として、目的変数を、とします。ここではデータの数です。またデータに対する予測値をとします。 まず決定木を1つ構築します。するとその決定木を使用して予測ができるようになります。1つ目の決定木から得られるデータに対する予測値をとしましょう。このと

  • F値 - 機械学習の「朱鷺の杜Wiki」

    正解率 (精度, accuracy):正や負と予測したデータのうち,実際にそうであるものの割合 \[\mathrm{Accuracy}=\frac{TP+TN}{TP+FP+TN+FN}\] 適合率 (precision):正と予測したデータのうち,実際に正であるものの割合 \[\mathrm{Precision}=\frac{TP}{TP+FP}\] 再現率 (recall, 感度, sensitivity):実際に正であるもののうち,正であると予測されたものの割合 \[\mathrm{Recall}=\frac{TP}{TP+FN}\] 特異度 (specificity):実際に負であるもののうち,負であると予測されたものの割合 \[\mathrm{Specificity}=\frac{TN}{FP+TN}\] F値 (F尺度, F-measure):再現率と適合率の調和平均. \[\

  • Python: パラメータ選択を伴う機械学習モデルの交差検証について - CUBE SUGAR CONTAINER

    今回は、ハイパーパラメータ選びを含む機械学習モデルの交差検証について書いてみる。 このとき、交差検証のやり方がまずいと汎化性能を来よりも高く見積もってしまう恐れがある。 汎化性能というのは、未知のデータに対処する能力のことを指す。 ようするに、いざモデルを実環境に投入してみたら想定よりも性能が出ない (Underperform) ということが起こる。 これを防ぐには、交差検証の中でも Nested Cross Validation (Nested CV) あるいは Double Cross Validation と呼ばれる手法を使う。 ハイパーパラメータの選び方としては、色々な組み合わせをとにかく試すグリッドサーチという方法を例にする。 また、モデルのアルゴリズムにはサポートベクターマシンを使った。 これは、サポートベクターマシンはハイパーパラメータの変更に対して敏感な印象があるため。

    Python: パラメータ選択を伴う機械学習モデルの交差検証について - CUBE SUGAR CONTAINER
  • Bagging(バギング)について調べたのでまとめた:Out-of-Bag(OOB) / Random Forest / Decision Jungles / Deep Forest(gcForest) - St_Hakky’s blog

    こんにちは。 Kaggleをやるにあたって(というかふつうに勉強したかったのもある)、アンサンブル学習の方法は勉強しておく必要があるようなーと思って、勉強してみました。 他のブースティングやスタッキング、アンサンブル学習全般については以下の記事をどうぞ。 st-hakky.hatenablog.com それでは、調べた内容についてまとめていきたいと思います。 ◯Bagging(バギング)とは Bagging(バギング)は、bootstrap aggregatingの略です。名前から分かる通り、各学習器に使う学習用データをブースストラップサンプリングによって得て、その学習した学習器を予測に用いて最後アンサンブルするという方法になります。 あんまり区別がされている資料を見かけないんですが、これとよく似た方法にPastingというものもあります。Pastingは、重複有りのランダムなbootst

    Bagging(バギング)について調べたのでまとめた:Out-of-Bag(OOB) / Random Forest / Decision Jungles / Deep Forest(gcForest) - St_Hakky’s blog
  • 振り返り6ツール比較!! 〜YWTとKPTとPDCAの違い(あとLAMDAとか経験学習モデルとか)〜 - ざっくんのブログ

    こんにちは。ざっくんです。 最近は記事の更新頻度がめっきり少なくなっていました。その辺の、習慣化なのか自制・意志の強さなのかとかの振り返りはまた今度記事にするとして。 今回は前々からまとめようと思っていた「振り返りツール」的な奴らの話をしたいと思います。いろんな種類があって、どれがいいの?とかってなることが多いと思うので自分の中の整理も兼ねて。 この記事の要約 ◆それぞれのツールをいい感じにまとめるとこんな感じ 概要 思考(実行)の流れとの対応 ◆「こんな時はこれを使え!」ってやつははっきり言ってない。目的に合わせてカスタマイズして使うといいと思う。ただまぁ一応、オススメの使い方はこんな感じ。 毎日の個人の振り返り:YWT+経験学習モデル+α イベントの運営振り返り:YWTかKPT イベントでの参加者の学びを深める振り返り:経験学習モデル+グラフィックハーベスティング チームの改善:KPT

    振り返り6ツール比較!! 〜YWTとKPTとPDCAの違い(あとLAMDAとか経験学習モデルとか)〜 - ざっくんのブログ
  • ニュース原稿に特化した日英翻訳AI 約50万対の学習データを手作業で NHKが開発

    「翻訳AIを作るために、約50万対の翻訳データを手作業で作成した」――NHK放送技術研究所の担当者は、日英翻訳AI人工知能)の開発についてこう説明した。 NHK放送技術研究所は5月28日、AIを活用したニュース原稿の日英翻訳技術を報道陣向けに公開した。一文が70~80文字程度の原稿を、より正確に翻訳できるという。イベント「技研公開2019」(5月30日~6月2日)で一般公開する。 操作画面は一般的な翻訳サイトとほぼ同じ。日語の文章を入力して実行ボタンを押すと8秒程度で英訳する。ニュース原稿特有の文章を翻訳する用途に絞ることで、誤訳を従来の技術の3分の1まで減らした。NHKのニュース原稿は他のメディアに比べて一文が長い特徴があり、一般的な英訳システムの使用は難しいという。翻訳家はAIが英訳した文章を監修するだけで済むため、作業の高速化や人件費削減が望める。 この日英翻訳AIは、日語の文

    ニュース原稿に特化した日英翻訳AI 約50万対の学習データを手作業で NHKが開発
    cartman0
    cartman0 2019/05/31
    ローカルのニュースには弱そうやな