ブックマーク / blog.amedama.jp (4)

  • 「Linuxで動かしながら学ぶTCP/IPネットワーク入門」という本を書きました - CUBE SUGAR CONTAINER

    表題のとおり TCP/IP に関するを書きました。 今回は、そのご紹介です! Linuxで動かしながら学ぶTCP/IPネットワーク入門 作者:もみじあめAmazon どんななの? Linux を使って実際にネットワークを組んで動かしながら TCP/IP について学べるです。 実際に手を動かすことで、より実践的で風化しにくい知識と技術を身につけることがの目的です。 こんな人にオススメ 次のいずれかに当てはまるような方には、このが参考になると思います。 ネットワークが専門ではない IT エンジニア、またはそれを志す学生さん 他の TCP/IP に関するを読んだことはあるけど、身についている実感が少ない インターネットやインフラの技術についてよく知らないけど興味はある ネットワークを気軽に組んで実験できる環境の作り方に興味がある そして、このを読んで試した後には、次のような効果が見

    「Linuxで動かしながら学ぶTCP/IPネットワーク入門」という本を書きました - CUBE SUGAR CONTAINER
    saruzo69
    saruzo69 2020/03/03
    “「Linuxで動かしながら学ぶTCP/IPネットワーク入門」という本を書きました”
  • Python: seaborn を使った可視化を試してみる - CUBE SUGAR CONTAINER

    今回は、Python の有名な可視化ライブラリである matplotlib のラッパーとして動作する seaborn を試してみる。 seaborn を使うと、よく必要になる割に matplotlib をそのまま使うと面倒なグラフが簡単に描ける。 毎回、使うときに検索することになるので備忘録を兼ねて。 使った環境は次の通り。 $ sw_vers ProductName: Mac OS X ProductVersion: 10.14.4 BuildVersion: 18E226 $ python -V Python 3.7.3 もくじ もくじ 下準備 Relational plots scatter plot (散布図) line plot (折れ線グラフ) Categorical plots strip plot (ストリップチャート) swarm plot (スウォームチャート) box

    Python: seaborn を使った可視化を試してみる - CUBE SUGAR CONTAINER
    saruzo69
    saruzo69 2019/05/01
  • Python: RFE (Recursive Feature Elimination) で特徴量を選択してみる - CUBE SUGAR CONTAINER

    今回は RFE (Recursive Feature Elimination) と呼ばれる手法を使って特徴量選択 (Feature Selection) してみる。 教師データの中には、モデルの性能に寄与しない特徴量が含まれている場合がある。 アルゴリズムがノイズに対して理想的にロバストであれば、有効な特徴量だけを読み取って学習するため特徴量選択は不要かもしれない。 しかしながら、現実的にはそのような仮定を置くことが難しい場合があると思う。 そこで、元の特徴量からモデルの性能に寄与する部分集合を取り出す作業を特徴量選択という。 特徴量選択の手法には、以下の 3 つがあるようだ。 フィルター法 (Filter Method) 統計的な物差しにもとづいて特徴量を評価する ラッパー法 (Wrapper Method) 機械学習のモデルを用いて特徴量を評価する 組み込み法 (Embedding M

    Python: RFE (Recursive Feature Elimination) で特徴量を選択してみる - CUBE SUGAR CONTAINER
    saruzo69
    saruzo69 2019/04/21
  • Python: IsolationForest で教師なし学習の外れ値検知を試す - CUBE SUGAR CONTAINER

    今回は教師なし学習で外れ値の検知に使える IsolationForest というアルゴリズムを試してみる。 このアルゴリズムの興味深いところは、教師データの中にある程度外れ値が含まれていても構わないという点。 つまり、アノテーションしていないデータをそのまま突っ込むことが許容されている。 IsolationForest のアルゴリズムでは、決定木を使った分類しやすさにもとづいてデータが正常か外れ値かを判断する。 外れ値は正常なデータに比べると数が少なく、特徴が大きく異なると仮定する。 だとすると、外れ値は正常なデータに比べて分類するのに木の深さがより多く必要と考える。 使った環境は次の通り。 $ sw_vers ProductName: Mac OS X ProductVersion: 10.14.4 BuildVersion: 18E226 $ python -V Python 3.7.

    Python: IsolationForest で教師なし学習の外れ値検知を試す - CUBE SUGAR CONTAINER
    saruzo69
    saruzo69 2019/04/21
  • 1