タグ

2020年2月15日のブックマーク (7件)

  • 当社拠点における新型コロナウイルス感染者の発生について | NTTデータ

    当社拠点ビルに勤務している協働者1名が新型コロナウイルスに感染していることを日確認しました。 件を受けて、社員の健康と事業継続を保てるよう社対策部を設置し、所管保健所と連携を図り対応を進めてきました。その結果、感染者の当社拠点ビルにおける行動履歴と、14名の濃厚接触者が保健所によって特定されております。 感染者が発生したビルに対しては、日時点で以下の対応を取っております。

    当社拠点における新型コロナウイルス感染者の発生について | NTTデータ
    kaz_hiramatsu
    kaz_hiramatsu 2020/02/15
    いやいろいろまずいでしょこれ。。
  • “日本はすでに感染拡大”WHO専門家|日テレNEWS NNN

    「新型コロナウイルス」の流行について、WHOの専門家は、他の国とは違って、日では感染者が出た場合、誰から感染したか、感染経路が把握できない状態になっているとして、すでに感染が拡大しているという見方を示し、感染拡大の防止に取り組むよう訴えた。 14日、横浜市で開かれた日感染症学会などの緊急セミナーでWHO世界保健機関のシニアアドバイザー・進藤奈邦子さんが講演した。 進藤さんは、「他の国では、全部の感染者が(誰から感染したのか経路が)追える。感染者と接触した人も全部調査が終わってその中から陽性患者が出ているけども、そこから先に感染は広がっていない。日だけ様相が違う」と述べ、日国内で、誰から感染したかわからないほど感染が広まり、感染経路を把握して、そこでい止められる段階ではないことを示唆した。 また、中国では新たな感染者は減少の傾向にあるとした。そして、「ウイルスの撲滅は日にかかって

    “日本はすでに感染拡大”WHO専門家|日テレNEWS NNN
  • XGBoostのお気持ちをちょっとだけ理解するためのメモ - Qiita

    現在、Kaggleにてよく使われる手法の一つにGBDT(Gradient Boosting Decision Tree)があります。さらにその種類の1つXGBoostはKagglerによりその効果を検証され非常に人気の高いアルゴリズム・実装です。このブログでは、XGBoostの論文からアルゴリズムを理解するための主要な部分、 TREE BOOSTING IN A NUTSHELL 2.1 Regularized Learning Objective 2.2 Gradient Tree Boosting を丁寧に解説することを目的に書いています。 また、ここで解説した理論、アルゴリズムについてはLightGBMにおいてもほぼ同じと思いますので、合わせて参考になるかと思います。 おことわり しかしながら、最初におことわりをさせていただくのですが、markdowntexでキレイにまとめる余裕が

    XGBoostのお気持ちをちょっとだけ理解するためのメモ - Qiita
  • XGBoost論文を丁寧に解説する(1) - Qiita

    はじめに 勾配ブーストを用いた決定木(GBDT)によるクラス分類や回帰はデータ分析コンペでも非常によく使われています。 その中でも2016年に出されたXGBoostはLightGBMと並びよく使われている手法です。 性能が良いことで有名なXGBoost, LightGBMですが、モデル内部でどのような処理が行われているかよくわかっていなかったので論文を読んでみました。 式変形の省略が多く、またイメージしづらい箇所もあり、読みづらかったのですが 一度イメージできれば割とあっさり理解できます。 その体験を踏まえて、イメージ図を多く取り入れながらXGBoostの論文を(途中まで)丁寧に解説します。 XGBoost: A Scalable Tree Boosting System 論文 この記事で述べること データの入出力 XGBoostの木構造 損失関数とboosting 木構造の学習(spli

    XGBoost論文を丁寧に解説する(1) - Qiita
  • prefork サーバーと thundering herd 問題 - naoyaのはてなダイアリー

    Catalyst を POE で動かす Engine の Catalyst::Engine::HTTP::POE という実装が CPAN にあります。"Single-threaded multi-tasking Catalyst engine " だそうです。"Single-threaded" と言いつつも実装を覗いてみると環境変数 CATALYST_POE_MAX_PROC を 1 よりも大きく設定することで prefork する実装になってます。POEシングルスレッドではアプリケーション内で発生するブロックを避けることが難しいのでそのための実装じゃないかなと思います。 ところでこの Catalyst POE エンジン、prefork の実装はどのように行っているかというと POE から prefork と名の付いたイベントが発生するとおもむろに子プロセスを生成する、というのもの。複数の

    prefork サーバーと thundering herd 問題 - naoyaのはてなダイアリー
  • ノンパラメトリック回帰についての定番質問

    ノンパラメトリック回帰の広場の表紙に戻る Q1:ノンパラメトリック回帰って何ですか? Q2:ノンパラメトリック検定(ウィルコクスン検定とか)は、ノンパラメトリック回帰と関係あるんですか? Q3:ノンパラメトリック統計というのは、ノンパラメトリック回帰のことですか? Q4:ニューラルネットワークとノンパラメトリック回帰は関係がありますか? Q5:樹形モデルもノンパラメトリック回帰ですか? Q6:ノンパラメトリック回帰よりデータマイニングの方が盛んなのは何故ですか? Q7:平滑化ってノンパラメトリック回帰の別名ですか? Q8:平滑化パラメータって何ですか? バンド幅と違うのですか? Q9:平滑化スプラインの平滑化パラメータの値はどのくらいがいいのですか? Q10:局所1次式回帰、局所2次式回帰、局所3次式回帰、---、といろいろ考えられます。どれを使えばいいですか? Q11:ノンパラメトリック

  • 機械学習を始めたい人のための入門書 - Qiita

    これまでに読んだ機械学習関連のの中で、当にいいと思ったを紹介したいと思います。付随する難易度は目安です。 機械学習、AI ・[難易度★]人工知能は人間を超えるか(松尾 豊)(Amazon) AIブームの流れ、AIでどの辺りまでできるのか、日のおける問題点、などがすごく分かり易く書いてあります。全体像が分かるので、機械学習を学び始める第一歩としておススメです。 ・[難易度★★]データマイニング入門(豊田 秀樹)(Amazon) Rのコードが書いていますが、Rをやらない人はコードを飛ばして読んでいいです。色んなアルゴリズムがかなり丁寧に解説されているので、アルゴリズムを知りたい時の最初のとしては最適と思われます。決定木、自己組織化マップ、アソシエーション分析、クラスター分析が非常に分かりやすいです。※ニューラルネットワークの説明はやや微妙と感じました。 ・[難易度★★★]はじめてのパ

    機械学習を始めたい人のための入門書 - Qiita