タグ

2019年6月8日のブックマーク (4件)

  • 検査の精度(accuracy)

    検査の精度 (accuracy) 検査の目的は、病気のある者とない者とを識別することにある。病気のある者を「陽性」、病気のない者を「陰性」と正しく判定する能力が検査の精度である。具体的には感度、特異度などの指標がある。これらはトレード・オフの関係(トレード・オフの項 参照)にあり、個々に議論するべきではなく、併せて議論しなければならない。 ・ 感度(sensitivity) がん検診の場合にはある検査が、がんのある者を「陽性」と正しく判定する割合。下表の中、a/(a+b)の値である。感度が高いことは、検査法の見落としが少ないことを意味する。 ・ 特異度(specificity) ある検査が、がんのない者を「陰性」と正しく判定する場合。下表の中、d/(c+d)の値である。特異度が高いことは、偽陽性が少ないことを意味し、有病率が低い疾患であるがんを対象とした検診の場合では、最も重要な指標である

    osada5963
    osada5963 2019/06/08
  • Node.jsでFHIRサーバを立ち上げてみた - Qiita

    Node.jsで動くFHIRサーバを構築~実行テストまでを紹介します。 Asymmetrik社が開発したFHIRサーバ(node-fhir-server-mongo:https://github.com/Asymmetrik/node-fhir-server-mongo )を使用します。 記事は、ヘルスビット株式会社におけるプロジェクトの一環として、@S_aiueo32さんと調査、作成しております。 FHIRとは 情報通信技術の発展により、身の回りの情報を電子化し、保存・共有・活用するシーンが増えてきています。保健医療情報も例外ではなく、特にカルテの電子化は地方の病院まで広く行き届いています。しかし、電子保健医療情報には明確に定められたフォーマットが無く、医療機関間での相互運用に難があります。この障壁をなくすため、HL7(Health Level 7)というNPOが組織され、標準データフ

    Node.jsでFHIRサーバを立ち上げてみた - Qiita
    osada5963
    osada5963 2019/06/08
  • pytorchでBERTの日本語学習済みモデルを利用する - 文章埋め込み編

    概要 BERT (Bidirectional Encoder Representations from Transformers) は、NAACL2019で論文が発表される前から大きな注目を浴びていた強力な言語モデルです。これまで提案されてきたELMoやOpenAI-GPTと比較して、双方向コンテキストを同時に学習するモデルを提案し、大規模コーパスを用いた事前学習とタスク固有のfine-tuningを組み合わせることで、各種タスクでSOTAを達成しました。 そのように事前学習によって強力な言語モデルを獲得しているBERTですが、今回は日語の学習済みBERTモデルを利用して、文章埋め込み (Sentence Embedding) を計算してみようと思います。 環境 今回は京都大学の黒橋・河原研究室が公開している「BERT日語Pretrainedモデル」を利用します。 BERT日語Pre

    pytorchでBERTの日本語学習済みモデルを利用する - 文章埋め込み編
  • Googleが公開した自然言語処理の最新技術、BERTとは何者なのか

    3つの要点 ✔️ 自然言語の発展に大いに貢献 ✔️ 学習しなくても前に接続するだけで精度が向上 ✔️ 入出力に新規性 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding written by Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova (Submitted on 11 Oct 2018 (v1), last revised 24 May 2019 (this version, v2)) Comments: Published by NAACL-HLT 2019 Subjects: Computation and Language (cs.CL) はじめに 2019年2月に自然言語処理のトップカンファレンス

    Googleが公開した自然言語処理の最新技術、BERTとは何者なのか