2019年11月24日のブックマーク (5件)

  • eスポーツに新機軸? 「サイバー剣術」を開発した孤高の武術家:DANRO

    ▼ターゲット ●30代・40代男女(スマホは20代後半、PCは50代前半にも) ▼特徴 ●国内最大級、安心・安全なジャーナリズムメディア ●リッチなクリエイティブも制作可能。データマーケティングにも注力 ▼ターゲット ●訪問者の約6割が「月4回以上訪問する」リピーター。ファッション・カルチャーなど、日々の暮らしを大切にしたい30代後半~40代女性 ▼特徴 ●読者の心を震わせる“共感型”マガジン。市井の人々の台所を訪問して珠玉のエピソードを引き出す『東京の台所』など人気連載多数

    eスポーツに新機軸? 「サイバー剣術」を開発した孤高の武術家:DANRO
    e-domon
    e-domon 2019/11/24
    メフロキンの副作用は恐ろしい。最近、東南アジアではメルロキン耐性マラリアが増えてきているので、そのうちマラロンにとって代わられると思う。
  • 「景気後退の兆候」が続々…安倍首相は「補正予算」や「本予算積み増し」など、手を打って(夕刊フジ) - Yahoo!ニュース

    e-domon
    e-domon 2019/11/24
    結構長期間にわたって補正予算が恒常化しているので、政府の基本的な機能を支える骨格予算+経常的な事業費と、景気対策の18ヶ月(あるいは6ヶ月)予算を別建てに編成する制度にしてはどうなのだろう。
  • 学環・学府特任准教授の不適切な書き込みに関する見解 - 東京大学大学院 情報学環・学際情報学府

    November 24, 2019 学環・学府特任准教授の不適切な書き込みに関する見解A message about inappropriate writings by a part-time project faculty of III/GSII SNS等におきまして、東京大学大学院情報学環・学際情報学府(以下、学環・学府)の特定短時間勤務有期雇用教職員(特任准教授)による、特定個人及び特定の国やその国の人々に関する不適切な書き込みが複数なされました。 これらの書き込みは、当該教員個人または兼務先組織に関するものであり、学環・学府の活動とは一切関係がありません。 東京大学憲章では、「東京大学は、構成員の多様性が質的に重要な意味をもつことを認識し、すべての構成員が国籍、性別、年齢、言語、宗教、政治上その他の意見、出身、財産、門地その他の地位、婚姻上の地位、家庭における地位、障害、疾患、経

    学環・学府特任准教授の不適切な書き込みに関する見解 - 東京大学大学院 情報学環・学際情報学府
    e-domon
    e-domon 2019/11/24
    前半の見解の通りなら、最後に大学が組織としてお詫びする必要性と意義はなんだろうか?
  • 招待者名簿の廃棄「答える立場にない」公文書担当の大臣:朝日新聞デジタル

    国の税金を使い、首相が主催する「桜を見る会」をめぐり、政府が今年の招待者名簿を野党議員による資料要求と同じ日に廃棄したとされることについて、公文書管理を担当する北村誠吾地方創生相は22日の閣議後会見で、「お答えする立場にない」と繰り返した。 招待者名簿は、共産党の議員が資料を要求した5月9日に内閣府のシュレッダーで細断したとされる。内閣府は国会で「各局の使用が重なって調整した結果」と説明している。 北村氏は会見で、「恣意(しい)的な破棄ではないか」などと問われたことに対し、「行政文書管理規則に基づいて保存期間が適切に設定されている。個々の行政文書の取り扱いについてはそれぞれの文書を管理する担当にお尋ねを」と説明した。そして、「シュレッダーを用いてどうこうということについては、私としてはお答えをする立場にはない」と述べた。 一方、「政府としては、できるだけご理解いただけるように調査を詳しくし

    招待者名簿の廃棄「答える立場にない」公文書担当の大臣:朝日新聞デジタル
    e-domon
    e-domon 2019/11/24
    そこは「お答え”できる”立場ではない」でしょ。
  • グーグル「Explainable AI」発表--機械学習モデルが結論を得るプロセスの透明性向上へ

    ほとんどの人が何らかのアルゴリズムに日々接している一方、人工知能AI)がどのように機能するのか、実際に理解していると自信を持って言える人はそれほど多くない。しかし、Googleが英国で現地時間11月20日から開催している「Google Cloud Next '19 UK」で発表した新たなツールは、一般の人々が機械学習(ML)の難解さをひもとくうえで力となるはずだ。 「Explainable AI」(説明可能なAI)と呼ばれるこのツールは、MLモデルが思考を重ねる手法と、結論に至った理由をユーザーに説明するという、その名が示す通りの機能を有している。 Explainable AIは、そういった機能を実現するために、データセット内の各特徴がアルゴリズムの導き出した結果にどの程度の影響を与えたのかを定量化する。つまり、それぞれのデータ係数には、MLモデルにどの程度影響を与えたのかを示すスコアが

    グーグル「Explainable AI」発表--機械学習モデルが結論を得るプロセスの透明性向上へ
    e-domon
    e-domon 2019/11/24
    AIのブラックボックスの透明化であり、積年の課題である多変量解析における変数選択の問題に対する一つのアプローチでもある。