タグ

2019年2月21日のブックマーク (5件)

  • みずほリサーチ&テクノロジーズ : 第三の選択肢

    2019年1月、Oracle Java SE 8の公式アップデート(無償サポート)が終了した。 Oracle社のJavaサポート方針変更に関する発表(*1)は2017年9月に遡るが、官公庁や企業の基幹系業務システムをはじめ、世の中の多くの情報システムがOracle Javaを使って開発されているため、強い衝撃を受けたことを思い出す。身近なところではTwitterのサイトもJavaで開発されている。筆者らが開発に携わっているWebシステムもOracle Java SE 8を使っていたため、無償サポート終了への対応をおこなった。 稿では、筆者らが採用した対応方法を紹介したいと思う。既に対応を終えた方にとっては今さらの情報であり、また、筆者らと同様に対応を検討した多くの開発者にとっては既知の情報であるが、これから対応を検討される方の参考となれば幸いである。 題に入る前にJavaの魅力について

    tinsep19
    tinsep19 2019/02/21
  • 東北大ら、0.1gの物体が生む重力を測定できるセンサー ~量子力学と相対性理論を統合した“万物の理論”に向け前進

    東北大ら、0.1gの物体が生む重力を測定できるセンサー ~量子力学と相対性理論を統合した“万物の理論”に向け前進
    tinsep19
    tinsep19 2019/02/21
  • 認証と認可の違い、説明できる? 「勇者王ガオガイガー」で解説してみる

    この記事は認証セキュリティ情報サイト「せぐなべ」に掲載された「架空世界 認証セキュリティセミナー 第11回『政府による認証と認可【勇者王ガオガイガー】』」(2017年12月7日掲載)を、ITmedia NEWS編集部で一部編集し、転載したものです。当時未発売だった製品やサービスの記述などは、記事掲載時の状況に合わせて編集しています。 あらためて架空世界の認証事例を紹介 ……それでは講義を始める。 さて、今回取り上げるのは「勇者王ガオガイガー」。いろいろ切り口のある作品ではあるが、今回は「そもそも認証とは何か?」という点をもうちょっと深く掘り下げていくつもりだ。そのつもりで読んでほしい。 「あとは勇気で補えばいいッ!」 では基データから紹介しよう。 「勇者王ガオガイガー」は1997年から放送されたSFロボットアニメ。名古屋テレビ・サンライズ制作のいわゆる「勇者シリーズ」の最終作を飾るアニ

    認証と認可の違い、説明できる? 「勇者王ガオガイガー」で解説してみる
    tinsep19
    tinsep19 2019/02/21
  • 「長期投資がリスクを減らす」のウソ

    資産運用の話では、最近「長期、積み立て、分散」という話がよく出てきます。そして、「長期間運用すると、リスクを減らすことができます」と必ず出てきますね。しかし、これをうのみにすると、あれ? こんなはずじゃなかった……ということにもなりかねません。 「長期投資はリスクを減らす」と聞くと、長い年月をかけて投資を続ければ、誰もが同じような投資結果になっていくように感じる人がいると思います。短期間の投資では、得する人も損する人もいるけど、長期投資なら誰もが同じように資産が増える……。こんなふうに思っているとしたら、これは間違いです。 長期投資は何の「リスク」を減らすのか? を解説 この記事では、実際のシミュレーションをもとに、長期投資で変わるリスクとは何なのかを見ていきます。 リスクがリターンを減らす 最初に100万円を世界の株式に分散投資して20年運用した場合を考えてみましょう。海外株式の年平均リ

    「長期投資がリスクを減らす」のウソ
    tinsep19
    tinsep19 2019/02/21
    itmediaが有料noteに誘導してるのどうかと思う。それPRつける必要ないか?文章については金融工学的なリスクでの期待値を噛み砕いて説明しようといて好感はもてる
  • 「ディープラーニングは最小二乗法」で物議 東大・松尾豊氏「深い関数の方が重要」

    「ディープラーニングは、原理的には単純な最小二乗法にすぎない」――2月18日付けで日経済新聞電子版が公開した記事について、Twitterでは「ディープラーニング=最小二乗法」という解釈は異なるのではという指摘が相次いだ。19日には「ディープラーニング」「最小二乗法」といったワードがTwitterでトレンド入りし、波紋が広がっていた。 日経の記事では、慶應義塾大学経済学部の小林慶一郎教授がAI技術について解説。「近年、驚異的な発展を見せているAIのディープラーニング(深層学習)は、原理的には単純な最小二乗法(誤差を最小にする近似計算の一手法)にすぎない」と言及し、「ディープラーニングは『最小二乗法』」と題する図版が掲載された。 最小二乗法は、測定で得られたデータの組を、1次関数など特定の関数を用いて近似するときに、想定する関数が測定値に対してよい近似となるように、モデル関数の値と測定値の差

    「ディープラーニングは最小二乗法」で物議 東大・松尾豊氏「深い関数の方が重要」
    tinsep19
    tinsep19 2019/02/21
    https://blog.shikoan.com/deeplearning-is-not-ols/ 読んだあとだからか、だいぶ意図がわかるわー。その理解も間違っているのかもしらんけど