タグ

2019年8月27日のブックマーク (7件)

  • SBIグループ、バンガードと組んで「SBI・バンガード・S&P500インデックス・ファンド」設定

    SBI証券は、SBIグループとバンガードとの共同ブランドファンド「SBI・バンガード・S&P500インデックス・ファンド」の創設に参画し、2019年9月12日(木)より募集を開始すると発表しました。 SBI証券 プレスリリース 2019/08/27 SBIグループとバンガード 初の共同ブランドファンド「SBI・バンガード・S&P500インデックス・ファンド」募集開始(予定)のお知らせ 気になる商品概要は以下のとおり。 SBI・バンガード・S&P500インデックス・ファンド ・S&P500指数(円換算ベース)連動 ・実質的な負担 年0.09264%(税込)程度 国内籍のインデックスファンドで、運用コストが年 0.1%を切りました。これはとてつもなく安い!! 投資先がバンガードの海外ETF「VOO」で、経費率が年0.03%。運用会社(SBIアセットマネジメント)の信託報酬が年0.06264%。

    SBIグループ、バンガードと組んで「SBI・バンガード・S&P500インデックス・ファンド」設定
    R2M
    R2M 2019/08/27
  • 演説中に抗議受けた文科相「大声出す権利保障されない」:朝日新聞デジタル

    ","naka5":"<!-- BFF501 PC記事下(中⑤企画)パーツ=1541 -->","naka6":"<!-- BFF486 PC記事下(中⑥デジ編)パーツ=8826 --><!-- /news/esi/ichikiji/c6/default.htm -->","naka6Sp":"<!-- BFF3053 SP記事下(中⑥デジ編)パーツ=8826 -->","adcreative72":"<!-- BFF920 広告枠)ADCREATIVE-72 こんな特集も -->\n<!-- Ad BGN -->\n<!-- dfptag PC誘導枠5行 ★ここから -->\n<div class=\"p_infeed_list_wrapper\" id=\"p_infeed_list1\">\n <div class=\"p_infeed_list\">\n <div class=\"

    演説中に抗議受けた文科相「大声出す権利保障されない」:朝日新聞デジタル
    R2M
    R2M 2019/08/27
    選挙カーの音量程度までには保障されるんじゃね?
  • MongoDBの様なNoSQLに勢いがあるのは何故ですか?SQLと比べてどんな利点や欠点がありますか? - Quora

    回答 (3件中の1件目) ハイプサイクルという概念をGartnerグループが提唱してまして、様々な流行りスタリのサイクルを分析する標準的な方法となっています。 ハイプとは過度な期待や熱狂を意味する言葉です。一発屋芸人の人気のカーブみたいなもので、テツandトモみたいに安定する場合と、消えていくものがあります。芸人ではありませんがDA PUMPは一茶の人間性もありまして、次は厳しいけど定着すると思っています。 なんだかのトリガーで評価が上がり始め、ピークを迎える。その後評価が下がっていき、底を打つと少し上がって定着するという経過をたどるとしています。これと同じモデルで、流行りのハイテク...

    MongoDBの様なNoSQLに勢いがあるのは何故ですか?SQLと比べてどんな利点や欠点がありますか? - Quora
    R2M
    R2M 2019/08/27
  • Yahoo!ニュース

    明子、23歳イケメン長男の初顔出しにネット騒然「カッコ良い」「そっくり」父は宮泰風、伯父も人気俳優

    Yahoo!ニュース
    R2M
    R2M 2019/08/27
    そうか、文大統領に騙された形なら米朝はまだやり直せるのか。
  • 215mm角のCerebrasの巨大マシンラーニングエンジン - Hot Chips 31

    2019年8月に米国にて開催された最先端のLSIチップに関するトップレベルの学会「Hot Chips 31」での多数あった発表の中でもっとも度肝を抜かれたのはCerebrasの「Wafer Scale Deep Learning」という発表である。 発表を行ったのはCerebrasの創立者の1人でチーフハードウェアアーキテクトを務めるSean Lie氏である。 Cerebrasのウェハスケールディープラーニングを発表したSean Lie氏 次の写真がウェハスケールエンジン(WSE)で、右下のチップは比較のために置いたNVIDIAのV100 GPUである。何しろ、46,225mm2で215mm角となると巨大で、チップと呼ぶのも憚られる。V100 GPUは815平方mmであるので、CerebrasのWSEは56.7倍のシリコン面積である。また、トランジスタ数では、Cerebrasは1.2Tトラ

    215mm角のCerebrasの巨大マシンラーニングエンジン - Hot Chips 31
  • 実践的インフラ監視&運用 - 4000万人以上のユーザーに快適なサービスを提供するピクシブの裏側 - エンジニアHub|Webエンジニアのキャリアを考える!

    実践的インフラ監視&運用 - 4000万人以上のユーザーに快適なサービスを提供するピクシブの裏側 大規模サービスを安定運用するコツってなに?実運用に基づく知見をピクシブ株式会社のインフラエンジニア、末吉さんと小出さんに聞きました。 ピクシブのサービスを支えるサーバーは大部分がオンプレミス 監視はNagiosとMuninでシンプルに 多数のリリースを支える独自のデプロイ手法 運用上のスペックは開発者との綿密なやりとりで決める 開発者と“温度感”を共有したい システム運用は、生き物です。 人気が出ればリクエスト数は急上昇。経年劣化でサーバーが壊れることもある一方で、次々と新しいサービスも展開しなければなりません。規模が大きくなると、システムを障害なく運用することは至難のワザです。 大規模サービスを安定運用するコツは何か──その秘訣を探るべく、ピクシブ株式会社のインフラチームで活躍する2人に疑問

    実践的インフラ監視&運用 - 4000万人以上のユーザーに快適なサービスを提供するピクシブの裏側 - エンジニアHub|Webエンジニアのキャリアを考える!
  • マルチAZ構成で単一AZの障害の影響を受けるのは何故か? - プログラマでありたい

    昨日の「AWSのAZの割り当ては、アカウントごとに違うという話」で宿題として残した、マルチAZ構成で単一AZの障害の影響を受けるのは何故かという問題について考えてみます。キーワードはELBです。 前提としてのELBの実装(の予想) マルチAZ構成での障害発生原因を検討する前に、まずELBの実装について考えてみましょう。5年ほど前に書いたELBの挙動からみる内部構造の推測です。 blog.takuros.net 旧ELB(CLB)をもとに書いていますが、ALBでも大きく変わらないと思います。要点としては、ELB自体は、AWSが管理するEC2インスタンス上で稼働し、バランシング先のAZにそれぞれ配置されているということです。図ではELBインスタンス(仮称)として表しています。そして、ELBインスタンスへの振り分けはDNSの名前解決で実現している点です。このアーキテクチャは私の個人的な予想ですが

    マルチAZ構成で単一AZの障害の影響を受けるのは何故か? - プログラマでありたい
    R2M
    R2M 2019/08/27