本連載では、JPX総研が算出するTOPIX(東証株価指数、TOkyo Stock Price IndeX)について、詳しくご紹介してまいります。 前回の記事では、TOPIXの歴史を振り返りました。第4回となる今回は、その続編として、現在も進行している2022年4月の東京証券取引所(東証)の市場区分の再編を契機とするTOPIXの見直しの内容について詳しくご紹介します。 1.市場区分の再編を契機とするTOPIX見直しの全体像 東証は、2022年4月に市場第一部等の旧市場区分をプライム市場、スタンダード市場及びグロース市場の新市場区分に再編しましたが、市場構造の見直しの検討過程において、TOPIXについても、「東証市場第一部の全ての上場銘柄を構成銘柄としているため、時価総額や流動性の低い銘柄を含む約2,200銘柄で構成され、投資対象としての機能性に欠ける。」といった指摘がありました。 こうした指
本連載では、JPX総研が算出するTOPIX(東証株価指数、TOkyo Stock Price IndeX)について、詳しくご紹介してまいります。 前回までの記事では、TOPIXの算出方法や投資対象としてのTOPIXの背後にある投資理論についてご紹介しました。 第3回となる今回は、TOPIXのこれまでの歴史を振り返ります。 1.TOPIX誕生 現存する主要指数で最古のものは「ダウ・ジョーンズ工業株平均」(NYダウ)で、1896年から算出されております。当初12銘柄の指数でしたが、1928年から30銘柄の指数となり、現在に至っています。 日本では、NYダウと同じ株価平均型の指数として、東京証券取引所(東証)が1950年から225銘柄を対象とする東証平均株価(※)の算出を始めました。 ※ 現在は、日本経済新聞社に承継され、「日経平均株価」として算出されています。 その後、コンピュータなど機械化の
投資工学開発部 吉野 貴晶 金融情報誌「日経ヴェリタス」アナリストランキングのクオンツ部門で16年連続で1位を獲得。ビックデータやAI(人工知能)を使った運用モデルの開発から、身の回りの意外なデータを使った経済や株価予測まで、幅広く計量手法を駆使した分析や予測を行う。 米国で広く知られる株式の投資銘柄を選ぶ手法として”ダウの犬投資法”があります。現在、オヒギンズアセットマネジメントの代表兼運用最高責任者を務めるマイケル・オヒギンズ(Michael B. O‘Higgins)が、1991年に出版した著書「Beating the Dow(ダウ平均を打ち負かす)」※1の中で紹介した手法で、シンプルに高配当利回り銘柄に投資するという戦略です。犬(Dogs)とは、ここでは、配当利回りが高くなるほど株価が割安になっていることを意味します。足元の株式市場を取り巻く環境は、米国の利上げ観測やロシアのウクラ
The State of Java: Trends And Data For One of the World’s Most Popular Programming Languagesの意訳記事です。 現代のソフトウェア産業は広大で、プログラミング言語の選択肢には事欠かきません。しかし、Javaエコシステムのような単一の技術スタックであっても、その市場について有益な結論を出すのは難しいことがあります。Javaは信じられないほどの成功を収めており、ほぼすべての主要な産業や経済部門で利用されていますが、このことがJavaエコシステムの状態について一つの断定的な視点を持つことを困難にしている部分もあります。 しかし、だからといって、世界の状況を評価できないわけではありません。 毎日、何千万ものJava仮想マシン(JVM)がNew Relicとデータを共有しています。このレポートを作成するにあたり
アイテム 1 の 4 10月20日、東京大学出身の研究者らが、日本銀行の金融政策決定会合後に開催される黒田東彦総裁の記者会見の映像を人工知能(AI)モデルを使って分析し、その表情と金融政策の変更との間に相関関係を確認したと発表した。写真は日銀本店で2015年7月撮影(2017年 ロイター/Yuya Shino) [1/4] 10月20日、東京大学出身の研究者らが、日本銀行の金融政策決定会合後に開催される黒田東彦総裁の記者会見の映像を人工知能(AI)モデルを使って分析し、その表情と金融政策の変更との間に相関関係を確認したと発表した。写真は日銀本店で2015年7月撮影(2017年 ロイター/Yuya Shino) [東京 20日 ロイター] - 東京大学出身の研究者らが、日本銀行の金融政策決定会合後に開催される黒田東彦総裁の記者会見の映像を人工知能(AI)モデルを使って分析し、その表情と金融
(2015/1/30 追記)時期は不明ですが、現時点のgithub.comはEd25519鍵にも対応しています。 (2016/5/31 追記)「GitHubにバグ報告して賞金$500を頂いた話」で紹介した通り、既に弱い鍵はGitHubから削除され、新規登録もできなくなっています。 GitHub APIを利用して、GitHubの31661アカウントに登録されているSSH公開鍵64404個を取得してみました。抽出方法*1が適当すぎて偏りがあるような気もしますが、面白い結果が得られたと思うのでまとめてみます。 SSH鍵の種類 鍵の種類 個数 割合 RSA鍵 61749 (95.88%) DSA鍵 2647 (4.11%) ECDSA鍵 8 (0.01%) 約6万個の鍵のうち、8個だけECDSA(楕円DSA)鍵が見つかりました!常用しているのか試しに登録してみただけなのかはわかりませんが、何にせよ
ソースコードのなかでバグが多いのは、より高頻度に、かつ最近になって集中的に直している部分。これが、グーグルで採用された「バグ予測アルゴリズム」であることを、先月の記事「グーグルはコードの品質向上のため「バグ予測アルゴリズム」を採用している」で紹介しました。 そのバグ予測アルゴリズムを実装したツール「bugspots」がオープンソースとして公開されています。 gitのレポジトリを分析 bugspotsはRubyで記述されており、gitのレポジトリから履歴を読み込んで分析し、どのモジュールにバグが含まれている確率が高いかを示してくれます。 以下のようにインストールして実行(説明ページから引用)。 $> gem install bugspots $> git bugspots /path/to/repo $> git bugspots . # (in current git directory)
グーグルでは、社内のプログラマによって作り出される大量のコードの品質を保つため、チェックイン前にユニットテストとコードレビューが行われているそうです。しかし、コードが大量になってくると、ユニットテストやレビューをすり抜けるバグも少なからず発生します。 そこでコードの品質をさらに高めるために、グーグルでは「バグ予測アルゴリズム」を採用。バグがありそうな部分をレビュアーにアドバイスする仕組みを採用したとのこと。 そのバグ予測アルゴリズムとはどんなものなのか。Google Engineering Toolsブログに投稿されたエントリ「Bug Prediction at Google」(グーグルにおけるバグ予測)で説明されています。 ソースコードの修正履歴を基に予測 コードの中にバグがありそうな箇所を分析する手法としては、「ソフトウェアメトリクス」がよく用いられます。これはコードを静的に分析して、
一昨日、Facebookが新たな検索アルゴリズムを実験中、とAll Facebook(元記事)が報じた。 具体的にはLikeに基づくページランクによる検索方式で、実際にFacebookの検索窓で試せるようだ。例えばappleと入力すると、最上部には当社岡村直人が最近投稿した「FacebookとApplrに不協和音!?」というブログ記事が表示され、その下に6名がこの記事をシェアしたと表示されている。 ここからも私の友人関係のLikeないしShareが、検索結果に影響を与えているであろうことが推測できる。 記事原文によると、All Facebookはこの検索結果を「友人のLike情報、および全世界のLike情報に基づいたもの」と推測したが、追記内でFacebookから「友人のLike情報を含んだ検索アルゴリズム」であるとの回答を得たようだ。 さらに記事原文では、このアルゴリズムはこの8月31日
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く