自分だけの世界を創るクリエイティブコーディング / Creative Coding: Creating Your Own World
これは黒木玄(@genkuroki)先生の以下のツイートを受けた小ネタです。 https://t.co/ejyfiAN47a#統計 これはいい話を読ませてもらった。 真の分布を含まない確率モデルでのフィッティングでどのように嫌なことが起こるかを知っていることは大事。(←まさにこれに尽きる話題だと思う。) あと、この手の数値実験はとても楽しいので、みんなで遊んでみるべきだと思う。— 黒木玄 Gen Kuroki (@genkuroki) 2018年3月4日 元のアイデアとしては、以前の統計モデリングにおける「モデリング手法の選択」談義を踏まえています。 ネタとしては非常に簡単なので、以下にRで書いたコードを並べておきます。冒頭の5つのパラメータと、各種乱数シードを変えれば結果は色々変わるはずです。 # Generate an independent variable: controlled
All slide content and descriptions are owned by their creators.
Twitterでこの記事をシェアする author: Mr.Unadon (見習い飯炊き兵) 動作環境:Mac OS Sierra 10.12.1; R version3.3.2; rstan 2.10.1 はじめに 本稿は、ベータ分布を用いた時系列解析例に関する前記事の続編です。 「ベータ分布使うより、ロジットで正規分布をたたんだほうが良いのでは」 <なるほど!>といったお話を頂きましたので、 頂いたアドバイスを元に再度整理をしてみます。 以下は、別記事で同じモデルを取り上げた際に頂いたコメントです。ありがとうございます。 モデリングの発展例なども紹介されています。御覧くださいませ。 muに<lower=-5, upper=5>ぐらいで上下限を入れて、sigmaState ~ normal(0,5)としたら収束するようになっていい感じ(添付画像)。6のモデルは動きがロバストで面白いけど、
整列ランク変換(Aligned Rank Transform:ART)という言葉を聞いたことありますか? 私はなかったです。ART(えーあーるーてぃー。「あーと」ではない)について、Tokyo.R 第61回で LT をしてきました。補足も兼ねて ART についてまとめます。 きっかけ 先日、自分の専門分野の先行研究を調べていて論文(Heidenreich, et al. 2015)を読んでいたら次のような記述に出会いました。 “As our data were not normally distributed (D(243)=2.193, p<0.01), we employed the aligned rank transform (ART) procedure for hypothesis testing. For non-normal distributed data, the AR
こんにちは、データ分析部の石塚 (@ij_spitz) です。 最近聴いている曲は久保田利伸さんのLA・LA・LA LOVE SONGです。 ロンバケ最高でした、月曜9時はOLが街から消えるというのも納得です。 Gunosyではプロダクト改善のためにABテストを用いて意思決定を行っています。 今回はタイトルにもある通り、ABテストを実現させる上で必要となる対象の割り振り方法を、Gunosyで以前使っていた従来の手法と半年ほど前に新しく導入した手法の2つをご紹介します。 いい感じってなんだよと思われるかもしれませんが、従来の手法の課題を解決するようにいい感じに割り振る方法と理解していただければと思います。 それぞれの運用上で気づいたメリット・デメリットなども合わせてご紹介します。 従来の手法 以前はユーザIDを100で割った余りを使用していました。 例えば、全ユーザの1%でテストしたいという
This document provides an overview of Python and related topics in 3 sentences: Python is a popular programming language and the document discusses Python projects, libraries, and APIs for tasks like processing PDFs and images. It also briefly mentions using NumPy and Google Cloud Vision API for image processing and deep learning concepts like convolutional neural networks.Read less
【最終更新 : 2017.12.17】 ※以前書いた記事がObsoleteになったため、2.xできちんと動くように書き直しました。 データ分析ガチ勉強アドベントカレンダー 17日目。 16日目に、1からニューラルネットを書きました。 それはそれでデータの流れだとか、活性化関数の働きだとか得るものは多かったのですが、Kerasと言うものを使ってみて、何て素晴らしいんだと感動してしまいました 今まで苦労して数十行書いていたものが、わずか3行で書ける! 正直、スクラッチで書く意味って、理解にはいいけど研究や分析には必要あんまないんですよね。車輪の再発明になるし。 と言うわけで、使えるものはどんどん使っていこうスタンスで、今日はKerasの紹介です! Tutorial+気になった引数を掘り下げて補足のような感じで書いています。 ちなみに、各部のコード以下をつなぎ合わせるとmnistの分類器が動くよ
みなさん、こんにちは。Retty CTO の樽石です。 この記事は Retty Advent Calendar 25日目です。メリークリスマス。 昨日は @ttakeoka の『MFIにむけてRettyの取り組み』でした。 今年も残りわずかになりました。いかがお過ごしですか? Retty はこの 1 年でエンジニアがほぼ倍増しました。それによって、情報発信者が増え、Advent Calendar に参加出来るようになりました。みんな楽しそうにしていて、うれしいです。 Retty Inc. Advent Calendar 2016 - Qiita さて、今年最後の Retty Advent Calendar 記事を書くということで、はじめは 1年のまとめ的内容にしようかと思いましたが、それでは平凡で面白くありません。そこで、ネタになりそうなマニアックな技術的記事で締めくくりたいと思います。
ヒートマップを使ったサイトやアプリのユーザー解析、課題解決ソリューション「USERDIVE」を手がけるUNCOVER TRUTHは、Draper Nexus Venturesをリードインベスターとし、日本ベンチャーキャピタル、サイバーエージェント、アコード・ベンチャーズ、みずほキャピタル、ニッセイキャピタルを引受先とする第三者割当増資を実施し、総額約4億円の資金を調達したことを9月6日に明らかにした。 USERDIVEは、Adobe AnalyticsやGoogle Analyticsのトラフィック分析ツールと組み合わせて、PCやスマートフォンの特定ウェブページ内のクリックやマウスオーバーを分析し、ユーザーインターフェースやコンテンツの課題を見つけ、それを解決することでコンバージョン率(CVR、商品販売など最終成果につながった割合)を改善するソリューションだ。また、ネイティブアプリ利用者の
HistWords: Word Embeddings for Historical Text William L. Hamilton, Jure Leskovec, Dan Jurafsky HistWords is a collection of tools and datasets for analyzing language change using word vector embeddings. The goal of this project is to facilitate quantitative research in diachronic linguistics, history, and the digital humanities. We used the historical word vectors in HistWords to study the se
SIGMOD 2015 TUTORIAL Mining and Forecasting of Big Time-series Data Yasushi Sakurai, Yasuko Matsubara (Kumamoto U) and Christos Faloutsos (CMU/SCS) Description Description (pdf): [PDF] Abstract: Given a large collection of time series, such as web-click logs, electric medical records and motion capture sensors, how can we efficiently and effectively find typical patterns? How can we statistically
2016/07/25に「夏真っ盛り!Spark + Python + Data Science祭り」を開催しました。 connpass.com 今回はClouderaに入って初めてのコミュニティイベントということでしたが、なんと400人を超える応募をいただいてとてもありがたい限りです。 会場をご提供いただいたDMM.comラボ様、発表いただいたサイバーエージェントの内藤さん、DMM.comラボの加嵜さん、LTの皆様ありがとうございました。 togetter.com pandasを大規模データにつなぐIbis Ibis: すごい pandas ⼤規模データ分析もらっくらく #summerDS from Cloudera Japan www.slideshare.net Ibisはpandasの作者でもある Wes McKinney(@wesmckinn) の作っているライブラリです。 ひとこ
0. 使用するデータと仮説立案 今回はサッカーの勝敗・試合内容の履歴データから、勝敗の要因や勝敗を予測するモデルを作成してみたい。使用するデータはこちら(出典:Football LAB)。(少し長いです) 0.1 今回の分析の目的 ビッグデータはビジネスの世界のみならず、スポーツにまで大きく影響を与えている。大量データの処理、保存が可能になったことで、スポーツに関するデータ分析が進展し、これまでの常識を大きく覆されることもあるようだ。今回は、Jリーグの過去の試合データ決定木を用いて分析し、サッカーの勝利に寄与する要因の分析と勝敗の予測を実施していきたい。 0.2 フィッシュボーン図で仮説を立てる 今回は「試合の勝敗」について興味があるので、フィッシュボーン図で影響する要因の仮説を立てる。以下のようになる。 1. 勝因分析 1.1 決定木分析による要因分析 決定木分析の活用方法としては、大
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く