タグ

rに関するh1saoのブックマーク (143)

  • ggplot2に関する資料まとめ - Qiita

    そろそろワンストップなまとめ記事があってもいいはずと思ったので、個人的なメモとしてまとめました。 2016/06/10追記: 資料1件追加 2016/03/15追記: ggplot2 v2向けに一部修正 ggplot2のイメージをつかもう まずはこのggplot2がどういうものなのかをつかみましょう。 ggplot2の完全な初心者向け ggplot2に初めて触れるという方は、まずこのスライドを一読されるのをオススメします: ggplot2によるグラフ化@HijiyamaR#2 ※Slideshareリンク ggplot2を理解するためには、その文法をイメージできるようになることが近道です。このスライドは従来のplotとggplot2との違いをわかりやすく解説してあります。まずはレイヤーの感覚をつかむためにも、提示してあるサンプルコードをひたすら打ちましょう。手を動かす、大事。 ggplot

    ggplot2に関する資料まとめ - Qiita
  • Rのアソシエーション分析結果をGephiでネットワーク描画(2)(support値をノードのサイズ に、lift値をノードの配色に) - Qiita

    スクリプトの実行結果 (Gephi 出力グラフ) 【ノードの大きさ】 アソシエーション分析結果のlift値の大きいほど(ノードも)大きい 【ノードの色】(アソシエーション分析結果の)support値が大きいほど、緑色の成分が濃い (※RGB値のうち、赤と青の要素は全ノード同じ値を設定) 1. アソシエーション分析を実行 関数: arules 関数: arulesViz データ:組み込みデータセット Income を用いる Income :米国サンフランシスコ・Bayエリア 9,409人の個人プロファイル(属性)・収入アンケート調査結果

    Rのアソシエーション分析結果をGephiでネットワーク描画(2)(support値をノードのサイズ に、lift値をノードの配色に) - Qiita
  • knitr ではじめるデータ分析レポート作成 - Qiita

    knitr とは,R のパッケージのひとつでデータ分析のレポート作成に役立ちます. markdown 記法の中で R の処理を記述して,実行結果を HTML などに埋め込んだ状態で生成することができます. またこれらの記事では,R 自体の解説は行いません. あくまで,R を使っている,あるいはこれから使いはじめる人が knitr を使うことでより楽にレポートを作成できるような知識や技術の習得を目指します. 5分ではじめる knitr RStudio を使って knitr の使い方を体験 knitr ではじめるデータ分析レポート作成 ~基礎編~ ゴール:knitr を基的に使えるような知識を身に付けて,R での分析結果を HTML として生成できるようになる knitr ではじめるデータ分析レポート作成 ~応用編~ (作成中) ゴール:knitr のおおよその機能を理解して使いこなせる 関

    knitr ではじめるデータ分析レポート作成 - Qiita
  • R×Ubuntu apt-getでRがアップデートできない場合の対処法 | トライフィールズ

    apt-getコマンドでRがアップデートできない理由はいくつか考えられます。ここでは、アップデートできない原因別に対処法をお伝えします。 接続できない 「apt-get update」コマンドを実行すると、Rのミラーサイトとの接続で止まる場合があります。 例えば、国内ミラーサイトのhttps://cran.ism.ac.jp/を使用している場合、一度このリンクをクリックしてください。ページが開かない場合は、一時的に使えないようになっています。 この場合の対処法は、主に2つあります。 1つ目は、様子を見ることです。ほとんどの場合、2~3日程度でミラーサイトが使えるようになります。 2つ目は、ミラーサイトを変更することです。ミラーサイトの変更は、UbuntuにRをインストールするための手順を参考にしてください。 GPGエラー 2015年10月21日現在、Ubuntuで「UbuntuにRをインス

    h1sao
    h1sao 2015/11/09
  • Rのライブラリとかチートシートとか基本操作とかメモ - Qiita

    ## SQLでいうJoin hoge.fuga <- merge(hoge, fuga, by = c( "user_id", "app_name" ) ) ## SQLでいうLeft Outer Join hoge.huga.foo <- merge( hoge.huga, # 結合対象データ(X) dpu, # 結合対象データ(Y) by = c("log_date", "app_name", "user_id"), # 結合対象データのカラム all.x = T # Left Join 指定 ) ## 結合した側のデータの列名は.gをつける hoge <- merge( imp, goal, # tmpとgoalを結合 by="transaction_id", # transaction_idで結合 all.x=T, # 外部結合 suffixes=c("",".g") # 結合下側

    Rのライブラリとかチートシートとか基本操作とかメモ - Qiita
    h1sao
    h1sao 2015/11/09
  • RでTwitterのデータを分析するための準備(2015年6月現在のやり方) - StatsBeginner: 初学者の統計学習ノート

    RでTwitterを触る方法 Twitterのデータを分析しようと思って、手始めに{twitteR}というパッケージを触ってみました*1。 導入前にやることがいくつかあるのですが、ググって出てきた解説サイトに書いてあったとおりにやってみると失敗して数時間苦しみましたので*2、一応利用開始に至った道のりをメモしておきます。他にやる人がいたら参考にしてください。 なんかですね、RでTwitterAPIを触る方法に関する記事は昔のものも含め色々みつかるのですが、Twitter側の仕様やRのパッケージの仕様の変更なども微妙に生じていて、どの記事のどこの部分が現行なのかというのがよく分からなかったりします。 なので、2015年6月20日現在やるならこうです、という意味でエントリを起こしておきます。ちなみに私はR for Mac OS X GUI(3.0.2)のコンソールで操作しており、ターミナルや

    RでTwitterのデータを分析するための準備(2015年6月現在のやり方) - StatsBeginner: 初学者の統計学習ノート
  • {igraph} カレーなるネットワーク解析 - Qiita

    0. イントロ 男女19人でカレーべに行きました。 「Bセット」は、7種類の中から2種類のカレーを選びます。 重複してはいけません。 肉カレー 野菜カレー その他

    {igraph} カレーなるネットワーク解析 - Qiita
  • 時系列データ分析の初心者に必ず知ってもらいたい重要ポイント ~ 回帰分析 ・相関関係 分析を行う前に必ずやるべきこと(データの形のチェックと変形) - Qiita

    回帰分析 や 相関関係分析 を 行う前に、まず一番最初に、「データの検証」と「データの加工」が絶対に必要 上記のステップを踏まないと、例え、Excel や SPSS、Rで 回帰分析・相関関係を事項して、「実行エラー」起こらないで、ちゃんと数字が画面に出ても、それは『間違った数字』である可能性が非常に高い 回帰分析 や 相関関係分析に使えるデータは、次の 『 NG条件 』にあてはまらないデータだけ 「データの形」必須条件 ~その1 データ期間を通じて、データの平均値が変わるデータだとNG ⇒ 折れ線グラフでチェック必須! 「データの形」必須条件 ~その2 データ期間を通じて、データのぶれ・ばらつきが変わるデータだとNG ⇒ 折れ線グラフチェック必須! 「データの形」必須条件 ~その3 データ期間を通じて、データの値が直線的 or 曲線的に、増加する・減少するデータだとNG ⇒ 折れ線グラフチ

    時系列データ分析の初心者に必ず知ってもらいたい重要ポイント ~ 回帰分析 ・相関関係 分析を行う前に必ずやるべきこと(データの形のチェックと変形) - Qiita
  • R programming — Watallica metallicus

    R programming¶ R Project Homepage http://www.r-project.org/ Comprehensive R Archive Network (CRAN)

  • dplyrを使いこなす!基礎編 - Qiita

    はじめに 4月ということで、新卒が入ってきたりRを使ったことないメンバーがJOINしたりしたので、 超便利なdplyrの使い方を何回かに分けてまとめて行きます。 Rは知らないけど、SQLとか他のプログラミング言語はある程度やったことあるみたいな人向けです。 dplyrを使いこなす!シリーズ 基礎編以外も書きましたので、↓からどうぞ。 dplyrを使いこなす!Window関数編 dplyrを使いこなす!JOIN編 dplyrとは データフレームの操作に特化したパッケージです。 Rは基的に処理速度はあまり早くないですが、dplyrはC++で書かれているのでかなり高速に動作します。 ソースの可読性もよくなるので、宗教上の理由で禁止されている人以外は使うメリットは大きいです。 処理可能なデータサイズの目安 あくまでも個人の環境に強く依存した感覚値ですが、1000万行、100MBぐらいのデータサイ

    dplyrを使いこなす!基礎編 - Qiita
  • Rデータフレーム自由自在

    This document summarizes information about a person named Takeshi Arabiki. It includes: 1. Their Twitter handle is @a_bicky and ID is id:a_bicky. 2. A link to their blog on Hatena is provided. 3. They have written books and slides about using R and SciPy. 4. Links are provided to their slideshare presentations about using Twitter and R.Read less

    Rデータフレーム自由自在
    h1sao
    h1sao 2015/10/31
  • R vs Python:データ解析を比較 | POSTD

    主観的な観点からPythonとRの比較した記事は山ほどあります。それらに私たちの意見を追加する形でこの記事を書きますが、今回はこの2つの言語をより客観的な目線で見ていきたいと思います。PythonとRを比較をしていき、同じ結果を引き出すためにはそれぞれどんなコードが必要なのかを提示していきます。こうすることで、推測ではなく、それぞれの言語の強みと弱みの両者をしっかりと理解できます。 Dataquest では、PythonとRの両方の言語のレッスンを行っていますが、データサイエンスのツールキットの中では両者ともそれぞれに適所があります。 この記事では、NBA選手の2013/2014年シーズンの活躍を分析したデータセットを解析していきます。ファイルは ここ からダウンロードしてください。解析はまずPythonとRのコードを示してから、その後に2つの異なるアプローチを解説し議論していきます。つま

    R vs Python:データ解析を比較 | POSTD
  • e-Stat APIをRから使う - Technically, technophobic.

    ほぼほぼこの記事に書いてある内容なんですけど、httrでやってみたのでメモ。 e-Stat APIとは 政府統計の総合窓口(e-Stat)で提供している統計データを入手できるAPIです。ユーザ登録してAPIキーを生成すると使えます。 今のところ、以下の種類のAPIが用意されています。形式はXMLとJSONとJSONPがありますが、今回はJSON形式のでやってみるので、jsonが返ってくるリクエストURLを書き添えています。 統計表情報取得(getStatsList):統計表の検索 メタ情報取得(getMetaInfo):統計表のメタ情報を取得 統計データ取得(getStatsData):統計表のデータを取得 データセット登録(postDataset):統計データの取得条件を登録しておける データセット参照(refDataset):登録されている取得条件を参照 データカタログ情報取得(get

    e-Stat APIをRから使う - Technically, technophobic.
  • 政府統計の総合窓口(e-Stat)のAPIを使ってみよう [R編] - Qiita

    はじめに Qiita Rアドベント に政府統計ポータル(e-Stat)と R でサンタさんの12月の出費動向を調べてみたという良記事がありました。 とても参考になるのですが、ポータルからマウスで項目をクリックしていくのが大変です。特に最後の方のフェーズではページが強制的にフルスクリーンになってしまい、上記アドベントの操作を確認できなくなります。 そこでAPIを使ってみます。 その前に、e-Stat API を少し触ってみましょう。 公式説明PDFをパクる 恐れおおくも総務省統計局統計センター様謹製PDF の最後の事例をパクります。 RCurl でjson形式のデータを引っ張ってきます。次世代統計システムから取得した自分のアカウントが必要です。以下のコードで yourAPPID の部分を取得したID に変更してください。 さらに加えて、統計表IDや分類表IDが必要なんですが、後述します。 >

    政府統計の総合窓口(e-Stat)のAPIを使ってみよう [R編] - Qiita
  • 政府統計ポータル(e-Stat)と R でサンタさんの12月の出費動向を調べてみた - akiyoko blog

    この投稿は 「R Advent Calendar 2014 - Qiita」 の 25日目の記事です。 Me y Christmas!! ということで今日は、クリスマスですね。 昨晩は、全国のサンタさんが大活躍したのではないでしょうか。 そこで今回は、全国のサンタさんの12月の出費動向を調べてみたい と思います。 なお、初級者向けの記事ですので、中上級者の方は読み飛ばしてくださいませ。 手順 手順は、ざっくり e-Stat(政府統計ポータル)から家計調査の CSV をダウンロード R で CSVデータを読み込む データを加工してグラフを描画 という感じで進めます。 環境 Windows 7 RGui [R Console] (R version 3.1.2) 1. e-Stat から家計調査のCSVデータをダウンロード 1.1. 目的の統計表を選択 e-Stat(政府統計ポータル) にアク

    政府統計ポータル(e-Stat)と R でサンタさんの12月の出費動向を調べてみた - akiyoko blog
  • Rの初歩

    Rのインストール R(アール)は統計・データ解析・統計グラフ作成のためのオープンソースソフトです。CRAN(「シーラン」または「クラン」、Comprehensive R Archive Network)のミラーサイト(日では統数研 https://cran.ism.ac.jp/ など)からダウンロードし、インストールしてください。Windows用、Mac用、Linux用があります。 最近では下図のような RStudio(アール・スタジオ、英語の発音により忠実に書けばアール・ステューディオまたはアール・ストゥーディオ)という統合開発環境(IDE)を介してRを使う人が増えています。Download RStudio Desktop のページからダウンロードしてインストールします。 RStudio。左上ペインがソースエディタ(この図では隠れている)、左下がRコンソール、右上がグローバル環境のオブ

    h1sao
    h1sao 2015/10/28
  • 【Python】R言語を勉強するために「言語処理100本ノック」をPythonで解いてみる - 歩いたら休め

    会社の先輩から「これ使ったらいい感じにデータ取ってこれるよ」と渡されたものが、 dplyrとかstringrとかよくわからないパッケージをガンガン導入した自由奔放なRのコードで困っています。 R言語自体にも慣れていないため、 「コードを使って何を表現したいのか」と「そのRのパッケージで何をできるのか(またどういう使いどころなのか)」を両方読み解かなければならず、けっこう大変です。 そのコードの中で「いくつか関数の入ったリストを高階関数に渡してfilterかける」ような操作をしていてしっかり読み解いてみたいのですが、 そのコードで取ってきたデータを使いたいだけなので、どうしても後回しにしてしまいます。 というわけで、Rの勉強は家でやることにしました。 「言語処理100ノック」として、ちょうど勉強したいライブラリ(dplyrなど)をいい感じに使ってるRのコードがあったので、 これを題材にしよ

    【Python】R言語を勉強するために「言語処理100本ノック」をPythonで解いてみる - 歩いたら休め
  • ggplot2再入門 - Cybozu Inside Out | サイボウズエンジニアのブログ

    ドーモ、インフラチームの湯谷(@yutannihilation)です。 サイボウズ社内では活発に社内勉強会が行われています。そんな社内勉強会のひとつ、Rと統計の社内勉強会で発表したグラフ描画ツール「ggplot2」についての資料を公開します。 ggplot2再入門 from yutannihilation www.slideshare.net (アニメーションを省略したので少し見づらいスライドもあります。ご容赦ください) Rと統計の社内勉強会について Rと統計の社内勉強会は、マーケティングや開発など様々な部署のデータ分析に興味がある人が集まって始まった勉強会です。なんだかんだでもうかれこれ2年ほど続いています。 毎週一回昼休みに集まって、統計に関するを輪読したり、統計に関連する話題を持ち寄って発表したり、統計的なマサカリが飛んで来たりします。 私は統計のことがあまり分からないので、こうい

    ggplot2再入門 - Cybozu Inside Out | サイボウズエンジニアのブログ
  • 第2回 レポートづくりを加速せよ ~R Markdown環境の導入&チュートリアル~ | gihyo.jp

    前回はレポートづくりのオートメーション化がもたらすメリットについてやや概念的な説明をしました。今回はR Markdown環境を導入し、レポート作成の手順を説明します。実際に簡単なレポートづくりを体験して、R Markdownの威力を味わってください。 また、実務を想定した(とは言っても非常に単純化したものですが)2種類のチュートリアルを用意しましたので、これらのチュートリアルを通してオートメーション化されたレポートづくりを自分の仕事の中でどう活かすか想像してみてください。 なお、連載記事に関する疑問・質問・コメントなどは著者Twitterアカウント(@kohske)でも受け付けていますのでお気軽にどうぞ。 R Markdown環境の導入 R Markdownを利用するには、 R {rmarkdown}パッケージ pandoc の3つのツールを導入する必要があります。 PDF形式のレポート

    第2回 レポートづくりを加速せよ ~R Markdown環境の導入&チュートリアル~ | gihyo.jp
  • ゼロから学ぶテキストマイニング。参考書籍・Webサイトまとめ9選。概要、仮説の構築、R言語、RMeCab、twitteRなど | エコテキブログ

    先日、形態素解析に関するまとめ記事を書きましたが、いまいち煮え切れません。なぜなら、Tiwtterのつぶやきについて、形態素解析だけを行っても、それだけで何か面白い知見を得られるわけではないからです。 そこで、最近個人的に目をつけたのが、テキストマイニングという技術です。そこで、今回はゼロから学ぶテキストマイニングとして、参考になりそうなやWebサイトの「まとめ」をしてみました。 テキストマイニングの概要 Webサイトよりも、の方が参考になりました。読んだのは、テキストマイニングを使う技術/作る技術―基礎技術と適用事例から導く質と活用法です。 第1章しか読んでませんが、30分ほどでテキストマイニングを使って、何ができるか分かりました。個人的には、以下の3点について印象が残りましたので、引用させてもらいます。 1.分析技術としてのテキストマイニングの特徴(P16) [table id=

    ゼロから学ぶテキストマイニング。参考書籍・Webサイトまとめ9選。概要、仮説の構築、R言語、RMeCab、twitteRなど | エコテキブログ