Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

毎日同じような作業でこのように思っている人はいないでしょうか。 あ~毎日ネットにアクセスして、同じデータ収集するの面倒くさいなぁ こういう退屈な作業、自動でやってくれないかな でもプログラミングできないしなぁ。勉強すんのも面倒くさいなぁ。 そんな人に朗報です。今回は、プログラムをかけない人でも、ネットから情報を自動収集する方法をまとめます。 今回使うのは、Google Spreadsheetという、エクセルに似たWeb上のアプリケーションです。実はネット上の情報を自由に取得(スクレイピング)できるツールだとは知られていません。そんな裏の使い方を今回は説明したいと思います。
新卒で株式会社ワークスアプリケーションズにて、QAエンジニアとして主に認証基盤のテスト担当。OAuth2.0の認証基盤の品質保証業務に従事。 その後株式会社アイデミーにてアフィリエイト広告を利用したマーケティングを、広告主としてリード。 のちに株式会社ポジウィルにて、アフィリエイト広告、その他マーケティングを担当。CMOに就任。 2019年8月に株式会社インディバースを創業。IT系のキャリア領域のメディア運営・アフィリエイトメディア向けのSaaSサービス/Webサイト制作などを行う。 Pythonでできること では、Pythonではどういうことができるのでしょうか。結論からいうと、 Webスクレイピング :データの自動収集が行える Web API:TwitterのAPIを利用して、インフルエンサーのツイートデータを収集 データ分析:データの前処理がすごく簡単になる Pythonでスクレイピ
読んだ本の管理ができる「読書メーター」というサービスにおいて、それぞれの本にどれだけの読者数がいるのかを引っ張ってくるプログラムを書きました。こんな感じで出力されます。 Gist : 読書メーターに登録されている本の読者数を取得するスクリプト プログラム作成の動機 読書メーターは本好きのためのSNSです。「人」に重きを置いたサービスだと思っています。読んだ冊数の変化がグラフ化されていたり、友達として繋がったりできます。一方で、「本」そのものに着目した機能は少なめです。読み終わった読者の数を追うだけでも、おもしろいデータがとれるのではないかと考えました。 そこで、1日ごとに登録読者数の変化を見てみようと思ったのですが、手動でやるのは思った以上に面倒でした。複数の本の変化を調べないと面白いデータは取れないと思ったのですが、注目する本が増えれば増えるほど手間がかかります。だから、プログラムを書い
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く