サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
会話術
gaaaon.jp
以前のブログでTwitter APIを使ってデータを取得する方法や、Googleデータポータルを使ってダッシュボードを作る方法などを解説しました。 今回は、自社商品や特定のキーワードでどのようにInstagram上で投稿されているのか、いち早く把握・共有するために、上記のような画像付きダッシュボードを作るところまでを解説していきます。 Instagram APIとは TwitterだけでなくInstagramにも無料のAPI機能が提供されています。こちらもTwitter APIと同じく下記のような問題を感じました。 運営元のFacebookのオフィシャル解説が分かりづらい 日本語で解説されたサイトはアカウント取得方法がほとんどでTwitterAPIに比べて記事数が少ない 最近APIの仕様変更があったようで用語や解説が乱立していて、もう何がなんだか分からない あえて難しくしているのではないか
Spotifyのレコメンデーションは日に日に精度があがり、アルゴリズムに身を委ねる若い人々の生活になくてはならないものとなりつつあるようです。 Z世代の次の世代と言われているα世代は、こうした最新のAIに身を委ねながら(アルゴリズムを1%も疑わず)、メタバース世界で生活していくという、まさにサイバーパンク的世界が当たり前になっていくのかもしれません。 ベートーベンと八代亜紀を一緒にレコメンドするには今から6年前の2015年、大前研一氏があるイベントの中で「ベートーベンと八代亜紀を一緒におすすめするような音楽レコメンドAIを開発していくのが重要」ということを言っていたのがとても印象的でした。 それから早くも6年が経ち、この問題はそろそろSpotify聖帝が解決してくれそうな勢いです。 レコメンデーションの仕組み参考までに一般的にレコメンデーションには、 履歴から推奨する「協調ベースフィルタリ
特に飲食店のレビューでは、少し前までは食べログが強かったものの、コロナ禍でライフスタイルが大きく変わったことやレビューの信頼性などから、投稿トレンドがGoogle Mapに移行している傾向も見て取れます。 このような動きから、Google Mapの分析は今後ますます重要となると考えられます。このGoogle Mapのデータを効率的に入手できるのがGoogle Places APIです。 今回はこのAPIで取得できる情報や取得方法を解説し、さらに具体的な飲食店データを落としてきて分析してみたいと思います。 Google Places APIとはGoogle Places APIはGoogle Maps Platformの一つで、Google Map上のデータを取得できるAPIで、テキストで店舗を抽出したり、緯度経度情報から店舗を抽出したり、店舗の詳細情報などを取得したりすることができます。
当ブログではこれまでにTwitterやヤフーニュースなどの口コミ分析として、AmazonやGoogleのAutoMLを使った自然言語処理を試してみました。 Amazonの人工知能を使ってSNS等の口コミを感情分析する方法 「10万再給付ない」麻生大臣発言で大炎上した2万超のヤフトピコメントをAI解析する 今回は、上記朝日新聞の記事にも使われている「ML-Ask」という感情分析モデルを実際に使ってみて検証していきたいと思います。 ML-Askとは ML-Askは、感情表現辞典やラッセルの2次元感情モデルなどを使い、入力したテキストデータから「喜・怒・昂・哀・好・怖・安・厭・驚・恥」の10種類の感情を抽出するというモデルということです。 http://arakilab.media.eng.hokudai.ac.jp/~ptaszynski/repository/mlask.htm Python
※Twitter APIは、今後Twitter API v2という新しい仕組みに変更される予定です。サーチAPIに関しては無料のStandard APIのみの変更であり、2020年9月の段階では今回メインで解説しているPremium APIにはまだ影響はないようです。詳細は公式アナウンスなどをご参照ください。 https://blog.twitter.com/developer/ja_jp/topics/tools/2020/NewTwitterAPI.html ※無料で使える最新V2での取得方法は下記の記事などもご参照ください。 特定のツイートにいいねしたユーザーを抽出する方法【v2】 【Twitter API v2】特定のユーザーのいいね履歴を調べる方法 ※取得したTwitterデータを自社サービスなどで商用利用される際はTwitter社の規約を遵守してください Twitterでつぶや
広報活動の一貫として、WEBニュースなどに掲載された自社記事をキャプチャしてファイルで保存している方も多いと思います。 記事全体をキャプチャするには、PCのスクリーンショット機能を使う原始的な方法やブラウザーの拡張ツールを使う方法などが一般的ですが、サイトごとに手動で一つずつとっていくのは非常に手間です。 複数のスクリーンキャプチャを撮るには、Page2Imagesという海外ツールを使う方法もありますが、大量データの扱いは有料となるほか、サービス自体の動作が非常に不安定なため、ビジネスでは正直使えないのが実情です。 そんなときこそ、無料で使えるプログラミングツールPythonの出番です。 面倒な仕事は全てPythonに任せよう! 今回はPythonでWEBブラウザを自動的に動かし、ヤフーニュースやライブドアニュースなど複数のサイトから対象ニュースのページ全体のキャプチャを取ってきて、画像フ
このページを最初にブックマークしてみませんか?
『広報PR代行の株式会社ガーオン | 広報代行サービス「PRナビ」で企業のPRをサポート』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く