コミュニケーションが生まれるツイートまとめツール
Live Nation says its Ticketmaster subsidiary was hacked. A hacker claims to be selling 560 million customer records. An autonomous pod. A solid-state battery-powered sports car. An electric pickup truck. A convertible grand tourer EV with up to 600 miles of range. A “fully connected mobility device” for young urban innovators to be built by Foxconn and priced under $30,000. The next Popemobile. Ov
顧客や上司、ユーザーの場当たりな要望に対応しつづけると、どんなアプリもゴミアプリになる。たとえそれが理にかなった要望であっても。 なぜなら面積の限られたスマホでは「一画面の機能数とボタン数」が、使い易さと品質に深くリンクしているからです。 ということを、エラい人にプレゼンするのがお仕事の今日この頃。でも毎回毎回、同じことを説明するのがシンドイので資料をブログにまとめたいなぁと思うなど。 思考実験として、ここでは架空事例としてTwitterアプリを例に考えてみる。 何かの間違いで、日本の大手メーカーがTwitterを買収すると・・・UIデザイナーが体を張らないと99%ぐらいの確率でこうなるのです。 ここがオリジナル Request1: ダイレクトメッセージをトップ階層に ユーザーからの真っ当な要望。実際にはサービスの本質ではないのですが、要望はかなり多いはず。 ただTwitter社的にはme
“TwitterでOAuth認証を行う(3:Access Tokenを取得する)“ではOAuth認証を使ってAccess Tokenを取得する 所までを実装しました。 今回は取得したAccess Tokenを使用して”つぶやき”を実装してみましょう。 つぶやきを実装するには、twitter4JのTwitterクラスを使用します。 ※本記事は2011/5/12現在のバージョンのTwitter4Jを使用しています。 詳細は以下から。 Twitterクラスとは? TwitterクラスはAccess TokenとConsumer keyを設定する事で、タイムラインなどのユーザー情報の取得や、 つぶやきなどのユーザー機能の使用が行えるクラスです。(公式リファレンス) タイムラインの取得やリツイート、などについては次週詳しく解説します。 今回はTwitterクラスのインスタンス化から、Access T
私はtwitterもFacebookもやっていない。 別段やりたいとも思わなければやる必要性を感じたこともないから。 まして今は二人の幼子の子育て中だ。 目の前の生活が大切であり目の前の生活で精一杯でありそこにいない誰かとのつながりなどどうでもよい。 用があればその相手には直接メールなり電話なりすればよい。 用もないのに生活の断片を垂れ流し知らせる必要もない。 メルアドも電話番号も知らないような相手なら尚更コミュニケートする必要性を感じない。 しかし、それは私の考え方であり、他人がどうしようとそれもまたどうでもよい。 世の中の多くの人がtwitterやFacebookに興じているところをみると、 私のような人間の方が少数派なのであろう。 そう思っていた。 だがどうにも堪えがたくなってきたので吐き出させていただく。 そんなにtwitterやFacebookは大切なものなのか。 そんなに常に見
NTTデータは9月27日、米Twitterとツイートデータの提供に関する契約を締結することに合意したと発表した。これにより、同社は米Twitterが提供するAPI「Firehose」を通じて、日本語および日本国内で書き込まれたすべてのツイートデータを取得し、提供することが可能になる。 NTTデータはこれまで、自然言語処理エンジン「なずき」を用いて、Twitterやブログなどのソーシャルメディアを活用するためのサービスやコンサルティング、テキストデータと数値データを含むビッグデータの活用に積極的に取り組んできた。これらの活動を通じて、従来の公開APIでは得られにくかった広範囲かつ高精度なツイートデータの分析を求めるニーズが、国内のユーザー企業で高まっていることがわかったという。 今回の契約締結は、これら国内のユーザー企業のニーズに応えるためのものとなる。同社は今後、公開APIよりもさらに大量
「震災直後、全体のわずか4%のアカウントが、全ツイートの半数をつぶやいた」 「善意の拡散が、デマ情報をさらに広げていった」 10月28日に開かれた「東日本大震災ビッグデータワークショップ」の報告会では、震災後に流れた大量の情報=ビッグデータの解析に取り組んだ研究成果が次々に発表された。 再び大災害が起きたとき、必要な情報を必要とする人に確実に届けるためには、さらに何が必要なのか。 震災ビッグデータが浮き彫りにした課題と、今後の取り組みを考える。 (ネット報道部デスク・足立義則) 埋もれた情報を救うには グーグルとツイッター・ジャパンの呼びかけで実現したワークショップには、国内外のデータ解析の専門家やエンジニア、ジャーナリスト、学生などが参加して、9月から1か月半、それぞれ独自のテーマと手法でビッグデータに向き合った。 (解析対象となったデータの種類は、文末を参照) 報告会の壇上
孫正義 @masason がTwitterで「やりましょう」「検討します」「できました」とつぶやいた案件への対応状況をまとめています。 Pepperへの手話機能搭載やりましょう。 RT @manabi1112: このロボットが手話通訳能力あったら 聴覚障害をもつ母の暮らしは 意思疎通が正確にできて1人暮らしでも安全安心は格段に上がり 、携帯メールという手書き電話と同様に 耳の聞こえない母生き方が広がり笑顔ふえるから…
2011 年 3 月 11 日の東日本大震災発生時、ソーシャルメディアとマスメディアを通じて大量の情報が広がりました。正しい情報もあれば、様々な噂やデマも飛び交い、情報がいかに重要かを改めて知る良い機会でもありました。では、こうした情報はいったいどのように伝えられたのでしょうか? また、本当に伝えたかった情報がなぜ伝えられなかったのでしょうか? 当時をデータで振り返った時に、本当に必要なサービスは何だったのか、次の災害に備えるために、今我々はどんな準備をすればよいのでしょうか? 「東日本大震災ビッグデータワークショップ - Project 311 -」 では震災発生から1週間の間に実際に発生したデータを参加者に提供いたします。参加者はそのデータを改めて分析することによって、今後起こりうる災害に備えて、どのようなことができるかを議論し、サービスを開発することができます。 提供データ 3月11
(2012/9/19 22:51追記 url切れが多かったは間違いだったので修正.奥村先生の分析結果と数が合わないのはもう一度チェックする!) (2012/9/20 14:24追記 1tweetに複数以上のurlが含まれていても1つしか抽出していなかったので修正.奥村先生の抽出結果の数字とほぼ同じオーダーの数値になったが,今度はこちらが10〜20程度多いものがある…なぜ…?) (2012/9/20 22:05追記 奥村先生とのツイート数のずれはURLの後ろに付いた#が原因であることが判明.詳細は奥村先生のtwitter分析のページに記載されています) Googleが幹事となり,朝日新聞社,JCC,Twitter Japan,日本放送協会,本田技研工業,レスキューナウ,ゼンリンデータコムによる8社が2011年3月11日前後のデータを公開して,当時何が起こったのか,震災時に必要なサービスは何か
2011年7月24日から、アナログテレビ放送は終了し、デジタル放送に移行するそうです。 twitterも、いつからかは知らないけどBasic認証を終了し、OAuth認証に移行するそうですよ! 大変ですね!! 現在私が作ったtwitter-bot@Korokですが、twitterと話はpython-twitterでつけています。python-twitterはどうやらBasic認証らしいし、なんか更新かかってないみたいだし、id:tohaeちゃんがOAuth対応はやくした方がいいよって云うからちゃっちゃとやっちゃいましょう。 使用するライブラリはtweepy。 公式 : GitHub Pages · File Not Found · GitHub ドキュメント : GitHub Pages · File Not Found · GitHub 参考にしたエントリ : TwitterのbotをOA
こんにちは。株式会社8bitの高本です。 今週は今のところプログラムをあまり触っていないので精神的に安定しています。 さて、そろそろ今年も終わりに近くなってきたので、来年への抱負と今年の反省を込めて、今回はこの1年間でWebサービスを作ってきたまとめをしようと思います。 反省し始めたら本当に当たり前のことを理解するまで時間をかけたなあ、とつくづく思いました。 今年に入ってから、リニューアルも含めれば6つ位はWebサービスを作ったと思うのですが、どのWebサービスもサービスを通じて受託案件をいただいたという感じで、サービス自体では売上は皆無に等しい状況です。 会社設立当初はとにかく作って社外的なPRという意味もあり、無駄だったとは言いませんが、1年半経って何の収益性もなく、売却もできていないWebサービスたちが沢山できてしまいました。 ある意味、会社としては失敗の歴史でもあると思っています。
前回、「OAuthを使ってPHPからTwitterへ投稿する 」にて、PHPからOAuthを使うための環境準備とTwitterへつぶやきを投稿するプログラムを書いてみましたが、今回はタイムラインから様々な情報を取得するPHPプログラムを書いてみます。 OAuth認証系の処理については、基本的に前回書いたプログラムと同様です。 ここはタイムラインの操作でも共通する処理になるため、切り出して別のプログラムファイルとして定義しておきます。 <?php include 'HTTP/OAuth/Consumer.php'; $consumer_key = 'アプリ登録した際のコンシューマーキー'; $consumer_secret = 'アプリ登録した際のコンシューマーシークレットキー'; $access_token = 'アプリに対して発行したアクセストークン'; $access_token_se
「おーおーっすっ!」 てなこって、TwitterのAPIのBASIC認証も6月末に終了してOAuth/xAuthに移行するというこの時期に、あらためてOAuthについて勉強してみたんですのよ? OAuth認証を利用するライブラリは各言語で出そろってきてるのでそれを使えばいんじゃまいか? というと話が終わるので、じゃあそのライブラリの中身はなにやってんのよってことを、OAuthするScalaのライブラリ作りながら調べたことをまとめてみました。 間違っているところもあると思うのでツッコミ歓迎です>< OAuthってそもそもなんなの? ものすごくざっくりというと「API利用側が、ユーザ認証をAPI提供サービス側にやってもらうための仕様」って感じでしょうか? BASIC認証の場合、API利用側が認証に必要なアカウントやパスワードを預かる必要があるわけです。悪意のあるAPI利用側が「なんとかメーカー
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く