A required part of this site couldn’t load. This may be due to a browser extension, network issues, or browser settings. Please check your connection, disable any ad blockers, or try using a different browser.

みんなのIoT/みんなのPythonの著者。二子玉近く160平米の庭付き一戸建てに嫁/息子/娘/わんこと暮らしてます。月間1000万PV/150万UUのWebサービス運営中。 免責事項 プライバシーポリシー 半裸Botを作ったとき,PythonでTwitterAPIをほげほげするのにPython-twitterを使ったんだけど。ちょっと長いTweetをPostしようとすると,「140文字以上あるよ!」という例外が発生してしまう。実際Tweetは60文字くらいしかないんだけど,おかしい。 なんでだろうと思ってソースを見てみたら原因が判明。ユニコードの8ビット文字列を,バイト列として見ている。これだと日本語のマルチバイト文字列が3倍の文字数と判別されてしまう。ASCII圏のことしか考えないのは欧米製のライブラリにはよくあることで,ひょっとしたらとは思ってたけど。 ソースコードをちょっと書き換え
twitterがAPI制限でいろいろうるさいので、APIを使わずにhtmlを解析するってのが何やら流行ってる(?)っぽかったんで、自分もPythonでそれっぽいの書いてみた。 クッキーを利用してログインしようとか考えてたけど、いろいろ調べて試してるうちにmechanizeっていうウェブサイトのアクセスを自動化してくれるモジュールが便利そうだったんで使ってみた。 あと、htmlの解析にはBeautifulSoupってのが良さげな感じ。 ちなみに俺の開発環境のUbuntu8.04では、mechanizeもBeautifulSoupもパッケージであったんで、aptなりsynapticなりで入れるだけ。他の環境の方はもっと詳しいところで調べてください。 # -*- coding: utf-8 -*- import sys import mechanize from BeautifulSoup im
PythonでTwitterのApiの叩き方が下のサイトでわかりやすく書かれていたので 簡単なBotを作ってみる。 python-twitterまとめ 〜導入まで - テックノート@ama-ch simplejsonとpython-twitterが最低限必要なもの。 説明が面倒なので導入はぜひ上のリンク先を参照してほしい。 今回はさらにBeautifulSoupを使ってHTMLを解析し、その情報を流してみる。 BeautifulSoupは、自分の環境(Ubuntu)ならapt-getで手に入る。 他の環境はちょっと解らないんでググッてください。 以下、ソースとか実装方法とか。 #!/usr/bin/python # -*- coding:utf-8 -*- import twitter import urllib2 from BeautifulSoup import BeautifulS
まめこ さんの「 ロックンロールニュースの今日のつぶやきをポストするtwitter bot 」が面白そうだったので、 Pythonで100%パクりもんを作ってみたよ。 やりたいってホザいてから、だいぶ時間経っちゃったけども気にしない。 まずはルールをおさらいから。 今日のつぶやき/ロックンロールニュース を取ってくる。 そこから div.txt なテキストだけ取りだす。 twitter に放り込む。 とりあえずは動くところまでやってみる。 まずは一通り使うものをインストール。って言っても easy_install 経由なんだけども。 BeautifulSoup とか python-twitter とか。 $ sudo easy_install -UZ BeautifulSoup $ sudo easy_install -UZ python-twitter で、出来たのがコチラ。 #!/us
TwitterのAPIでTL(タイムライン)を取得するとき、回数制限が設けられています。 しかしuser_timelineをRSSで取得する際には、この制限がありません。 なので、この独立したいくつかのuser_timelineを組み合わせ、TLを再構築させてみたいと思います。 準備: Python処理系(俺は2.6系) feedparser([ubuntu] slicehostでpython-mecabとかの インストール - shohu33's diaryを参考にしてインストール) #!/usr/bin/python # -*- encoding: utf-8 -*- # coding: utf-8 import sys import urllib import feedparser def get_rss_url(id): url = "http://twitter.com/%s"
昨日、フレンドリストを100人以上取得するためにtwitter.pyを色々いじりました。その結果、 users = api.GetFriends(取得ページ番号) こんな感じで呼び出せるようになりました。ページ番号で3を指定すると、ID*1順で201〜300番を取得します。 でもこれだといちいちページ番号を指定しないといけないので面倒です。 そこで今回はGetFriends()に引数を与えたりごちゃごちゃいじくって機能拡張*2してみました。 前回同様、twitter.pyの最後に以下を付け足します。 PAGELIMIT = 10 # number of friends can get once class TwitterApi(Api): def GetFriends(self, pagebegin=1, pageto=PAGELIMIT, user=None): friends = []
python-twitterで遊んでみたよ!とりあえず基本的な使い方のお勉強。 ちなみにドキュメントはここにあるからね! http://static.unto.net/python-twitter/0.5/doc/twitter.html モジュールの機能自体シンプルだから、ドキュメントも短くて読みやすいです。僕の英語力だと半分くらいしか理解できないけど>< まずはimportから >>> import twitter >>> api = twitter.Api("ユーザー名", "パスワード") とりあえずアカウント情報を登録してあげます。これをしないと、色んな機能が使えません。 フレンドリストを取得 users = api.GetFriends() >>> for cnt, i in enumerate(users): ... print cnt, i.name ... 0 nipot
そういえばソース公開してなかったので…… 自分用なので色々実験したりしててきちゃないコードです>< 何か入力するとクロスポストして、 何も入力せずに Return で replies が表示されます。 replies にいる ID は tab 補完が出来ます。 Outputz に文字数を投稿します。 #!/usr/bin/env python # -*- coding: utf-8 -*- import sys, simplejson, urllib2, urllib, twitter as tw, readline from pit import Pit #source = 'profile_answer' source = '清楚なクライアント' class Wassr: def __init__(self, user, passwd): self.user = user self.p
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く