コンテンツへスキップ 登録は無効化されました。
Pybigi PythonでLivedoor Readerから未読の記事を取得する 概要 大まかな流れ ①cookieを利用してログインする。 ②未読の記事がある配信元のsubscribe_idを取得する。 ③取得したsubscribe_idを元に未読の記事を取得する。 ④既読化する モジュールのインポート =============== import urllib import urllib2 import cookielib import simplejson =============== 最後のsimplejsonは標準のモジュールではないのでインストールする必要がある。またJSONを扱えるなら、他のものでも可。以下ではsimplejsonを利用する。 ログイン http://member.livedoor.com/login/indexにIDとPasswordを送る。またログイン
ちょっと必要そうだったので、RSS データ取得のテスト。 # wget http://jaist.dl.sourceforge.net/sourceforge/feedparser/feedparser-3.3.zip # unzip feedparser-3.3.zip # cd feedparser # python setup.py install まぁ、入れるのは簡単だよな。でも、deb はなかったっすね。 # python >>> import feedparser >>> d = feedparser.parse("http://d.hatena.ne.jp/kinneko/rss") >>> d['feed']['title'] u'kinneko\u306e\u65e5\u8a18' >>> d.encoding 'utf-8' >>> len(d['entries'])
pydeliciousには、 feedparseが必要だそうだ。 http://www.feedparser.org/ でpydeliciousは Google Code Archive - Long-term storage for Google Code Project Hosting.からゲット。 みんなのpythonに載っていたサンプルを見ながら端折りながらテスト。 >>> import pydelicious >>> r=pydelicious.getrss(tag="python",popular=True) >>> for item in r: ... print item.href, ":", item.description ... http://www.playgroundblues.com/posts/2007/dec/02/django-basic-apps/ :
いつまで経ってもPython素人、bonlifeです。 feedparser を使うサンプルでid:johzanさんがちょっとだけ勘違いをしているようなので、少し調べた結果をまとめてみました。 [元記事] http://d.hatena.ne.jp/johzan/20071213/1197485417 rss/atomを直接指定しなくても検索,取得してくれるのはありがたいけど。 いや、そんなありがたいことはしてくれてないっぽいですよ。 In [1]: import feedparser In [2]: d = feedparser.parse('http://d.hatena.ne.jp/johzan/') In [3]: d.bozo Out[3]: 1 In [4]: len(d.entries) Out[4]: 0 In [5]: d = feedparser.parse('http
最近は自分用スクリプトをPythonで記述するようにしている。ということで、今回は株価監視スクリプト。最低限一日の終値を淡々とDBに書き込むところまで作った 株価取得のAPIなんて無料ではなさそうなので、その辺のウェブで公開している情報をスクレイピング PythonではBeautifulSoupというライブラリを使うのが一般的らしい。なんだかふざけた名前だが、Python界隈にはこういうネーミングをする人が多い気がする。嫌いではない。 pythonではとりあえずライブラリの機能を試す場合にインタラクティブモードにして触ってみるのが良いと思う。 % python Python 2.4.4 (#2, Aug 16 2007, 00:34:54) [GCC 4.1.3 20070812 (prerelease) (Debian 4.1.2-15)] on linux2 Type "help",
デジタル時代のITインフラ構築術 仮想化統合、クラウドを経て今「マルチ」へ ITインフラの最適化と継続的進化への道筋 体験から学んだ成功への知見 マネーフォワード×エム・フィールド対談 Fintechプラットフォーム開発の「鍵」 さあ、その想いをカタチにしよう。 Google Cloud が企業の未来に向けた生産性 向上とコラボレーション実現のヒントを解説 結果に差がつくウェビナーへの投資 デジタル営業時代における見込み顧客獲得へ ウェビナーの運用・集客・フォローの最適化 高まるゼロトラストの気運 妥協のない安全のために適材適所で組合せ トップ4社によるゼロトラストセキュリティ 単純なインフラ製品の販売ではない DX、コンテナプラットフォームの実証など 自社の取り組みで得られた知見を顧客に提案 企業DXのヒントに! SAPとMSとインテルのタッグがもたらす 新たな価値について3社キーマンが
P905iに機種変更したので、写真へ埋め込んだGPS情報を取得してみた EXIFのデータ構造がどうなっているかわかってないですが、 EXIF.pyを使うことで、データ自体は簡単に取得できました。 import EXIF file = 'P905i.JPG' fp = open(file, 'rb') exif = EXIF.process_file(fp) print str(exif['GPS GPSLongitude']) print str(exif['GPS GPSLongitudeRef']) print str(exif['GPS GPSLatitude']) print str(exif['GPS GPSLatitudeRef']) print str(exif['GPS GPSMapDatum']) fp.close()
Python, ジョグ | URL にパラメータ文字列をくっつける事で簡単なグラフが作成出来る Google Chart API は手軽で便利ですね。ブログにぺたぺたと貼付ける事が出来るので、一度 URL を生成する仕組みを作っておけば楽しそうです。はてなグラフにジョグや水泳の記録をつけていて、このデータを取得出来るはてなグラフAPIが提供されていたので、 Google Chart API と連携させるスクリプトを書いてみました。 #!/usr/bin/env python # -*- coding: utf-8 -*- """ gchartclient.py Generate Google Chart API URL strings, image file by using pygooglechart from Hatena::Graph data. Require: json-py p
pythonを勉強中 vol.8 Pythonをちょこちょこ書いていて、 やっぱDjangoのソースなんかも気になりだした。 vol.8は脱線して、 Djangoのソースを見てみる! 今作っているものでページャーを作りたかったので、 Paginatorを読んでみてみた。 Django/django/core/paginator.py paginatorに用意されているメソッドは、 ・validate_page_number ・get_page ・has_next_page ・has_previous_page ・first_on_page ・last_on_page ・hits ・pages ・page_range がありました。 実際に使ったのは、 ・pages ・has_next_page ・has_previous_page のみですがw
↓これもっと簡潔できれいな書き方はないものだろうか。 from itertools import izip #半角英字->全角英字変換 HAN_CHARS = map(chr, range(ord('A'), ord('Z')+1) + range(ord('a'), ord('z')+1)) ZEN_CHARS = map(lambda x: unichr(0xff00 + x),range(0x21, 0x21+ord('Z')-ord('A')+1) + range(0x41, 0x41+ord('Z')-ord('A')+1)) def han2zen(word): """ Unicodeで与えられた文字列の半角英字を全角英字に変換する。 """ for c, cc in izip(HAN_CHARS, ZEN_CHARS): word = word.replace(c, cc)
iKnow の進捗を Python から取得できるようにしてみました。 #!/usr/bin/env python # -*- coding: utf-8 -*- import urllib from BeautifulSoup import BeautifulSoup import re class Iknow: def __init__(self,username): b = BeautifulSoup(urllib.urlopen("http://www.iknow.co.jp/user/"+username)) iknow = b.find('div',id="study_badge_div").find('script').string self.iknow_study = int(re.search(r"int_left.*?(\d+)", iknow).group(1)) s
iKnow の進捗を Python で取得するというエントリをみつけたので、さらにmatplotlibでグラフ書くようにしてみた。これを一日の終わりにcronで実行すれば記録できる。 #!/usr/bin/env python import urllib from BeautifulSoup import BeautifulSoup import re from sqlobject import * from pylab import * from matplotlib.dates import MONDAY, WeekdayLocator import datetime,os # --- Configure --- # mydb = '/home/kzfm/iknow.db' mygraph = '/var/www/html/images/lf/iknow' myname = 'kzfm
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く