前にこんな記事があったので。 http://postd.cc/fast-scraping-in-python-with-asyncio/ これをPython3.5の新しい構文でやってみる。 あ、もとの記事はhtmlをスクレイピングしてるけど、なんとなく似たような量のレスポンスが返ってくるURLへ同時にアクセスしたかったので、RSSにしてみました。あ全然スクレイピングじゃない。まあ、やってること一緒なので…… import asyncio import aiohttp import feedparser import time async def print_first_title(url): response = await aiohttp.request('GET', url) body = await response.text() d = feedparser.parse(body)
