並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 71件

新着順 人気順

urllibの検索結果1 - 40 件 / 71件

  • Pythonの基礎 WebAPIを使ってみる YahooAPI(ショッピング、カテゴリランキング編)その2 urllib - Pythonの学習の過程とか

    YahooAPIを使ってみる その2 さて、前回はコードと結果の紹介、それからif __name__ …を考えてみました。 今回も参考にさせてい頂いたサイトはこちら http://bty.sakura.ne.jp/wp/archives/787 ソースの引用をさせてい頂きますが、どうやらコメントを受けてつけておられないようで、いずれ気づいて頂けたらと思います。 では今回から本格的に中身を見ていきます。 pythonの勉強を続けてきて、JSONも何となく分かるようになってきました。 では続きをいきましょう。 その前に今回のファイルは二つの関数に別れています。 def yapi_topics(): def do_json(s): このうちのyapi_topics()を取り上げたいと思います。 urllibって何?? import sys import urllib import json いき

      Pythonの基礎 WebAPIを使ってみる YahooAPI(ショッピング、カテゴリランキング編)その2 urllib - Pythonの学習の過程とか
    • urllib2モジュール - ひきメモ

      Getリクエスト >>> import urllib2 >>> r = urllib2.urlopen("http://www.yahoo.co.jp") Postリクエスト >>> import urllib >>> query = {"name":name, "password":password} # 送信するデータ >>> query = urllib.urlencode(query ) # URLエンコード >>> r = urllib2.urlopen("http://www.hatena.ne.jp/login", query) レスポンスオブジェクトのメソッド >>> r = urllib2.urlopen("http://d.hatena.ne.jp/yumimue/edit") >>> r.code, r.msg # レスポンスコードとメッセージ (200, 'OK')

        urllib2モジュール - ひきメモ
      • 日本語リファレンスには書いてない話:urllibとurllib2の違いってなんだ - hylom's

        ‐ programming, open source, os, and a handful of tips Pythonでは、HTTPやFTPなどでファイルの送受信をするモジュールとして「urllib」と「urllib2」が用意されている。使い方も似ていて、どちらも引数としてURLを与えてurlopen()関数を呼び出すと自動的に対応したプロトコルでURLにアクセスしてデータを読み出せる、というものである。しかし、似たような名前で似たような機能を持つこの2つ、何が違うのかが明確にはドキュメントに記述されていない。そのためどちらを使うべきか迷って、そのたびにGoogleのお世話になるという状況だったのでざっとまとめてみよう。 外から見える違いとしては、urlopen()の引数としてurllibはURL文字列のみを受け付けるのに対し、urllib2ではurllib2.Requestクラスを受け

        • urllib2でCookieを使う - ひきメモ

          urllib2モジュールでCookieを使ったWebへのアクセスは以下のように行います。 import urllib2, cookielib cj = cookielib.CookieJar() # Cookieを格納するオブジェクト cjhdr = urllib2.HTTPCookieProcessor(cj) # Cookie管理を行うオブジェクト opener = urllib2.build_opener(cjhdr) # OpenDirectorオブジェクトを返す r = opener.open(url) urllib2.build_opener( )はurllib2.BaseHandlerクラスまたはそのサブクラスのインスタンス(ハンドラオブジェクト)を引数に取ります。OpenDirectorオブジェクトは複数のハンドラを経由してリクエストの送信及びレスポンスの受信を行います。

            urllib2でCookieを使う - ひきメモ
          • urllib, urllib2を使ってGET/POST - YAMAGUCHI::weblog

            注意(追記:2013.03.22) もうこの情報は古いので、いまはHTTP系の処理はrequestsを使ったほうがいいです。 Requests: HTTP for Humans — Requests 1.1.0 documentation 動機 Web API使ってるとでてくる使い回しをメモ。 方法 まずはオーソドックスに GET import urllib url = 'http://d.hatena.ne.jp/ymotongpoo' params = urllib.urlencode({'hoge':1, 'fuga':2}) f = urllib.urlopen(url + '?' + params) # paramsはhoge=1&fuga=2の形になっている print f.read() POST import urllib url = 'http://d.hatena.ne.

              urllib, urllib2を使ってGET/POST - YAMAGUCHI::weblog
            • Python の HTTP クライアントは urllib.request で十分 - Qiita

              AWS Lambda が Python 3 に対応してからというもの Lambda Functions はだいたい Python 3 で書くようになったが、Lambda では外部モジュールに依存する関数を作ろうとすると一気に面倒臭さが増してしまう。1 そもそも Python は標準モジュールが充実していてよほど複雑なことをしなければ標準モジュールだけで済ませることができるのだから、極力外部モジュールに頼らない書き方ができるとより気軽に Lambda Function を書けるようになる。 例えば Python から HTTP API を利用する場合、何も考えずにすぐ requests などの便利な HTTP クライアントモジュールを入れてしまいがちだが、冷静になって考えると「その程度の用途なら urllib.request で十分では」と思うことは少なくない。 そこで今回は HTTP AP

                Python の HTTP クライアントは urllib.request で十分 - Qiita
              • urllib2 - The Missing Manual

                Introduction Related Articles You may also find useful the following articles on fetching web resources with Python : Basic Authentication A tutorial on Basic Authentication, with examples in Python. cookielib and ClientCookie How to handle cookies when fetching web-pages with urllib2. urllib2 is a Python module for fetching URLs (Uniform Resource Locators). It offers a very simple interface, in t

                • HOWTO Fetch Internet Resources Using urllib2 — Python 2.7.18 documentation

                  urllib2 is a Python module for fetching URLs (Uniform Resource Locators). It offers a very simple interface, in the form of the urlopen function. This is capable of fetching URLs using a variety of different protocols. It also offers a slightly more complex interface for handling common situations - like basic authentication, cookies, proxies and so on. These are provided by objects called handler

                  • urllib2でproxyを使うには

                    urllib2を使ったpythonのスクリプトは結構便利なのが多い。 でも、プロキシ使ってると通らないのが多い。 以下のコードを加えると、特に手を加えなくてもproxy使えるので、メモ。 proxy = {'http':'http://hogehoge.com:8080/'} proxy_handler = urllib2.ProxyHandler(proxy) opener = urllib2.build_opener(proxy_handler) urllib2.install_opener(opener)

                    • PythonでURLエンコード・デコード(urllib.parse.quote, unquote) | note.nkmk.me

                      なお、urllib.parseモジュールはPython2ではurlparseモジュールという名前だった。ここではPython3の場合について以下の内容を説明する。 URLエンコード(パーセントエンコード)とは URLエンコードは、URLで使用できない日本語(全角文字)やスペースなどの記号を使う際に行われる符号化(エンコード)。%XXの形に変換されるのでパーセントエンコードとも呼ばれる。 パーセントエンコーディング - Wikipedia 例えば、Wikipediaの「日本語」のページは以下のようなURLになっている。 https://ja.wikipedia.org/wiki/%E6%97%A5%E6%9C%AC%E8%AA%9E この%E6%97%A5%E6%9C%AC%E8%AA%9Eの部分が「日本語」をURLエンコードした文字列。 %E6%97%A5%E6%9C%AC%E8%AA%9

                        PythonでURLエンコード・デコード(urllib.parse.quote, unquote) | note.nkmk.me
                      • 要ログインのサイトにPythonのurllib2でアクセスする - hylom's

                        ‐ programming, open source, os, and a handful of tips ログインが必要なWebサイトに対してスクリプトでページを取得/送信したい場合、まずログイン用のURLに対しログイン情報をPOSTしてCookieを取得する、という作業を行うのが一般的だ。しかし、Pythonのurllib2を利用すると簡単にPOSTは行えるのだが、なぜかCookieを取得できない、という問題が発生することがある。 これはurllib2のurlopen()でURLを開き、帰ってきたオブジェクトのinfo()メソッド経由でSet-Cookieヘッダを取得しようとする場合に発生する。たとえばCMSを使用しているWebサイトで、管理用ページ以外に(正当な)Cookieを持たずにアクセスするとCookieなしでアクセスできるトップページ等にリダイレクトされる、というケース。多く

                        • urllib2のみでmultipart/form-dataを送る - YAMAGUCHI::weblog

                          はじめに サワディーカップ(こんにちは)、Python界のミステリハンターです。さて、PyCon mini JPから早くも1週間が経ちまして、僕もPythonやってかないといかんなー、と思った次第です。そこで、早速Webクローラーを書きまして、そのときにformデータをmultipartで送信する部分がありましたので、こんな感じに実装したよというのをメモしておきます。 multipart/form-data関連リンク RFC 2045 - multipart自体のRFC RFC 2388 - Returning Values from Forms: multipart/form-data (RFC2388) ISAPI Extension (5) : Multipart/form-data の処理 まあ要はurlencodeで送信してた内容を区切り線で分けてbodyに突っ込みました、ちゃん

                            urllib2のみでmultipart/form-dataを送る - YAMAGUCHI::weblog
                          • python urllib urlretrieve 画像 取得 ダウンロード - peroon's diary

                            以前 python を使ってウェブ上から画像をダウンロードする方法を書いたら 好評だった&もっといい方法を教えてもらったので紹介します。 #!/usr/bin/python #coding:utf-8 import urllib url = "http://www.hatena.ne.jp/users/pe/peroon/user_p.gif" savepath = "/home/ke/pyworld/hoge.gif" urllib.urlretrieve( url, savepath )初めてのPython 第3版夏目 大 オライリージャパン 2009-02-26 売り上げランキング : 98678 おすすめ平均 Python の魅力を語る本 Amazonで詳しく見る by G-Tools

                              python urllib urlretrieve 画像 取得 ダウンロード - peroon's diary
                            • HOWTO Fetch Internet Resources Using The urllib Package

                              HOWTO Fetch Internet Resources Using The urllib Package¶ Author: Michael Foord Introduction¶ urllib.request is a Python module for fetching URLs (Uniform Resource Locators). It offers a very simple interface, in the form of the urlopen function. This is capable of fetching URLs using a variety of different protocols. It also offers a slightly more complex interface for handling common situations -

                                HOWTO Fetch Internet Resources Using The urllib Package
                              • Python入門:urllibとurlencode (ほげおメモ)

                                「変換変換・・・」 GETリクエストの際に、URLとリクエストパラメータを結合する方法と、ダブルバイト文字(日本語とか)をリクエストに載るようにエンコードする方法。 たとえば、Googleで「ほげ」を検索すると、次のようなGETリクエストが生成されるとする。(ちょっとリクエストを省略) http://www.google.co.jp/search?q=%E3%81%BB%E3%81%92&lr=lang_ja 'http://www.google.co.jp/search'に'?'を付けて、2つのリクエストパラメータを結合している。コレをPythonで作り出す。 import urllib url = 'http://www.google.co.jp/search?' keyword = u'ほげ' lang = 'lang_ja' encoding = 'utf-8' query = {

                                • [Python] urllib.unquoteとunicode - かせきのうさぎさん

                                  urllib.unquoteはURLエンコードされた文字列を元に戻す関数だ。よくURLで使われている「%E6%97%A5%E6%9C%AC%E8%AA%9E」みたいな文字を元に戻す時に使う。 # Python 2.5.2 on win32 >>> a = urllib.unquote('%E6%97%A5%E6%9C%AC%E8%AA%9E') >>> print a.decode('utf-8') 日本語 URLエンコードは文字コードに関して何も規定していない。だから、デコードした結果を画面に出力する場合は適当な文字コードで変換してやる必要がある。上の例ではUTF-8を使っているが、サイトによっては、以下のようにShift_JISやEUC-JPかもしれない。 >>> a = urllib.unquote('%93%FA%96%7B%8C%EA') >>> print a.decode('

                                    [Python] urllib.unquoteとunicode - かせきのうさぎさん
                                  • python :: urllib2 でhttps通信したときのめも - ichirin2501's diary

                                    軽くめも、相変わらずの語尾の不安定さ。 以下の動作は全て python2.7 で行いました。 自動でCookie処理をさせる デフォルトではCookie処理が自動でされないらしい 例えば以下のようにCookie用のhandlerを追加することで解決できる import urllib2 import cookielib opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookielib.CookieJar())) urllib2.install_opener(opener) build_openerを探る build_openerは OpenerDirector のインスタンスです。 build_openerに引数として渡したhandlerというものが何なのかよくわかりませんでした。 Cookie処理のhandlerが設定さ

                                      python :: urllib2 でhttps通信したときのめも - ichirin2501's diary
                                    • Python3で、urllibとBeautifulSoupを使ってWebページを読み込む - minus9d's diary

                                      Python3で、urllibとBeautifulSoupを使ってWebページを読み込む方法についてまとめます。 urllibを使ったページの取得 まず、Python3の標準ライブラリであるurllibを使ってページを取得します。Python2から書き方が変わっているので注意が必要です。 import urllib.request url = 'http://www.rekibun.or.jp/grutto/museum2015.html' response = urllib.request.urlopen(url) data = response.read() ここで、response.read()はbytesオブジェクトを返します。以下はその抜粋です。日本語がバイト列として表現されてしまっています。 b'<!DOCTYPE html> (中略) <title>\x8c\xf6\x89v

                                        Python3で、urllibとBeautifulSoupを使ってWebページを読み込む - minus9d's diary
                                      • urllib2でtimeoutを捕まえる — そこはかとなく書くよん。 ドキュメント

                                        urllib2でtimeoutを捕まえる¶ urllib2を使っていて、timeoutを入れたくなりました。で、timeoutが発生し たらリトライをする、といった処理をしたいのですが、このtimeoutがどうい う例外なのかが分かりませんでした。 世界のtk0miya先生は urlib2.URLErrorで、messageに "timed out"と書かれてい る例外が飛んでくる、とおっしゃっていました。 しかし、手元で試したところ、 socket.timeout が飛んできておりました。 はてな? 手元は2.7.2 on Linux(ubuntu)、世界の小宮先生は2.7.1とのこと。 書いていたのはこういうコードでした。 try: f = urllib2.urlopen(req, timeout=timeout) body = f.read() except socket.timeo

                                        • Python - urllibを使用したWebページの取得: プログラミング研究室

                                          【まず読もう】 ・Seesaaブログで、ソースコードを表示させる方法 【一覧】 ・Webサイト一覧 ・API一覧 【おすすめサイト】 ・Geekなぺーじ ・バシャログ ・ネットワークプログラミングの基礎知識 【プログラミング言語】 ・C ・C++ ・C# ・Java ・Perl ・PHP ・Ruby ・Python ・ActionScript ・HTML ・CSS ・JavaScript ・Flex ・Apache ・MySQL ・その他 ・雑記 【プロトコル】 原理を覚えよう ・HTTP 【API】 ・YouTube API ・ニコニコ動画

                                          • urllib.parse — Parse URLs into components

                                            urllib.parse — Parse URLs into components¶ Source code: Lib/urllib/parse.py This module defines a standard interface to break Uniform Resource Locator (URL) strings up in components (addressing scheme, network location, path etc.), to combine the components back into a URL string, and to convert a “relative URL” to an absolute URL given a “base URL.” The module has been designed to match the inter

                                              urllib.parse — Parse URLs into components
                                            • urllib.request — Extensible library for opening URLs

                                              urllib.request — Extensible library for opening URLs¶ Source code: Lib/urllib/request.py The urllib.request module defines functions and classes which help in opening URLs (mostly HTTP) in a complex world — basic and digest authentication, redirections, cookies and more. Warning On macOS it is unsafe to use this module in programs using os.fork() because the getproxies() implementation for macOS u

                                                urllib.request — Extensible library for opening URLs
                                              • 11.4 urllib -- URL による任意のリソースへのアクセス

                                                11.4 urllib -- URL による任意のリソースへのアクセス このモジュールはワールドワイドウェブ (World Wide Web) を介してデータを 取り寄せるための高レベルのインタフェースを提供する。特に、関数 urlopen() は組み込み関数 open() と同様に動作し、 ファイル名の代わりにファイルユニバーサルリソースロケータ (URL) を 指定することができます。いくつかの制限はあります -- URL は読み出し 専用でしか開けませんし、seek 操作を行うことはできません。 このモジュールでは、以下の public な関数を定義します。 URL で表されるネットワーク上のオブジェクトを読み込み用に開きます。 URL がスキーム識別子を持たないか、スキーム識別子が file: である場合、ローカルシステムのファイルが (広範囲の改行サポート なしで) 開かれます

                                                • 11.5 urllib2 -- URL を開くための拡張可能なライブラリ

                                                  標準で URL を開くオブジェクトとして OpenerDirector のインスタンス をインストールします。このコードは引数が本当に OpenerDirector のインスタンスであるかどうかはチェックしないので、適切なインタフェース を持ったクラスは何でも動作します。 与えられた順番に URL ハンドラを連鎖させる OpenerDirector のインスタンスを返します。handler は BaseHandler または BaseHandler のサブクラスのインスタンスのどちらか です (どちらの場合も、コンストラクトは引数無しで呼び出せるように なっていなければなりません) 。以下のクラス: ProxyHandler, UnknownHandler, HTTPHandler, HTTPDefaultErrorHandler, HTTPRedirectHandler, FTPHan

                                                  • [Python入門]urllib.requestモジュールによるWebページの取得

                                                    urllib.request.urlopen関数はより多くのパラメーターを持つが、これらについてはPythonのドキュメントを参照されたい。 urlopen関数の基本的な使い方 この関数を使用して、指定したURLをオープンすると、http.clientモジュールで定義されているHTTPResponseクラスのオブジェクトが返送される。このクラスには、readメソッド、readlineメソッド、readlinesメソッドなど、取得したHTTPレスポンスから、そのボディー(内容)を読み出すためのメソッドがある。これらを使うことで、取得したレスポンスページの内容を、ファイルを操作するのと同様な手法で読み込めるようになっている。 この他にも取得したリソースの実際のURLを返送するgeturlメソッド、ページに関する情報を取得するinfoメソッド、urllib.request.urlopen関数によ

                                                      [Python入門]urllib.requestモジュールによるWebページの取得
                                                    • python3で日本語を含むURL(日本語URL)にurllibでアクセスする際、htmlで勝手にencodeされてエラーするので回避策をメモ - Qiita

                                                      python3で日本語を含むURL(日本語URL)にurllibでアクセスする際、htmlで勝手にencodeされてエラーするので回避策をメモPython 内容 文字列の中の日本語に対して、処理をして置換する方法 "http://ほげふが/qiita.com" -> 「ほげふが」を処理した結果で置き換える urllibのurlonenで日本語含むURLを使いたい時のちゃんとした(?)対応 追記:ご指摘頂いた方法が今回の対応として正しいと思われたため最後に追記しました。 背景 urllibを使ってスクレイピングして「エヴァンゲリオン」画像を集めようとしたらはまった はまったのは、「UnicodeEncodeError」。python苦手。。。 つまづいた内容 Traceback (most recent call last): ・・・ response = urllib.request.ur

                                                        python3で日本語を含むURL(日本語URL)にurllibでアクセスする際、htmlで勝手にencodeされてエラーするので回避策をメモ - Qiita
                                                      • Python3系のurllibモジュールでHTTP/GET, POSTを行う

                                                        HTTP/GETでWebページを取得する # -*- coding: utf-8 -*- import urllib.request if __name__ == '__main__': page_text = "" # urlopenはurllib.responseオブジェクトを返す # urllib.responseはfileのようなオブジェクトで、infoメソッドとgeturlが追加されたもの with urllib.request.urlopen('http://www.google.co.jp') as page: # WebページのURLを取得する print(page.geturl()) # infoメソッドは取得したページのメタデータを返す print(page.info()) # readlinesでWebページを取得する for line in page.readlin

                                                        • Pythonのurllib.requestのユーザーエージェントの変更 - みーのぺーじ

                                                          PythonでURLを指定してhtmlなどのファイルをダウンロードするにはurllib.requestを使用しますが,ユーザーエージェントをどのように扱うのかをメモしておきます.Python3.3で検証しています. まず,以下のスクリプトを見て下さい. import urllib.request url = "http://www.cman.jp/network/support/go_access.cgi" req = urllib.request.Request(url) response = urllib.request.urlopen(req) charset = response.headers.get_content_charset() if charset==None: charset = "utf-8" print(charset) html = response.read(

                                                            Pythonのurllib.requestのユーザーエージェントの変更 - みーのぺーじ
                                                          • urllib で POSTとGET - Djangoへの片思い日記

                                                            urllib で POST でアクセスする場合は params = { x : "1", y : "2" } urllib2.openurl(url,urllib.urlencode(params)) で、GET でアクセスする時、パラメータはどうするんだろう? とか思ってたら、id:nishiohirokazu さんに教えてもらった params = { x : "1", y : "2" } params = urllib.urlencode(params) // x=1&y=2 なので urllib2.openurl(url + "?" + params) で良いらしい。 凄い素直といえば素直だけど…… PUT とか DELETE とかはどうするんだろう?

                                                              urllib で POSTとGET - Djangoへの片思い日記
                                                            • 20.5. urllib — Open arbitrary resources by URL — Python 2.7.18 documentation

                                                              This document is for an old version of Python that is no longer supported. You should upgrade and read the Python documentation for the current stable release. Note The urllib module has been split into parts and renamed in Python 3 to urllib.request, urllib.parse, and urllib.error. The 2to3 tool will automatically adapt imports when converting your sources to Python 3. Also note that the urllib.r

                                                              • 11.4 urllib -- URL による任意のリソースへのアクセス

                                                                11.4 urllib -- URL による任意のリソースへのアクセス このモジュールはワールドワイドウェブ (World Wide Web) を介してデータを 取り寄せるための高レベルのインタフェースを提供する。特に、関数 urlopen() は組み込み関数 open() と同様に動作し、 ファイル名の代わりにファイルユニバーサルリソースロケータ (URL) を 指定することができます。いくつかの制限はあります -- URL は読み出し 専用でしか開けませんし、seek 操作を行うことはできません。 このモジュールでは、以下の public な関数を定義します。 URL で表されるネットワーク上のオブジェクトを読み込み用に開きます。 URL がスキーム識別子を持たないか、スキーム識別子が file: である場合、ローカルシステムのファイルが (広範囲の改行サポート なしで) 開かれます

                                                                • urllib2からの接続にTorを使う[Python][Mac] - Qiita

                                                                  Torとは TorはIPアドレスを自身のアドレスを他のアドレスに偽装することができます。 これは非常に良く出来ており、犯罪などに悪用されているほどです。 悲しいことに日本の警察では手がかりにIPアドレスしかない状態になると犯人をほぼ確実に見つけれれません。ここ最近のTorを使用していた犯罪者がよく逮捕されていますが、恐らくIPアドレス以外から手がかりを見つけたのでしょう。 Torのインストール Macの人は HomeBrewからインストールできます。

                                                                    urllib2からの接続にTorを使う[Python][Mac] - Qiita
                                                                  • 20.6. urllib2 — extensible library for opening URLs — Python 2.7.18 documentation

                                                                    Note The urllib2 module has been split across several modules in Python 3 named urllib.request and urllib.error. The 2to3 tool will automatically adapt imports when converting your sources to Python 3. The urllib2 module defines functions and classes which help in opening URLs (mostly HTTP) in a complex world — basic and digest authentication, redirections, cookies and more. The urllib2 module def

                                                                    • 「botocore.vendored」のrequestsとurllib3は、そのうち使えなくなります。 Lambda等で使用中の場合は忘れないうちに対応しましょう! | DevelopersIO

                                                                      はじめに サーバーレス開発部の藤井元貴です。 こんな会話がありました。 藤井「あ、Lambdaにrequests入れるの忘れた」 ○○「from botocore.vendored import requestsって出来るで」 藤井「なんだって! 便利!」 〜〜 調べてみる 〜〜 藤井「非推奨やん! そのうち消えるやん!!」 ○○「やっぱり?」 使ってる方は使わないようにしましょうというブログです。 公式情報 botocoreの公式ドキュメントに記載が有りました。 The vendored versions of requests and urllib3 are no longer being used and have been replaced with a direct dependency on upstream urllib3 and requests is no longer

                                                                        「botocore.vendored」のrequestsとurllib3は、そのうち使えなくなります。 Lambda等で使用中の場合は忘れないうちに対応しましょう! | DevelopersIO
                                                                      • python3 urllib でPOST/GET/PUT と JSON 送信 - それマグで!

                                                                        python3 の urllib を使う。 ひさしくpython2.7 だし全然不満がないのですが。python3.6 の文字列展開とjinja2 が便利そうだしそろそろ python3 使ってみようと思い立って、まずは基本的なリクエストを投げるところから。 urllib.request で各種リクエストを作る urllib.request は 公式ドキュメントにすら Requests を使ったら?と書かれてたりする。 まぁ、そうなんだけど。py3から使い方も変わったしおさらいしておくことにする。 基本的なリクエストの流れ import urllib,urllib.request url = 'https://t.co' req = urllib.request.Request(url=url) f = urllib.request.urlopen(req) print(f.read().

                                                                          python3 urllib でPOST/GET/PUT と JSON 送信 - それマグで!
                                                                        • Urllib3, Stripe, and Open Source Grants

                                                                          Six years ago, I built a better Python http library. It had then-novel things like connection pooling, thread-safety, multipart encoding, and more. Today, every Python user depends on it. Maintaining something for six years on my own time is not easy, even with a slew of coping strategies. A few hours here and there, every week, and slowly it chugs along—largely thanks to contributors undertaking

                                                                            Urllib3, Stripe, and Open Source Grants
                                                                          • GitHub - urllib3/urllib3: urllib3 is a user-friendly HTTP client library for Python

                                                                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                              GitHub - urllib3/urllib3: urllib3 is a user-friendly HTTP client library for Python
                                                                            • pythonのurllib2でjsonを取得して解析する - 文系プログラマによるTIPSブログ

                                                                              簡単にjson取得できますよ〜 最近fabricを使い出した影響で、pythonのコードを少しづつ書くようになりました。 【python】fabricを触ってみた!【デプロイツール】 - 文系プログラマによるTIPSブログ 【デプロイ】Fabricを学ぶ:Vol.01:基本的な使い方を学ぶ【python】 - 文系プログラマによるTIPSブログ 【デプロイ】Fabricを学ぶ:Vol.02:tomcatの起動完了を監視する【python】 - 文系プログラマによるTIPSブログ そこで今回、httpリクエストで取得したjsonをpythonで解析してみたいと思います。 使用するjsonのapi レスポンスjson pythonでjsonをパースする サンプルソース 実行結果 よくあるミス 使用するjsonのapi 恐らくjsonを返すAPIとして有名であろう「お天気Webサービス仕様」を使

                                                                                pythonのurllib2でjsonを取得して解析する - 文系プログラマによるTIPSブログ
                                                                              • Python urllib2 Progress Hook

                                                                                I am trying to create a download progress bar in python using the urllib2 http client. I've looked through the API (and on google) and it seems that urllib2 does not allow you to register progress hooks. However the older deprecated urllib does have this functionality. Does anyone know how to create a progress bar or reporting hook using urllib2? Or are there some other hacks to get similar functi

                                                                                  Python urllib2 Progress Hook
                                                                                • Pythonのurllib2がメモリリークする件 - YA55AI

                                                                                  間違ってたら指摘お願いします。 環境: windows XP Python 2.5.2 http://mail.python.org/pipermail/python-bugs-list/2005-October/030763.html 三年前に話してることみたいなんですがここではurlopen()したときの話をしてて(英語は細かいことわからないです) urllib2.py:1095 r.recv = r.read ここで拡張してるのが原因でaddinfourlの親クラスaddbaseのclose()を呼んでもrecvを解放する処理がないので循環参照したままになっています。 その解決策に import urllib2 f = urllib2.urlopen('http://www.google.com') text=f.read() f.fp._sock.recv=None # hacky

                                                                                    Pythonのurllib2がメモリリークする件 - YA55AI