サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
買ってよかったもの
blog.livedoor.jp/kmiwa_project
pythonでWEBサイト内のリンクを収集するクローラーを作っていて、その時に、相対パスや絶対パスがあるので、統一しないと色々と面倒になる。そこで、、関数を作ろうかなと思っていたんだけど、lxmlモジュールで簡単にできることが分かった。 ということで、WEBサイト内のパスを相対パス⇒絶対パスに変更する方法。 import urllib2 import lxml.html html = urllib2.urlopen("http://www/autoproject.nagoya/index.php").read() dom = lxml.html.fromstring(html) dom.make_links_absolute("http://www/autoproject.nagoya") urlList = dom.xpath("//@href") このlxmlモジュールやxpathの使
ウィンドウズで、 Antimalware Service Executable が暴走して、CPUを消費している時に、とめてしまうほうほう。 まず、この Antimalware Service Executable サービスは、Windows Defender が実行するサービスで、Windows Defenderから停止はできるけど、暫くすると自動で再開される。 ネットを調べると、「MsMpEng.exe」を除外して・・・ ということもあるようだけど、環境によっては、Antimalware Service Executable が暴走し続ける。 そこで、 Antimalware Service Executable を永久に止める方法。永久と言っても再開したいときは、再開できる。 以下、その手順。 ・スタートメニューから「regedit」と入力しレジストリエディターを開く ・HKEY_L
最近、ウィンドウズ8.1をウィンドウズ10へアップグレードさせました。アプリケーションの対応の問題でアップグレードが少し遅れました。 ウィンドウズ8.1の悪い機能を改善してあって、8.1よりは10の方が間違いなくいい。 ただ、8.1からアップグレードしたことで、最初は変なプログラムが動いてて遅くなったのでその改善方法を記載します。 1. windows index searchの無効 ウィン8.1の時に無効にしていた index searchの機能が10にアップグレードしたら有効になりました。 これが曲者で、インデックスが終了するまでCPUを食う。基本的に僕の場合は、ファイル検索機能は使わないので、index searchの機能は不要。ということで、この機能は「管理」→「サービス」より無効にした 2.不要アプリの削除 ウィンドウズ10の嫌なところは、不要なアプリがもれなくついてくること。x
selenium を Pythonを使って IEを使って使用できるようにさせる手順。 firefoxの場合と違い、ひと手間必要です。 この設定をしないと、IEが起動しなかったり、「Unexpected error launching Internet Explorer. Protected Mode must be set to the same value」というエラーが出ます。 1.IEDriverServer のダウンロード http://www.seleniumhq.org/download/ の The Internet Explorer Driver Server の項目にて、32bit用と64bit用のダウンロードができます。 パソコンの環境に合わせてダウンロードします。 2.コードの記述 のように Webdriver.Ie の後に、先ほどダウンロードしたIEDriverSe
ラズベリーパイにsambaを入れてファイル共有をしようとした時に Unit samba.service is masked. のエラーが出て、再起動等ができなくなった。 この場合、 以下の方法で回避可能。 ・smbd と nmbd を個別で実行 sudo service smbd restart sudo service nmbd restar ・アクティブdirectoryの場合 sudo service samba-ad-dc restart
scrapy を使おうと思って色々戸惑いました^^; 英語のドキュメントを見るのも面倒だったので、日本語で書かれたブログ記事などを見ながら、他の人の作ったサンプルを見てやろうとしてもイマイチ、分からない。「scrapy crawl ●●」を実行するとあったけど、ターミナルで実行しても動かないし、python上で実行しても動かないし、「scrapy.cfg」のファイルがあるところで実行すると記載されてたものもあったけど、最初は全く意味が分からなかった・・・。初めて、scrapyを使用する方の参考になればと思います。 基本的に英語のドキュメントにかかれているので、それを見てけばわかるんだけど、その英語のドキュメント通りにやっても動かない箇所あったので、自分なりに変更してみました。 ①インストール sudo apt-get install python-scrapy にてインストール。pip i
read_dic = json.load(f) dic の中が下記のようなJSONを出力させたい場合。 {"id":123, "name":"foo", "description":"bar"}, {"id":456, "name":"foo1", "description":"bar1"}, {"id":789, "name":"foo2", "description":"bar2"} 空のリストを作って、それぞれのディクショナリーを追加する。最後に空のリストをjson.dumpする。 empytList = [] emplyList.append({"id":123, "name":"foo", "description":"bar"}) emplyList.append({"id":456, "name":"foo1", "description":"bar1"}) emplyLis
---------------------------------------------------------------------------------------------------------------- 関連記事 JSON $.ajax で読み込む 基本系(javascript, jquery) ajax JSONP 他ドメインのJSONファイルを取得するための最低限のコード ---------------------------------------------------------------------------------------------------------------- PHPでJSONをファイルで保存したい時はこのコード。 $pages は配列
このページを最初にブックマークしてみませんか?
『blog.livedoor.jp』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く