タグ

ブックマーク / d.hatena.ne.jp/uasi (3)

  • Zsh で文脈に応じて内容が変わるエイリアスを定義するやつ作った - ヤルキデナイズドだった

    バージョン管理狂の皆様におかれましては alias st='git status' などのエイリアスは当然定義されていることと思います。 うっかり Mercurial リポジトリの中で st を叩いてしまって fatal: Not a git repository などと言われ、ここで st つったら hg status に決まってるだろボケがとターミナルを叱責した経験も当然あることと思います。 泣く泣く gst と hst を定義したものの、3文字打つのがかったるくて枕を濡らしたことも当然一度や二度ではないことでしょう。 というわけでちょっと賢いエイリアスを定義できるやつを作りました。 Git リポジトリの中で st を叩いたら git statusになり、Mercurial リポジトリの中では hg status になる、そんな空気の読めるやつです。 no title こういう感じで使

    n2s
    n2s 2012/04/13
  • master ブランチで pull request してもいいのは覚悟のあるヤツだけ - ヤルキデナイズドだった

    GitHubへpull requestする際のベストプラクティス master ブランチで pull request していいのは小学生までってこともない このへん読んでて思ったことです。 master から pull request して reject されたとしましょう。この master は上流の master とい違ったままになります。 しかし、自分のブランチと上流の同名のブランチは一致しているか、自分のブランチのほうが進んでいる状態にあると面倒事がなくて好ましいです。い違った master をふたたび一致させる手段は2つ: さらに master を変更して再度 pull request し、どうにか merge してもらう master に変更を加える前のコミットを強制的に push し、 master のコミットをなかったことにする 1つ目の手を取るなら、なんとしても pu

    n2s
    n2s 2011/06/20
  • スクレイピングするなら ScraperWiki 使うといいよ - ヤルキデナイズドだった

    Web ページからデータを抽出してデータベースに突っ込むことに性的興奮を覚えるみなさん、 ScraperWiki 使うとキモチイイですよ。以上です。 そうではないみなさんには少々の説明が必要かと思いますので少々書きます。 ScraperWiki はスクレーパ(Web ページをスクレイピングするスクリプト)とスクレイピングで得られたデータを共有しようぜっという Web サービスです。Wiki と名が付いていますが Wiki っぽいページ構成になってるわけではなく、スクレーパやデータを誰でも編集できるようにして成果を共有するという理念が Wiki と共通しているのが由来みたいです。 ScraperWiki を使うとスクレーパを作るのがラクになります: Web ベースのエディタでスクレーパを書き、その場で実行できる PHPPython または Ruby が使える(HTML パーサなどのモジュ

    スクレイピングするなら ScraperWiki 使うといいよ - ヤルキデナイズドだった
    n2s
    n2s 2011/06/05
  • 1