タグ

2014年8月4日のブックマーク (6件)

  • 1年前に転職しました

    退職しましたというエントリを書いてから、早くも1年が経過しました。せっかくなのでゆるーく1年を振り返ってみたいと思います。 いままであらすじ 1年前、ごく小規模の WEB 受託開発会社から、中規模の広告代理店へ転職しました。 転職先では、エンジニアの社員はわしだけです。 転職して変わったこと 複数のプロジェクトを掛け持ちしなくて済むようになったので、比較的、目の前の仕事に集中しやすくなりました。 電話を取らなくて良くなったので、比較的、目の前の仕事に集中しやすくなりました。 職場が広くて清潔になりました。しかも6月に新築ビルに引っ越してさらに快適になったので、比較的、目の前の仕事に集中しやすくなりました。 システム開発に関するしがらみが0なので、唯一のエンジニアであるわしの裁量で大体のことは決められます。比較的、目の前の仕事に集中しやすくなりました。 何か新しい機能を作るときに、(打算的な

    1年前に転職しました
  • 現場のフォーム - steps to phantasien

    このごろ仕事の進みが悪く、しかもまったくの自業自得で肩を落としている。 今日はそれをふりかえり明日への糧としたい。反省文。 仕事の進みは「遅い」だけ。動いてはいる。一歩一歩は正しい。 でも一歩を踏み出すまでが遅い。正しい一歩を踏み出せる、正しい姿勢をとるのが遅い。 背中を丸め足を引きずる。たとえばこんなふうに… Bisection ある昼下がりにバグ修正を頼まれた。リグレッション。ここ三ヶ月くらいで壊れたらしい。 リグレッションを直す「正しい」一歩目は、二分探索で原因のリビジョンを探す bisection 作業だ。 でもこのバグ、bisection が面倒そう。なんとなく原因の想像はつくからあたりをつけて直してしまおう・・・ ・・・半日たち、結局あたりはつかない。日が暮れてしょんぼり帰宅。 翌朝気を取り直し bisection をしたら 2 時間でリビジョンの特定がおわる。あらら。 しかも

  • Web サイトの sitemap.xml と robots.txt について!

    mk-mode.com Linux, Debian, IT, Server, PG, Ruby, Rails, Python, C++, Fortran, PC, MariaDB, math, GIS, etc... Web サイトやブログサイト等を運営していると、アクセスが気になります。 検索エンジンで検索に引っかかるようにするには色々と手段はありますが、検索エンジンのクローラ(ロボット)により収集されたデータで検索エンジン側でインデックスされる必要もあります。 黙っていれば勝手にクローラによりクロールされますが、ある程度指定しておいた方がよいでしょう。 “sitemap.xml” と “robots.txt” がキーになります。 以下に概要を記録しておくことにしました。 1. sitemap.xml について “sitemap.xml” は、検索エンジンのクローラがより正確にサイトの情

    Web サイトの sitemap.xml と robots.txt について!
  • sitemaps.org

    What are Sitemaps? Sitemaps are an easy way for webmasters to inform search engines about pages on their sites that are available for crawling. In its simplest form, a Sitemap is an XML file that lists URLs for a site along with additional metadata about each URL (when it was last updated, how often it usually changes, and how important it is, relative to other URLs in the site) so that search eng

  • Swift for JavaScript Developers — Realm — a mobile database

    About the content This content has been published here with the express permission of the author. This Tuesday JP Simard gave another talk for the Swift Language User Group (#SLUG) in San Francisco. Hosted by Pubnub, this meetup was a Swift talk for JavaScript developers. JP began with a brief overview of some similarities and differences between Swift and JavaScript. He then focused on eight main

    Swift for JavaScript Developers — Realm — a mobile database
  • The Web Robots Pages

    Web Robots (also known as Web Wanderers, Crawlers, or Spiders), are programs that traverse the Web automatically. Search engines such as Google use them to index the web content, spammers use them to scan for email addresses, and they have many other uses. On this site you can learn more about web robots. About /robots.txt explains what /robots.txt is, and how to use it. The FAQ answers many frequ