2NTは無料ブログ、無料ホームページ等、楽しいWEB Lifeをお届けするポータルサイトです。
2NTは無料ブログ、無料ホームページ等、楽しいWEB Lifeをお届けするポータルサイトです。
繊細なテクスチャ、透明感のあるパネル、充実したフッタ、光源を模したグラデーション、1ピクラインにこだわったディテールなど最近のウェブデザインのトレンドを取り入れた、ウェブサイトのレイアウトを作成するPhotoshopのチュートリアルを紹介します。
CWE is a Software Assurance strategic initiative sponsored by the National Cyber Security Division of the U.S. Department of Homeland Security. CWE - 2010 CWE/SANS Top 25 Most Dangerous Programming Errorsにおいて脆弱性の原因となる危険なプログラミングエラー25が発表された。開発者にセキュリティ問題の原因となるプログラミングに関する注意を促し、実際にソフトウェアが動作する前の段階で問題を発見し対処できるようにすることを目指したもの。2009年に発表されたリストの更新版にあたり、内容の多くが更新されている。2009年版を使っていた場合には、今回発表された2010年版を再度検討する価値がある。
日本の自殺者が年3万人を超えているというのは有名な話だ。藤岡弘は「内戦状態だ」というが、 あながち誇張でもない気がする。 その原因についてだが、よくありがちな「日本が厳しい競争社会だから」というのはナンセンスだろう。 年功序列のおかげで、大手のサラリーマンは外資に比べれば競争なんてないようなもんだし、 規制のおかげで正社員と非正規雇用労働者は競争しなくてよい。 そもそも、郵貯を実質再国営化して官僚OBをトップに送りこむような国だ。ほとんど計画経済である。 むしろ競争が無いことこそ、内戦の原因だろう。 新卒至上主義や転職市場における年齢上限からも明らかなように、 日本社会というのは「失敗を前提としたシステム」ではなく、 「失敗してはいけないシステム」をベースにしている。 こういう社会では落ちた人へのサポートはとても弱い。落伍者を支えるシステムなんて作ってしまったら、 失敗の存在を公式に認める
僕は自称、ベンチャー起業家。これまでに10社くらいは起業し、直接、間接合わせて40億円ほど資金調達して、自分の手金を投資したことがあっても、借金してまで起業したことはないし、保証人になったこともない。見方にもよるだろうがまだ成功はしていないが(苦笑)、リスクの割には大きな失敗もしていない。 そんな僕がここ1、2年で明らかに起業のスタイルが変わったと感じることがあり、起業を志している人の役に立てばと思いそのノウハウとイマドキの起業法を伝授したい。 まず心構えから。おいおい精神論からかよ、と思うかもしれないが、、、 ■心構え 1. 起業は怖くない リスクは避けるものではなくヘッジするもの。自分の許容できるリスクの範囲をきちんと見定めること。最大のリスクは恐れるという心の弱さのことなのだ。恐れるということを恐れよ! 2. 安定基盤を捨てなくても起業はできる。 サラリーマン諸君に言いたい。辞めると
「なんでも判定ツクール」へ多数のアクセスありがとうございますm(_ _)m 1月末にリリースした当初は僅かのアクセスだったのですが、Twitterで火が付いてからは一気にアクセスが集まり、気が付けば2月1日〜2月16日で4,000,000PVを超えました。 自分では絶対に考えつかないであろうユニークな判定がたくさんできて、私自身もとても楽しんでいます:-D(面白い発想をする人は世の中にたくさんいるものです) このサイトはGoogle App Engine(GAE)+Pythonで構築しているのですが、このアクセス数ならではのGAE上で体験できたことをざざっと書いていきます。 無料?課金? まずはじめに大事なこと。 「なんでも判定ツクール」ではGAEを課金状態にしています。無料のQuotaではとてもではないですが、このアクセスは捌けません:D GAE公式サイトには 月間約 500 万ページ
わかってしまえば単純なことでした。 process 'a[href=~/\.jpe?g$/]', 'urls[]' => '@href'; XPathでも同じようにできます。 process '//a[@href =~ /\.jpe?g$/]', 'urls[]' => '@href'; Web::Scraperにはフィルタの概念があって、取得してからごにょごにょできるので、そっちのほうばかり調べていました。 例えば以下のようなHTMLの場合、そのまま取得すると、前後に改行が入ってしまいます。 <title> タイトルなのだ </title> で、それを取得する時に、前後の改行を削除してやることができます。 process 'title', 'title' => ['TEXT', sub { s/^\s+//o; s/\s+$//o; } ]; こういう機能をフィルタと呼んでいます。 その
最近からかもしれないけど、Last.fmでmp3の無料ダウンロードをやっているようだ。 参考:Last.fm からのおすすめ無料mp3 - Last.fm ちょうどWWW::Mechanizeを試していたので、それとWeb::Scraperを組み合わせてダウンロードするスクリプトを作った。 アカウントを持っているのが前提です。 アカウント情報は以下のように、YAMLで記述しておきます。 ソースコードをこのまま使う場合は、スクリプトのあるディレクトリに「lastfm.freemp3.yaml」という名前で保存しておきます。 --- config: id: xxxxxxxx pw: ******** 最後は改行で終了しておく必要があります。たぶん。 ソースコードをこのまま使う場合は、スクリプトのあるディレクトリに「lastfm」というディレクトリが必要です。 実行すると、そのディレクトリ
かなーり今更感がありますが。 モジュール自体は、大分前にウェブにあったスクリプトをコピペして使ったときにインストール済みでしたが、なんとなく難しそうで敬遠していたところもありました。 が、やってみると簡単かつパワフルなモジュールであることがわかりました。 参考:use Web::Scraper; - 今日のCPANモジュール XPathがなかなかわからないのですが、CSSセレクタでもいけるのが超絶簡単です。 例えば、aタグのhref属性を取得する場合のprocessは以下のとおり。 process 'a', 'urls[]' => '@href'; で、この場合だと、href属性がないaタグも対象になってしまうので、未定義(undef)が入る場合があります。 なので、href属性があるものだけを対象としたのが以下のprocessです。 process 'a[href]', 'url
2008年11月16日21:19 Perl Web::ScraperでXML::LibXML みなさん、perl使いだったらWeb::Scraper使いますよね?きっと大活躍だと思います。 僕が作ったYouTube Oricon Rankingというサイトでも、某有名動画サイトからWeb::Scraperを使って、データを取得しています。 Web::Scraper自体は非常に高性能で、「いつもお世話になってます」といった感じなのですが、データの取得に結構な時間が掛かってしまうことが悩みです。。 、、と思ってたら、こんな記事を見かけました。なんて魅力的なタイトル(*´Д`*) Web::Scraper を XML::LibXML で爆速にする hack! 以前、XML::LibXML始まったなでも書いたんですが、今回もXML::LibXMLが絡んできます。 何でも、Web::Scraperで
Blog Search when-present<#else>when-missing. (These only cover the last step of the expression; to cover the whole expression, use parenthesis: (myOptionalVar.foo)!myDefault, (myOptionalVar.foo)?? ---- ---- FTL stack trace ("~" means nesting-related): - Failed at: ${entry.path} [in template "__entry.ftlh" at line 3, column 25] - Reached through: #include "__entry.ftlh" [in template "entry.ftlh" at
3年前にこの本に出会って、僕はスクレーピングの虜になった。 おかげで正規表現をたくさん書く機会が得られたし、CPANのモジュールともたくさん触れ合うことができたし、さらに自分自身でも構造化されたHTMLを書く習慣も身についた。 ただ、やっぱり、スクレーピングは簡単ではない部分もたくさんあると思う。文字コードについても意識しなければならないし、なにより正規表現で必要な部分を抽出することそのものが結構骨のいる作業だ。HTML::TreeBuilder を使った方がいいのか、それとも正規表現だけでやったほうが楽なのか。そんなことを考慮しながらコーディングして行く。そこがスクレーピングの楽しいところでもあるのだが、そこがスクレーピングの敷居を高いものにしていることも否めない。 そんな、愛らしくもあり憎たらしくもあるスクレーピングを簡単にやってしまうのがこのモジュール、Web::Scraper だ。
Today I've been thinking about what to talk in YAPC::EU (and OSCON if they're short of Perl talks, I'm not sure), and came up with a few hours of hacking with web-content scraping module using Domain Specific Languages. 使ってみたよ! #!/usr/local/bin/perl use strict; use warnings; use FindBin::libs; use URI; use Web::Scraper; use Encode; use List::MoreUtils qw/uniq/; my $links = scraper { process 'a.key
HTML を解析するには HTML::TreeBuilder が便利なんだけど、なかなか初心者向けのドキュメントが見つけられなかったので、自分用の覚え書きの意味も含めて、まとめておこうと思います。 とりあえずこんな HTMLファイル(sample.html) を処理してみましょう。 <html> <head> <title>sample.html</title> </head> <body> <div class="entry"> <div class="entry_head"> <h1><a href="http://www.hoge.jp/" id="link">www.hoge.jp</a> is fugafuga</h1> </div> <div class="entry_body"> hogehoge-fugafuga-hogehoge-fugafuga </div> </di
HTML::Element とか HTML::TreeBuilder で HTML 構文木をいじることを盆栽と呼ぶらしいですが、最近よく盆栽してていろいろ覚えたことがあるのでメモ。 as_HTML() で HTML エンティティに変換させない HTML::Element#as_HTML を呼ぶと HTML 文字列が返るのだけど、これを引数なしで呼ぶと "all unsafe characters" が HTML エンティティに変換(エンコード)される。これは普通あまり望ましくないので(変換などせずそのまま出して欲しいことのほうが多い)、それを回避するには my $html = $elem->as_HTML('');と、空文字列を渡してやる。 HTML::TreeBuilder のインスタンスに対して as_HTML() を呼ぶと タグをつけられてしまう これはサブクラスの HTML::Tr
WWW::Mechanize でコンテンツとってきて TreeBuilder::XPath で解析するようなのを今まで単機能スクリプトなどでは便利に使っていたのだけど、それを永続的なプロセスで使おうとしたらメモリ使いまくってとんでもないことになったという話。 まずどんどんメモリが増えていくのでタイミングよく読んでいたjrockwayの記事などを参考に、 perl -MDevel::Leak::Object=GLOBAL_bless 付きでスクリプトを実行してみる。 少しソースをいじってまずはループを一回で止めるようにしたときの出力 Tracked objects by class: Config 1 DBI 1 DBI::var 5 DBIx::Class::ResultSource::Table 1 DateTime::Duration 2 DateTime::Format::Build
Blog Search when-present<#else>when-missing. (These only cover the last step of the expression; to cover the whole expression, use parenthesis: (myOptionalVar.foo)!myDefault, (myOptionalVar.foo)?? ---- ---- FTL stack trace ("~" means nesting-related): - Failed at: ${entry.path} [in template "__entry.ftlh" at line 3, column 25] - Reached through: #include "__entry.ftlh" [in template "entry.ftlh" at
東京都台東区で黙々とウェブでサービスを開発している株式会社アストロデオのホームページです。
企業のTwitter利用とかが注目されていますので、ちょっとでも参考になればと思って、昨年末に行ったEye-Fiの割引キャンペーンの事例をいまさらながらまとめてみました。 簡単に言うと、この1つぶやきでAmazonの在庫がなくなるまで売れました。 なんか思いつきっぽいつぶやきですが、実は一生懸命考えた上で狙ってつぶやきました。 ポイント1:タイミング 12月の第二週の金曜:景気が悪いとはいえ、12月第二週の週末はボーナスが出てすこし財布の紐が緩くなっているところ、ネット通販のかき入れ時と言われています。つぶやくならこの日だと決めていました。 PM5時という時間帯:金曜日の退社前、特に飲み会とかが無くても、なんとなく開放感があり、ワクワクしている時間帯です。実は私はミーティングの真っ最中でしたが、TLの流れを見て、「今だ!」と思ってPostしました。 ポイント2:アクション誘発型の呼びかけ
いまやWeb制作に欠かせなくなったJavaScript。でも、「JavaScriptはほとんど“アリモノ”で済ませている」という方も多いのでは? そこで、WebデザイナーやマークアップエンジニアなどのWeb制作者の方向けに、いま一番人気のJavaScriptライブラリー「jQuery」の基本を学べる特別レッスンをお届けします。題して、「40分で覚えるjQuery」。要点だけにぎゅっと絞って解説しますので、手を動かしながら今すぐjQueryを始めましょう。 【0分目:導入編】 jQueryのダウンロードと利用方法 jQueryのライブラリー本体(JavaScriptファイル)は公式サイトからダウンロードし、head要素などにscript要素を書いて読み込みます。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く