タグ

2012年1月19日のブックマーク (5件)

  • Zend_Db_Tableをもっと手軽に使う (コード解説編) #ZFhimekuri - Qiita

    Zend Framework 日めくりカレンダー2011の7日目、「間に合ってない」ってツッコミには土下座しつつ、Zend_Db_Tableをもっと手軽に使う(概要編) #ZFhimekuriの続き。 Githubに上げたサンプルコードの解説を書きます。 趣旨は「とにかくユルく、ActiveRecord風にZend_Db_Tableを使う」です。 1) 初期化はapplication.iniに。 データベースの接続先やパスワードをどこに書くかは開発者の悩みの種です。 素直にZend_Applicationをベースにしているアプリの場合は、application.iniに設定を書くだけでZend_Dbを初期化できます。 実際に使用するまでDBに接続しないので、実際にDBを使わないページが多くても安心です。

    Zend_Db_Tableをもっと手軽に使う (コード解説編) #ZFhimekuri - Qiita
    k-holy
    k-holy 2012/01/19
    Zend_Db_TableとZend_Db_Table_RowでActiveRecordっぽく
  • Zend_Db_Tableをもっと手軽に使う(概要編) #ZFhimekuri - Qiita

    「Zend Framework 日めくり Calendar 2012」の3日目の記事です。何となくQiitaで書いてみます。 Zend Framework でデータベースを扱う時の定番モジュールがZend_Dbです。公式のQuickStartがわかりやすいんですが、TableDataGatewayをDataMapperから使うというガチガチ厳密な使い方をしているので、「難しそう」「面倒くさそう」という印象を受けるかもしれません。 もうちょっとお手軽に、不真面目に使う書き方を考えてみます。解説を長々と書くとダレそうなので2日間に分割します。今日は概要だけ。 用語の整理 Zend_Dbについて少し解説。主要なクラスはこの3つです。 Zend_Db … DAL(PDOのWrapper) Zend_Db_Table … O/R Mapper(Table Data Gateway) Zend_Db_

    Zend_Db_Tableをもっと手軽に使う(概要編) #ZFhimekuri - Qiita
    k-holy
    k-holy 2012/01/19
    Zend_DbとZend_Db_Tableの使い方
  • tenya.info

    FC2ブログからMT5.2.7に引っ越す このブログも開発継続する気ないので引っ越… 開拓日誌ブログ上 me | コメント(0) Vyatta 6.6R1でやったーぶいっv もうルータ買わない!… 開拓日誌ブログ上 me | コメント(0) PHP 5.5の新機能 最近ぜんぜん注視してなかったけど、センス… 開拓日誌ブログ上 me | コメント(0)

    k-holy
    k-holy 2012/01/19
    配列操作の基本パターン、PHP慣れてない人向けに良いまとめ
  • tenya.info

    FC2ブログからMT5.2.7に引っ越す このブログも開発継続する気ないので引っ越… 開拓日誌ブログ上 me | コメント(0) Vyatta 6.6R1でやったーぶいっv もうルータ買わない!… 開拓日誌ブログ上 me | コメント(0) PHP 5.5の新機能 最近ぜんぜん注視してなかったけど、センス… 開拓日誌ブログ上 me | コメント(0)

    k-holy
    k-holy 2012/01/19
    "設計思想をブレずに共有出来るような仕組み"をGitHubが担っていくんじゃないでしょうか
  • 巨大なSJISのCSVファイルをfgetcsv関数で処理する - hnwの日記

    さて、前回記事「PHPでメモリ上に一時ファイルを作る」では、file_get_contents関数でCSVファイル全体を取得して文字エンコーディングの変換を行い、変換結果に対してfgetcsv関数を利用しました。しかし、CSVファイルが巨大な場合にはfile_get_contentsを使うとメモリ上限に引っかかってPHPが停止してしまいます。 もちろん、UTF-8CSVファイルに対してfgetcsvを利用するのであれば、どんな大きなCSVファイルだろうと処理することが可能です。なぜなら、fgetcsvはファイルを1行単位で読み込む関数ですから、1行分のメモリ消費だけでファイル全体を読み込み続けられるからです(正確にはストリーム上のデータはバッファリングされるので、バッファサイズ分のメモリは消費しますが)。 それでは、巨大なSJISのCSVファイルをfgetcsvで処理したい場合はどうすれ

    巨大なSJISのCSVファイルをfgetcsv関数で処理する - hnwの日記
    k-holy
    k-holy 2012/01/19
    setlocale()を使わずストリームフィルタでfgetcsv()をSJIS対応