並び順

ブックマーク数

期間指定

  • から
  • まで

241 - 280 件 / 1141件

新着順 人気順

mtimeの検索結果241 - 280 件 / 1141件

  • rsync

    rsync の使用例 rsync のおもしろい使い方を見つけたら、rsync-bugs@samba.org 宛てにメールで送って下さい。このページに掲載します。 スペア・ディスクへのバックアップ 自分のマシンで rsync を使ってローカル・バックアップを試してみました。 メイン・ディスクにある全ての内容のバックアップを別のスペア・ディスクに取ります。 夜にクーロンでメイン・ディスクのバックアップを行っていました。 そこで使ったスクリプトはこんな感じです。 #!/bin/sh export PATH=/usr/local/bin:/usr/bin:/bin LIST="rootfs usr data data2" for d in $LIST; do mount /backup/$d rsync -ax --exclude fstab --delete /$d/ /backup/$d/ u

    • ここいらでfuseを一区切り - KoshigoeBLOG

      どうすればfuseを使えるのかを知りたかったので、サンプルコードを参考にあれこれしていましたが、ここらで一区切り。 FUSEWiki - FusePython FUSEWiki - FUSE Python tutorial IBM dW : Linux : FUSEによる独自ファイルシステムの開発 - Japan FUSEWiki - FileSystems macfuse - Google Code SSH Filesystem rubyfs pyfs "ローカルファイル"以外の何かを使って読み書きが出来ればFUSEのさわり位は体験出来るだろうという事で、お題を『memcachedへの入出力をFUSEを使って書いてみる』としてみました。 書いたコードでは、読み・書き・削除くらいしか出来ませんが、カーネルもファイルシステムもろくに知らない自分でも、ls,cat,vi,rmなどのコマンドが使

      • mod_proxy_balancerで中〜大規模サーバー運用するときの勘所 – (4) mod_deflateと組み合わせる際の注意点編 – cyano

        Apache2.2から、ロードバランシングをしてくれるmod_proxy_balancer というモジュールが標準添付になりました。 このモジュール、その名前の通り、ApacheレベルでHTTPリクエストをバックエンドのサーバーに振り分けることでロードバランシングをしてくれるモジュールです。 Apacheの公式ドキュメントや試しに入れてみた人のBlogなどは散見されますが、実際の現場で運用している事例というのはまだ無いようです。 そこで、実際にピーク時にover 500 request/secでmod_proxy_balancerなサーバーを運用している経験をふまえ、つまずいた点などを公開していきたいと思います。 今回は、mod_deflateと組み合わせる際の注意点です。前回までの設定ではhttpd.confに以下のように書いていたかと思います。 ProxyRequests Off Pr

        • 【linux】蓄積されていくログファイルなどを定期的に削除する例 at softelメモ

          問題 毎日1つファイルができるタイプのログがあるのですが、ディスクを圧迫するので、1か月分ぐらい残して定期的に削除したいです。 答え findコマンドでできる。 よくある -exec オプションを使った書き方だと、 find /path/to/log -name '*.log' -mtime +30 -exec rm {} \; なお、findコマンドは -delete オプションが使えるなら、そちらの方が高速らしい。見た目もすっきり。 find /path/to/log -name '*.log' -mtime +30 -delete tmpwatchコマンドが使える環境なら、こちらも便利。詳細はマニュアルを参照されたし。下記の例は更新日が720時間以上古いファイルを削除する。 tmpwatch -m 720 /path/to/log 必要なものも削除しないか心配なときは、一度テストして

            【linux】蓄積されていくログファイルなどを定期的に削除する例 at softelメモ
          • npm Blog Archive: package tarball read outage today

            The npm blog has been discontinued. Updates from the npm team are now published on the GitHub Blog and the GitHub Changelog. Earlier today, July 6, 2016, the npm registry experienced a read outage for 0.5% of all package tarballs for all network regions. Not all packages and versions were affected, but the ones that were affected were completely unavailable during the outage for any region of our

            • Tweak m1.small - misc notes

              (2015-07: 以下の内容は古いです。現状では php5.5 以降の Zend OPcache、apcu、さらに php7、HHVM 等の動きがあります) m1.small instance をしゃぶり尽くす AWS って on demand 的な使い方をした場合の課金や、ストレージ課金は驚異的に安価だとおもいますが、常時稼働が必要な instance の CPU 課金は(デフレスパイラル下の日本に於いては)微妙に割高感があります。 その中で、2番目に低価格な m1.small でどこまで逝けるか を試してみるつもりです。 m1.small は Xen の CPU cap (割り当てCPU時間の制御) されており、Amazon に CPU を盗まれています。B) # mpstat 00:00:00 AM CPU %user %nice %sys %iowait %irq %soft %

              • PHP5.2.0とeAcceleratorのインストールメモ

                PHPの最新バージョンがリリースされました。 複数のバグと脆弱性を修正した「PHP 5.2.0」リリース PHPの次期バージョン、PHP 5.2.0 リリース PHPのバージョンアップをする時に、一緒にPHPアクセラレータもインストールしていますが、前回のインストールから何ヶ月か経っているとついつい手順を忘れてしまいます。 サーバーではPukiwiki(ポケットモンスター ダイヤモンド・パール攻略Wikiなど)やOpenPNE(ゲーマーSNS)などを動かしているので、PHPアクセラレータのインストールは必須です。 そこで、次回インストール時の手助けとなるようにLinux用のPHP5とeAcceleratorのインストールメモを残しておきます。 PHPアクセラレータで一番高速なのはどれか? - GIGAZINE によると、最近ではPHPアクセラレータとしてXCacheがオススメらしいですが、

                  PHP5.2.0とeAcceleratorのインストールメモ
                • embomaコラム

                  株式会社えむぼま CTO 高見禎成 ■swapさせずに最大プロセス数にせよ! WWWサーバが最大パフォーマンスを出すには 1) SWAPさせないで 2) 最大プロセス数に設定する ことが最大の条件です。 他にapacheのhttpd.confでHostNameLookups offにしてログ記録時の名前解決をなくす等細かい積み重ねはいくつかありますが、最大のポイントは上記2条件でしょう。 ■最大プロセス数は揃えよ! SWAPさせない最大プロセス数をいくつにするかはこの後見ていきますが、どの値にするにせよapacheとtomcatとDBの最大プロセス数は揃えましょう。 apacheのMaxClietnsは標準で255、tomcatのMaxThreadsは標準で150、MySQLのmax_connectionsは標準で100です。 apacheが2台でMySQL 1台に接続しているなら、MyS

                  • PythonistaにPEP8の御加護を

                    pep8ってコマンドが便利すぎてちょくちょく叩くんだけど、それでも叩くの面倒になったりすることはある。正直、こういうチェッカーは空気を読んで走って欲しいですね。 ユニットテストに組み込んでるのを見つけて、おーいいじゃん素敵じゃんとか思ってたんだけどもうちょい身近に感じたいなぁと。 で、Growlの出番。セーブするたびにpep8チェックが走って結果が通知されるようにした。 でもこの通知はすぐに消える(はやすぎ)。どこがおかしいのかよく見ようとすると消えてしまってちょっと困る。逆にstickyをTrueにすると消えずに残っているのでそれはそれでうざい。 神の御加護ってのはそんなもんなのかなぁと思った。あと、アイコンをPythonの蛇ロゴにしたほうがいいかなぁと。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

                      PythonistaにPEP8の御加護を
                    • PHP/Optimizer - Linux Tips

                      phpでは、実行の際、スクリプトを中間言語に変換してから、実行するという手順が取られ、実行後、その中間言語形式のものは破棄されるらしい。詳細については、他で探してもらうとして、ここでは、キャッシュを用いた Optimizer (正確には、opcode cacher?)の比較をする。 _ 種類 APC(Alternative PHP Cache) PECLに含まれる。Yahooも使っているらしい。 eAccelerator Trunk MMCacheが元になっている。 xcache 新たに作られたcacher。 ionCube PHP Accelerator Yahooが使ってるのはこっちだった。暇があったらベンチマークしてみよう。…と思ったが、バージョン5.xには未対応だ。 Zend Optimizer PHPの開発にも貢献している、Zend社のOptimizer。名前のとおり

                      • bombtterをインスパイアしまくったzerotterを作った - はこべにっき ♨

                        某ゼロっぽいbombtterクローンであるところのzerotterを作ってみました.tetsuwo_botのインスパイアでもあります.友達と話していて思いついたのでとりあえず書いてみた感じです. bombtterがすごくがんばってくれているおかげで,クローンを作るのは異常に簡単でした.完成したのが以下のスクリプトでcronでまわしています. use strict; use warnings; use utf8; use Net::Twitter; use XML::Feed; use URI::Fetch; use URI; use DateTime; my $SERIF = [ ["このゼロが命じる… ", "を爆破せよ!"], ["全力で", "を爆破せよ!"], ["今ここに", "の爆発を宣言する!"], ["そうだな… ", "は…… 爆発しろっ!"], ]; # 最後に更新した

                          bombtterをインスパイアしまくったzerotterを作った - はこべにっき ♨
                        • InternetWeek2005-T16

                          1 2 • • • • #5 3 4 • • • #6 • • • • #7 5 6 • • • • • • • ! #8 • • • #9 7 8 • • • • • #10 #11 9 10 • • • • #12 • • • #13 11 12 • • • • • #14 • • • • #15 13 14 • • http://httpd.apache.org/docs/2.2/mod/ • • http://httpd.apache.org/docs/2.2/mod/quickreference.html ! #16 • • • • #17 15 16 • • • • # • • #18 • • • • • • • #19 17 18 1: Listen 80 2: ServerRoot /var/www 3: DocumentRoot /var/www/htdocs 4: 5:

                          • 仙石浩明の日記: Linux でシンボリックリンクのタイムスタンプを変更する (utimensat システムコールを使って)

                            Linux 2.6.22 以前は、 シンボリックリンク (symbolic link) のタイムスタンプ (time stamp) を 変更することが出来なかった。 Linux (に限らず unix のほとんど全て) では、 シンボリックリンクも普通のファイルと同様、 アクセス日時と更新日時のタイムスタンプを保持している。 BSD な unix などでは、 lutimes システムコールを使ってシンボリックリンクのタイムスタンプを変更できる。 ところが、Linux には lutimes システムコールが存在しない。 したがってシンボリックリンクのタイムスタンプは、 そのシンボリックリンクを作成した時刻のままである。 tar などでアーカイブからリストアする場合や、 rsync などでディレクトリをコピーする場合などでも、 シンボリックリンクだけは元のタイムスタンプが復元されず、 復元した時

                            • GitHub - isaacs/node-glob: glob functionality for node.js

                              // load using import import { glob, globSync, globStream, globStreamSync, Glob } from 'glob' // or using commonjs, that's fine, too const { glob, globSync, globStream, globStreamSync, Glob, } = require('glob') // the main glob() and globSync() resolve/return array of filenames // all js files, but don't look in node_modules const jsfiles = await glob('**/*.js', { ignore: 'node_modules/**' }) // pa

                                GitHub - isaacs/node-glob: glob functionality for node.js
                              • unwind-protect: Apache2::Reload

                                mod_perlで開発してるとき、変更されたモジュールを自動的に再ロードしてくれるApache::Reloadってのがある。これはmp1用で、mp2用はApache2::Reloadになっている。 新しい方には指定したディレクトリ以下だけをチェックしてくれる機能があって、 開発中のディレクトリをこれでチェックするようにしておくと、えらく楽チンな感じ。 設定はhttpd.confにこんなので。 PerlModule Apache2::Reload PerlInitHandler Apache2::Reload PerlSetVar ReloadDirectories "/Users/hogehoge/mp2" PerlSetVar ReloadDebug On これで/Users/hogehoge/mp2以下に置いてあるモジュールの更新をチェックしてくれる。 最後の ReloadDebug

                                • all - Node.js Manual & Documentation

                                  Synopsis 'Hello World' と返答する Node で書かれたWebサーバの例: var http = require('http'); http.createServer(function (request, response) { response.writeHead(200, {'Content-Type': 'text/plain'}); response.end('Hello World\n'); }).listen(8124); console.log('Server running at http://127.0.0.1:8124/'); このサーバを実行するには、コードを example.js というファイルに保存し、 node コマンドで実行してください。 > node example.js Server running at http://127.0.0

                                  • iptablesの設定でサーバー攻撃対策と海外からのアクセスを制限 - falsandtruのメモ帳

                                    中国韓国北朝鮮からのアクセスを禁止、SSHなど重要なポートへのアクセスを日本国内からのみに制限しつつ日本国内とその他の海外に対してウェブサイトを公開する設定例を紹介。Firewall機能を実装する各種攻撃対策も組み込み済み。 このスクリプト実行しとくだけでサーバーの侵入難易度が跳ね上がります。日本のボットサーバー削減にお役立てください。 最新版はGitHubで公開しています。 falsandtru/iptables-firewall · GitHub 大幅に改良した新バージョンをリリースしていますのでこちらをご利用ください。仕様を刷新しているためこのページ内容は最新版と互換性がありません。 iptables firewall iptablesにFirewallとしての機能を実装します。 設定 特定の外国からのアクセス拒否 特定の外国を除くすべての国からのHTTPポートへのアクセスを許可(海

                                      iptablesの設定でサーバー攻撃対策と海外からのアクセスを制限 - falsandtruのメモ帳
                                    • 永続化Perlでモジュールの再読み込み ⇒ Module::Refresh - daily dayflower

                                      mod_perl や PersistentPerl (a.k.a. SpeedyCGI) など Perl インタプリタを永続化させる仕組みのものは*1,一度読み込まれたモジュールは,その後ファイルが変更されたとしても自動的に再読み込みしてくれたりはしません。mod_perl では Apache(2)::Reload というモジュールがあり,そのような場合でもうまくとりはからってくれます。 で,かつて PersistentPerl でも同じようなことができないかと思って苦闘したことがあるのですが(SpeedyCGI と module reload - daily dayflower),最近ふと CPAN を漁っていて Module::Refresh なるものがあることを発見しました。Jesse プロダクトです。 This module is a generalization of the f

                                        永続化Perlでモジュールの再読み込み ⇒ Module::Refresh - daily dayflower
                                      • Catalyst::Engine::HTTP::Resterter における自動再起動サーバーの実装

                                        前の話の続き。新しい server.pl は -r オプションをつけたときに、自動的にファイルの修正を検知して再起動してくれる機能が付いてます。 いままでの server.pl だと、デーモン上で perl が永続化してるためにモジュールを書き換えてもそれが再読込されず、一度 ^C で止めてまた起動とかする必要がありました。で、それが必要なくなったと。先日 Rails を試しにいじってたんですが、Rails 付属の WEBrick なサーバーは、クラスの更新も検知してくれてスゲー便利だったので、server.pl がこの仕様になったのはすごくいいです。 どういう実装でこれを実現してるのかなーと思って見てたんですが、やっぱりそこは Catalyst、ちょっと面白い実装になってました。手元にある 5.33 からだと Catalyst::Engine::HTTP::Restarter Catal

                                          Catalyst::Engine::HTTP::Resterter における自動再起動サーバーの実装
                                        • CodeCommitとetckeeperで複数サーバの/etcを管理する | DevelopersIO

                                          こんにちわ。最近またダイエットを始めた市田です。 今回は、表題のとおりLinuxサーバの/etcにある各種コンフィグ類を、CodeCommitで管理する方法をご紹介します。 CodeCommitを使う理由 前職ではシステム運用にも携わっていて、似たような仕組みを導入していました。 しかし、リモートリポジトリのサーバがSPOFになっていたり、そのサーバ自体の運用にも工数がかかっていたこと等が課題でした。 CodeCommitはAWSのフルマネージドサービスなので、上記のような課題を解消できる他に、各種AWSサービスとの親和性も高いという点から選んでみました。 手順の概要 CodeCommitでリポジトリを作成 サーバにetckeeperをインストールする サーバからCodeCommitに接続できるようにする CodeCommit上で複数サーバの/etcが管理できるようにする CodeComm

                                            CodeCommitとetckeeperで複数サーバの/etcを管理する | DevelopersIO
                                          • 我慢強い人のためのpeclでsession_handlerを作る。 - お前の血は何色だ!! 4

                                            session_handler作ってますか? セッションをファイル以外に格納するとき使いますね。 例えば、セッションをデータベースとか、KVS等のセッションを格納するときとか。 ほとんどの場合は php で session_handlerをシコシコ作っていると思います。 が、phpでセッションハンドラーを作ると、パフォーマンス的にあれだったり、毎回作るのがめんどかったり、もっと高度なことをしたくなったりするヂャないですか。 Yes/Y それだったら、 pecl な PHP拡張として、C言語で書くしかないですよね。 pecl なセッションハンドラに対応している pecl 拡張の場合、、、 session.save_handler を定義してあげることで、簡単に導入できます。 //tokyo tyrant にセッションストアをしたい時、、、 ini_set('session.save_hand

                                              我慢強い人のためのpeclでsession_handlerを作る。 - お前の血は何色だ!! 4
                                            • EmacsWiki: Interactively Do Things

                                              Ido lets you interactively do things with buffers and files. As an example, while searching for a file with C-x C-f, ido can suggest the files whose paths are closest to your current string, allowing you to find your files more quickly. Created by KimStorm, it has been built into Emacs since version 22. Using IDOPlace this in your InitFile: (ido-mode t)This will enable using Ido versions of find-f

                                              • CookbookDedupeEntries - Plagger - Trac

                                                Recipe: Dedupe Entries using Rules By default, Plagger aggregates feeds and all the entries on the feeds are consumed by Publish and Notify plugins. It won't be a big deal if you use Subscription::Bloglines (and equivalent) plugins because Bloglines do de-dupication of feed entries on their side. But if you aggregate lots of feeds by yourself, and notify only updated entries using Email notifier p

                                                • Omnibus Chef Packaging を試してみた - P A R A G R A P H S

                                                  Omnibus Chef Packaging | Opscode.com ちょっと古いネタだけど、2012/06/29 にリリースされた "Omnibus Chef Packaging" というやつを試してみた。「Chef をパッケージ化して一括インストールする仕組み」という感じだと思う。 特徴としては「CentOS/Debian/Ubuntu/Amazon Linux のように複数のプラットフォームで利用できる」というのと「chef-solo や chef-client を実行するのに必要なソフトウェア (ruby とか rubygems) を /opt/chef というディレクトリ配下に隔離して置いてくれる」の 2 つが挙げられる。 使ってみた 使い方は簡単で、このページでインストールしたい OS・バージョンを選択し、表示されたコマンドを OS 上で実行するだけ。CentOS・5.x

                                                    Omnibus Chef Packaging を試してみた - P A R A G R A P H S
                                                  • SQLチューニング(1) ~ 実行時間の計測

                                                    by 柴田 淳 — posted at 2005-10-19 23:56 last modified 2006-12-04 12:41 「水曜日」とか口走ったせいで、いきなり自分の首が絞まっている気がします。 月曜日に言うんじゃなかった。。。でも、とりあえず頑張ります。 さて、パフォーマンスのチューニングと言った場合に、非常に大きなウェイトを占めるのがSQLのチューニングだと思います。アプリケーションがカッチリと固まってしまってからだと大きな変更は難しいものの、それでもやはりパフォーマンスへの影響は大きいでしょう。 SQLのチューニングをする場合、一般的には以下のようなプロセスを踏んで作業を行うことになると思います。 重いSQL文の特定そのSQL文が遅い原因追求SQL文の改善チューニング効果の確認 今回は、処理時間のかかるSQL文をどうやって特定するかを考えてみます。 例えば、アプリケー

                                                    • Highlights from Git 2.37

                                                      EngineeringOpen SourceHighlights from Git 2.37The open source Git project just released Git 2.37. Take a look at some of our highlights from the latest release. The open source Git project just released Git 2.37, with features and bug fixes from over 75 contributors, 20 of them new. We last caught up with you on the latest in Git back when 2.36 was released. To celebrate this most recent release,

                                                        Highlights from Git 2.37
                                                      • すぐわかるfindコマンドの使い方 - それマグで!

                                                        find コマンドは ファイルとディレクトリを見つけるコマンド.ファイルを検索します.ファイルの検索はファイルのメタデータを調べます.つまりi-nodeに入ってる情報。つまりパス名,アクセス時刻,アクセス権です find使い方。 一番最初にfind コマンドを使ってみる cd /home/takuya find #ホームディレクトリのファイルを一覧するfind はカレントディレクトリの中身を列挙します. Find初心者は,該当ディレクトリにCDしてから使うのがコツです. find のオプション find のオプションを知ってると捗る。そのままだと出力結果が多すぎて何も出来ない.そこでフィルタを書けて検索する ディレクトリだけを一覧する find -type d 空っぽディレクトリだけを一覧する find -type d -empty ファイルだけを一覧する find -type f php

                                                          すぐわかるfindコマンドの使い方 - それマグで!
                                                        • 222:Windowsアプリを操る

                                                          222:Windowsアプリを操る 多くのWindowsアプリケーションがCOMインターフェースというのを提供しています。pythonからCOMを使うとWindwosアプリケーションを自動操縦できます。例えば、あるフォルダの下に何百個もワードファイルがあって、そこに自宅の住所が書いてあったとします。引越ししたときにそれを全部書き換えるのは大変ですよね。pythonを使えば、ファイルのリストを取って一つ一つ開いて書き換えるということが自動操縦でできるのです。それも多分15行くらいのプログラムでです。これってすごいことですよね。 pythonからCOMコンポーネントにアクセスするには Windows用拡張モジュール を使います。当然ですが、 Widnows用のPython とかEXCELやWordもいります。 予めダウンロードしてインストールしておいて下さい。 Rubyが題材ですが、COMにつ

                                                          • mixiのコミュニティ新着の取得 - PC日記

                                                            あまりおおっぴらにはしたくないんだけど、Mixiはじめました。 で、あまりのユーザインターフェイスの使えなさにぶっとびつつ、それでも情報収集には良いので、しばらく使ってみることにします。 しかし、全体的に未読管理や検索が弱く、参加しているコミュニティが増えると未読管理ができないのは致命的に思えます。 そこで、今まで食わず嫌いで避けていたPlaggerに手を出してみることにしました。 インストールは ports から textproc/p5-Plagger を入れるだけ。最初にどんなオプションで入れるか聞かれるので、 CUSFEEDMIXI を選択しておきました。 CustomFeed::Mixiだと、コミュニティに対応していません。調べてみたところ、CustomFeed::Mixiをコミュニティ最新書き込み対応にと言うのを発見。早速入れ替えてみます。 で、以下のような config.yam

                                                            • MacWiki:MediaWikiのインストール - MacWiki

                                                              インストールメモ sourceforge.jp へ MediaWiki をインストールするにあたり、おこなった手順について書いておきます。(Apr 12, 2007) アーカイブの展開 まず、sourceforge.jp のシェルサーバにログインし、MediaWiki 1.19 系列の配布ファイルを MacWiki プロジェクトディレクトリ配下の htdocs/wiki に展開します。各ファイルは group writable にしておきます。 takanori@pc192168024032$ ssh tatyana@shells.sourceforge.jp tatyana@sf-usr-shell$ cd Sources/ tatyana@sf-usr-shell$ wget http://download.wikimedia.org/mediawiki/1.19/mediawiki-

                                                              • find -execとxargs - うまいぼうぶろぐ

                                                                find -execは、1ファイルに対して1回ずつコマンドを実行。xargsは標準入力から受け取った複数のファイルに対して、コマンドを1回で実行(といってもシェルに渡せる限界があるから、入力が多すぎる場合は複数回にわけて実行)。だから、xargsのほうが早いと思っていた。例えば特定のファイルを消す場合。 $ find /tmp/ -type f -mtime +1 -exec rm {} \; # 以下とほぼ同等 $ find /tmp/ -type f -mtime +1 -print0 | xargs -0 -n1 rmところが、find -execで'\;'ではなく、'+'を指定すればxargsと同じように、複数ファイルに対してコマンド実行するらしい。 http://ja.wikipedia.org/wiki/Xargs これはすべての単一ファイルに対して一回ずつ rm を呼んでいる

                                                                  find -execとxargs - うまいぼうぶろぐ
                                                                • Linuxの検索方法:findとlocateの使い方

                                                                  Linuxの中にあるファイル構成をすべて覚えておいたり、必要なディレクトリをすぐに見つけたり、というのはなかなか大変なことだ。 また、自動生成したファイルや他の人が作ったファイルを探したいというときもあるだろう。 そういうときは、Linuxの検索機能を使っていく。 このページではLinuxの検索について大まかにまとめている。参考にしてほしい。 Linuxの検索について linuxに限らずOSは膨大な量のバイナリやテキスト、デバイスファイルなどのファイルの種類を問わず管理することになる。そこで重要になってくるのが「ファイルの検索」だ。 「ファイル名がわかるがどこにそのファイルがあるかわからない」「変更した日付はわかるが、名前がわからない」「とあるパーミッション情報をもっているファイルを列挙したい」など、そんな断片的な情報からファイルを検索してくれる。 Windowsの場合、右上の検索欄に検索

                                                                    Linuxの検索方法:findとlocateの使い方
                                                                  • Red Hat Enterprise Linux Plus ユーザーサイト 困ったときは : サイオステクノロジー株式会社

                                                                    A. sysstat パッケージの導入方法や sar コマンドによるモニタリングについて、以下をご確認ください。 (目次) sysstat について sysstat のインストール sysstat の設定と仕組み sar コマンドによるリソース確認 メモリとスワップの確認 CPU の確認 I/O の確認 ブロックデバイスの確認 ロードアベレージの確認 ネットワークデバイスの確認 NFS の確認 プロセスの確認 時間範囲を指定して確認 (内容) --------------------------------------------------------------------- 1. sysstat について --------------------------------------------------------------------- syssta

                                                                    • Fat JSON

                                                                      Most server-side APIs these days are JSON-over-HTTP. Developers are generally comfy with this, but I notice when I look at the JSON that it’s often, uh, what’s the tactful term these days? Let’s say “generously proportioned”. And I see clumsy code being written to walk through it. The options for dealing with this are interesting. For example · I’ve been working with keybase.io recently; when you

                                                                      • ctimeがファイルの作成時刻とは限らない - ぱせらんメモ

                                                                        statで取れる情報の中にはatime, mtime, ctimeがあって、ファイルのアクセス時刻や更新時刻がわかるわけだけど、ctimeって作成時刻だと思ってたら違ったよ! いや、どうやらOSによって異なってくるらしい。Windowsの場合は作成時刻で、Linuxの場合は状態変更時刻らしい。 エクスプローラでファイルのプロパティを見ると「作成日時」「更新日時」「アクセス日時」って並んでるし、多くの記事でも作成日時って書かれてたりするから、ctimeは作成日時なんだと思い込んでたよ! Linuxの場合 http://www.linux.or.jp/JM/html/LDP_man-pages/man2/stat.2.html time_t st_atime; /* 最終アクセス時刻 */ time_t st_mtime; /* 最終修正時刻 */ time_t st_ctime; /* 最終

                                                                          ctimeがファイルの作成時刻とは限らない - ぱせらんメモ
                                                                        • ブログと Web サイトをオーバーホールした

                                                                          一部の人には気付かれていたと思うんですが、diary.sorah.jp と blog.sorah.jp が長い間ダウンしていました。復旧させるのも腰が重く 2 年くらい放置していて (その間にも一瞬手を入れたりはしていたけど持続せず)、11 月に入っていろいろな家事をしていてその一環でようやく復活に至ったので報告します。 先に結果として書くと、sorah.jp 含めて Next.js 13 (SSG) になりました。裏に https://github.com/sorah/kozeki というちょっとしたソフトウェアがいて、Markdown ファイル群を処理させています。 なんで復旧の腰が重かったのか ブログはこれまで sorah/days - Rack アプリをデプロイしていました。サーバーフル! まずこのアプリ自体が ActiveRecord + Sinatra という構成になっていて

                                                                          • RDS for Oracle環境でData Pumpを利用する | DevelopersIO

                                                                            西澤です。RDS for Oracle環境で、Data Pumpを試す機会があったので、まとめておきたいと思います。 Data Pumpとは? Oracleのバックアップリストアツールと言えば、以前よりあるexp/impコマンドが有名ですが、10gより非推奨となっています。exp/impコマンドはクライアントツールだった為、サーバとクライアント間でのデータ転送が必要でしたが、Data Pumpはデータベースサーバ側で処理される為、性能が大きく改善されています。ただし、データベースサーバ側のディスクを利用する為、ディスク使用量には注意が必要です。 Oracle Data Pump は、Oracle のインストールから Amazon RDS DB インスタンスに大量のデータを移行する際に推奨される方法です。Oracle Data Pump は、次のようなさまざまなシナリオで使用できます。 Or

                                                                              RDS for Oracle環境でData Pumpを利用する | DevelopersIO
                                                                            • 「W3 Total Cache」のススメ | 怠惰は美徳

                                                                              WordPress の入れ替えのため、何かしらの最適化プラグインを 入れようということで、色々調べた結果、一番ナウい(古)と噂の W3 Total Cache を入れてみた。 どれぐらい効果があるの? 実際に計ってみた。 WebpageTest で調べた Before/After がコレ。 ※CDN は CloudFlare を利用しているが、今回は割愛する。 インストール方法 管理画面から、 [プラグイン/新規追加]→[検索 "W3 Total Cache"]→[インストール] 簡単だね! …というだけではアレなので。 W3 Total Cache は Apache2 のモジュールの機能を色々と利用しているので、 下記のようなモジュールは入れておいたほうがよい。といっても、殆どの ディストリビューションでデフォルトで有効になってそうなものばかり。 mod_mime mod_he

                                                                              • はこべにっき# - ネトラジとPodcastをつなぐPlaggerプラグイン

                                                                                ここ数日ごにょごにょやってたのはこれがやりたかったから.Plaggerを使ってネトラジをPodcast化します. ネトラジとPodcastをつなぐのに使うのがFilter::FetchEnclosure::Mplayerというプラグイン.これは,Mplayerで再生できるenclosureをwavファイルとしてダンプしてローカルに保存する.MplayerはWindows MediaやRealのストリームを再生できるので,ネトラジをローカルに保存できるということになる. このプラグインと組み合わせて使うのがFilter::Lameというプラグインで,字のごとくLameを使ってmp3を作る.ネトラジの30分番組なんかをwavのままにしとくと200MBくらになるので,このプラグイン必須. で,どう使うかっていうと,次のようなYAMLをPlaggerに渡してやる. - module: Subscr

                                                                                  はこべにっき# - ネトラジとPodcastをつなぐPlaggerプラグイン
                                                                                • Series: Unix as IDE « Arabesque

                                                                                  This series has been independently translated into Chinese, Russian, Turkish, and Korean, and formatted as an ebook. Newbies and experienced professional programmers alike appreciate the concept of the IDE, or integrated development environment. Having the primary tools necessary for organising, writing, maintaining, testing, and debugging code in an integrated application with common interfaces f