タグ

2023年9月4日のブックマーク (23件)

  • 料理が趣味の人の冷凍庫が凄い「夫の友達が来て、居酒屋みたいに注文されてもなんでも作れるのが嬉しい( ᷇࿀ ᷆ )♡」

    0歳双子ママ@あーさ @MDfutagochan 私の趣味( ᷇࿀ ᷆ )♡ ストック眺めるたびニヤニヤする。今日は何作ろうかな〜って( ᷇࿀ ᷆ )♡ 夫の友達が来て、居酒屋みたいに注文されてもなんでも作れるのが嬉しい( ᷇࿀ ᷆ )♡ 冷蔵庫の大きさは555L( ᷇࿀ ᷆ )♡ pic.twitter.com/qRyXCT64xM 2023-09-03 11:55:37

    料理が趣味の人の冷凍庫が凄い「夫の友達が来て、居酒屋みたいに注文されてもなんでも作れるのが嬉しい( ᷇࿀ ᷆ )♡」
  • AWSのPublic IPv4構成をIPv6に切り替える | 外道父の匠

    AWSIPv6化について調査は済んだけど、書き始めるのに非常にドンヨリしております。図を書いて少しでも楽しくいきましょそうしましょ。 皆様も読んだらドンヨリするかもしれませんが、できるだけ丁寧に書いてみますので、PublicIP 有料化に抗いたい人は頑張って追ってみてください:-) 目次 また長いです。でもひきかえさないほうがいいかもしれない。 はじめに 前提知識 目的 IPv6 の設計 従来のプライベート IPv4 IPv6 の割り当て Gateway と Routing VPC SecurityGroup Network ACL Subnet Egress Only G/W NAT64 RouteTable Public Private インスタンスで動作確認 IPv6 アドレスの確認 IPv6用の設定 疎通確認 IPv6リソースの配置 既存リソースの入れ替え アプリケーションの

    AWSのPublic IPv4構成をIPv6に切り替える | 外道父の匠
  • 最小限のコードで動く最も汚いコードから始める

    最小限のコードで動く最も汚いコードから始める 2023.09.02 コードを書く際の重要な要点は、読みやすく他人に理解される「良いコード」を書くことです。しかし、完璧を目指して最初から書こうとすると行き詰まります。代わりに、荒削りながらも動くコードを作成し、徐々にリファクタリングして完成度を高めます。型エラーやリントエラーを無視しても構わないので、まずは動くものを作成しましょう。それからリファクタリングして「良いコード」を作成できます。 コードを書くときに最も大切なことってなんだろう?聡明な読者諸君ならご存知だろうが、コードは書く時間よりも読む時間のほうが長い。だから他人に読まれることを意識して、読みやすい「良いコード」を書かなくっちゃならない。コンポーネントは適切な粒度で分割されていて、適切な名前がつけられている。型システムに安全性だって守られてるし、最新のなんとかアーキテクチャにも準拠

    最小限のコードで動く最も汚いコードから始める
  • 日米で経験した炎上プロジェクトの違い|牛尾 剛

    私はアメリカでクラウドの中の人をやっている開発者だ。最近アメリカの方でも当初の予定がとても延びたプロジェクトを経験した。このような時に、日では多分ものすごい炎上プロジェクトになると思うのだが、アメリカで体験したそれは全然違う感じだった。 これは一言でいうと「納期感の違い」がもたらしている感覚だった。 炎上感のなさ 私が感じた「予定がとても延びた」プロジェクトの場合、日にいたときのプロジェクトでは、受託開発、内製双方ともに物凄く「大問題」になっていた。上位のマネジメントも連日のように進捗の会議を行い、人が追加投入され、エンジニアは時には泊りで一日も早く後れを取り戻すために皆遅くまで、そして土日も働き、お客様はもう怒り心頭… だったと思うのだが、こちらで体験したプロジェクトは拍子抜けするぐらい炎上感が無かった。 当初予定していた日程が一か月以上伸びても、みんな慌てる様子もなく、私はわからな

    日米で経験した炎上プロジェクトの違い|牛尾 剛
  • 同僚をどう呼ぶか ~ さん付けやあだ名など | おそらくはそれさえも平凡な日々

    数年前から業務上では同僚に通りの良いあだ名がない場合、極力「さん」付で呼ぶように意識している。新卒やインターンの大学生を無条件で君付けで呼ぶみたいなのをやめたいと思ったのだ。 呼称から暗黙の権威勾配が生まれることは少なくない。例えば、上司が部下を君付けで呼び、部下が上司をさん付けで呼ぶという光景はよく見られる。上下関係が前提にあり、逆転させると違和感を感じるはずだ。こういう暗黙の権威勾配は双方の心理に染み付いてしまい、構造を変えるのが難しくなる。 逆に、我々のIT業界では、新卒やインターン生が数年後に自分の上司になることも珍しくない。流動性が高くて素晴らしいことである。その時に呼び方を「君」から「さん」に変えるのもおかしな話である。そもそも上下関係によって呼び方が変わるのはナンセンスだと私は思っていて、仕事の上ではお互い一人前の大人でリスペクトしあいたいし、個人的にフラットさを志向している

    同僚をどう呼ぶか ~ さん付けやあだ名など | おそらくはそれさえも平凡な日々
  • 元イタリアン料理人が何度も試作して完成「カルボナーラ風冷製パスタ」あえて乳化させず、麺の食感も納得の仕上がり - メシ通 | ホットペッパーグルメ

    こんにちは! 元イタリアン料理人、現役専業主夫料理人パパイズムです。 ベーコンと玉ねぎ、卵を使った濃厚なカルボナーラ。基パスタの1つでもあるこのカルボナーラを、今回は夏らしく冷製アレンジで作れないかと思い立って、いろいろと試作してみました。 その結果、ソースを一度加熱してから冷やす方法に落ち着いたものの、冷やすと油がギトギトとしてしまい納得いかず……。そこで、オリーブオイルの量を減らして乳化する工程も省き、具材のうま味を引き出した美味しい「カルボナーラ風冷製パスタ」にたどりつきました! パパイズムの「カルボナーラ風冷製パスタ」 【材料】(1人分) スパゲッティ(1.3~1.5mmがおすすめ) 100g 水 1.2L 塩 12g(茹で用)+1g(味付け用) 玉ねぎ 30g ベーコン 30g オリーブオイル 大さじ1 牛乳 100ml コンソメスープの素(顆粒) 小さじ1/2 卵 1個 粉

    元イタリアン料理人が何度も試作して完成「カルボナーラ風冷製パスタ」あえて乳化させず、麺の食感も納得の仕上がり - メシ通 | ホットペッパーグルメ
  • Terraform v1.5.0 で追加された import ブロックと check ブロックを試してみた | DevelopersIO

    はじめに こんにちは、アノテーション構築チームの荒川です。 2023-06-12 に正式リリースされた Terraform v1.5.0 の新機能である import ブロックと check ブロックを早速試しましたので紹介します。 試した内容は HashiCorp 社公式のブログ Terraform 1.5 brings config-driven import and checks と同じものになります。 環境情報 tfenv 3.0.0-18-g1ccfddb Terraform v1.5.0 事前に IAM ユーザー、IAM ロールを作成済み MFA 使用のため aws-vault を使用 導入 Terraform 1.5.0 のインストール tfutils/tfenv: Terraform version manager を使って、Terraform バージョン 1.5.0 をイ

    Terraform v1.5.0 で追加された import ブロックと check ブロックを試してみた | DevelopersIO
  • CloudWatchAgentでロググループの保持期間の設定が可能になったのでやってみた | DevelopersIO

    お久しぶりです。AWS事業コンサルティングの後藤です。去年の10月頃から休職しており、久々のブログ投稿になります。 2月25日にCloudWatchAgentのアップデートでログの保持期間を設定できるようになったようなので、試してみました。 今までCloudWatchAgentでOS内のログをCloudWatchLogsに収集して何かする時、毎回CloudWatchLogsのロググループに対してログの保持期間を設定する必要がありましたが、今回のアップデートでその手間が無くなるという地味ですが自動化等をしている人には嬉しい機能になります。 では、やっていきましょう! CloudWatchAgent取得 今回はEC2、AmazonLinux2を使用して試しています。 最新のアップデート機能を使用するため、S3から最新版のCWAgentを取得します。 # wget https://s3.am

    CloudWatchAgentでロググループの保持期間の設定が可能になったのでやってみた | DevelopersIO
  • AWS: ECSのCPUユニット(CPU Units)について - Qiita

    はじめに 自社サービスの実行基盤としてAWS ECS(on EC2)を利用しています。 これまでは4台固定のECSクラスタでトラフィックを捌いていましたが、ピークタイムの負荷状況が怪しくなってきたため、ECSクラスタへAutoScalingを導入する事にしました。 ひとまずはクラスタのCPU負荷をスケールアウトの基準とする事としたのですが、CloudWatchに表示されるCPU使用率(CPUUtilication)が示す値の意味が良く分からない。 こちらのドキュメントによれば、クラスタのCPU使用率は下記の計算式で算出されているとの事ですが...。 (Total CPU units used by tasks in cluster) x 100 Cluster CPU utilization = -----------------------------------------------

    AWS: ECSのCPUユニット(CPU Units)について - Qiita
  • ECS タスクの各コンテナ単位のパフォーマンスメトリクスを取得する方法

    ECS での標準的に利用できるメトリクスとしては、サービス単位での CPU 利用率、メモリ利用率であり、タスク毎にどんなパフォーマンスなのかというのはわかりません。そこで Container Insights を利用することで、マネジメントコンソールからは現在値になりますがタスク単位での平均 CPU 使用率、メモリ利用率の他、サービス単位で時系列のネットワーク I/O、ストレージ I/O などが確認可能になります。これらでも充分有用なのですが、タスクにサイドカーも備えるなど複数コンテナで構成しているケースで、時には調査のため “コンテナ単位” でのパフォーマンス値を確認したいことがあるかもしれません。一発でグラフなどに出せるわけではありませんが、そんなシーンで利用できる Tips を紹介します。 はじめに 今回の Tips を利用するには対象のクラスタで Container Insight

  • php-fpm の設定を理解してサイトのパフォーマンスを向上させる

    nginxWordpressサイトを運用する場合、php-fpmを利用することが多いかと思います。(Apacheでも利用することができますが) php-fpmの設定によって、Webサイトのパフォーマンスは左右されます。それだけでなく、不適切な設定はメモリリーク等につながるので、Webサイトにとって重要な設定であるといえます。 この記事では、そんな php-fpm の設定の最適化方法について解説していきたいと思います。 php-fpmの役割と特徴 WordPress などの動的サイトは、Webサーバーがクライアントからリクエストを受けると、サーバー上でPHPを実行して動的にページを生成し、生成したページをレスポンスとしてクライアントに返します。 この、サーバー上でPHPを実行する仕組みがphp-fpmです。php-fpmでは、リクエストのたびにプロセスを生成していたのでは非効率なので、原則

    php-fpm の設定を理解してサイトのパフォーマンスを向上させる
  • [小ネタ]ECSのCPUUtilizationとCPUUtilizedは同じ指標? | DevelopersIO

    CPUUtilization CPUUtilizationはCPUユニットの使用率をパーセンテージで表しています。 つまり、CPUUtilization=(実際に使用されているCPUユニット数)/(全体ユニット数)で表すことができます。 例えば現在100ユニットをクラスターに割り当てていて、そのうち30ユニットを使用している場合、CPUUtilizationは30%となります。 そして有効なディメンションはClusterName、ServiceNameとなっています。 CloudWatchのCloudWatchのAWS名前空間もしくはECSコンソールから確認することができます。 CloudWatchのコンソール画面より ECSのコンソール画面より CPUUtilizationは、ECSクラスター・サービス単位でしかメトリクスが取得できません。 そのためタスクごとにCPU使用率を確認したい場

    [小ネタ]ECSのCPUUtilizationとCPUUtilizedは同じ指標? | DevelopersIO
  • CloudWatch Logs Insightsでログを調査する前に読む記事 | DevelopersIO

    上記の基的なクエリ以外にも、一般関数や文字列関数などが使用できます。今回の記事では、上記7クエリの紹介に絞ってサンプルコードを使用して実際にCloudWatch Logsからデータを抽出してみます。 事前準備 事前準備としてLambdaで何件かログを出力し、例として作成したログを抽出することで具体的な使用方法を確認します。 Lambdaは「関数の作成」から「log-test」という関数名を指定し、ランタイムは「Node.js 12.x」でアクセス権限は特に変更せず「関数の作成」ボタンでLambdaを作成してください。 次に作成画面から「テスト」を押下してテスト設定を表示させます。イベント名を適当に「testEvent」と設定し「作成」を押下します。 コードを以下のように修正します。以下のコードをベースにクエリを試していきます。ログ出力はJSON.stringifyを使用してJSON文字列

    CloudWatch Logs Insightsでログを調査する前に読む記事 | DevelopersIO
  • CloudWatch Logs Insights でコンテナ単位のCPU・メモリ使用量などを確認する | DevelopersIO

    ちゃだいん(@chazuke4649)です。 前回のブログの過程で、Container Insights画面以外でサクッとコンテナ単位のCPU・メモリ使用量を確認する方法があったので共有します。 今回紹介するのは2パターンです。 1.Container Insights画面から飛ぶ方法 2.サンプルクエリをそのまま実行する方法 前提 Container Insights画面ではみませんが、Container Insightsを有効化し、これによるカスタムメトリクスやログを収集する必要があります。 その他Container Insightsに関係する有用情報を下記ブログで紹介しているので、ぜひ見てみてください。 Container Insights でコンテナ単位のCPU・メモリ使用率を表示させる | DevelopersIO 1.Container Insights画面から飛ぶ方法 Clo

    CloudWatch Logs Insights でコンテナ単位のCPU・メモリ使用量などを確認する | DevelopersIO
  • MySQLで抽出結果をファイルに出力する方法 - Qiita

    MySQLでのファイル出力方法について。 バージョン5.7.11でmysqlクライアントを使用して確認しています。 SELECT INTO OUTFILE を使用する サーバ上のファイルに出力します。 構文 以下の構文で抽出結果をファイルに出力することができます。 SELECT * FROM test; +------+---------+ | id | name | +------+---------+ | 1 | isono | | 2 | fu”guta | +------+---------+ 2 rows in set (0.00 sec) mysql> SELECT * FROM test INTO OUTFILE '/var/lib/mysql-files/test.dmp'; Query OK, 2 rows affected (0.00 sec) mysql> syste

    MySQLで抽出結果をファイルに出力する方法 - Qiita
  • MySQLでSELECTしたデータをCSVファイルに出力してみよう!【MAC環境】 | ポテパンスタイル

    MySQLでSELECTしたデータをCSVファイルに出力してみよう!【MAC環境】 2020.01.31 実務をはじめとしてCSV形式でデータが欲しいと要求されるケースは頻繁に訪れます。 記事では、MySQLのテーブルデータをCSVファイルに出力する方法についてご紹介していきたいと思います。 MySQLでのCSV出力は簡単 MySQLでテーブルデータをCSVファイルに出力するのは非常に簡単です。 SELECT文に「INTO OUTFILE」を記述することでCSVファイル出力が可能となります。 INTO OUTFILEの基構文を確認しよう まずINTO OUTFILEの基構文をご紹介していきたいと思います。 SELECT カラム名, ... FROM テーブル名 INTO OUTFILE '出力ファイルパス'; 基となるSQLは通常のデータ抽出と全く同じで、SQLの末尾に「INTO

  • N+1問題がなんもわからんというだけの記事

    N+1問題がなんもわからん。なんもわからんので記事にしてなんもわからん人口を増やしてやるという記事です。 N+1問題って何? 例えば User -> Friendという1対他の関係があるデータをDBに保管しているときに、下記のように問い合わせをやってしまうとN+1問題になります。 const users = User.findAll(); for (const user in users) { const friends = user.findFriend(); // ... } というように1度の取得でフレンドまで持ってくれば良いというので簡単ですね。 N+1問題完全に理解した!やったー!!! 何がわからんの? これで終わればよかったのですが、ひょんなことでN+1問題を考える機会があり実はN+1問題の問題認識が人によってズレてるのでは・・・?ってなりました。 参考までにN+1問題でググっ

    N+1問題がなんもわからんというだけの記事
  • [解説] SQLクエリのN+1問題 - Qiita

    ISUCON のブログ記事等で当たり前に出てくる「N+1問題」を知らなかったので、調査した結果です。 TL;DR N+1問題とは、このブログ記事にもう全部書いていますが、 N件のデータ行を持つテーブルをごそっと読みだすのに1回 別のテーブルから、先述のテーブルの各行に紐づくデータを(1件ずつ)読み出すのに計N回 合計でN+1回のクエリを実行している状態です。 (1+N問題と考えた方が理解しやすい) Nが大きいときは処理に非常に時間がかかるため、対応が必要になります。 対応策としては、 JOIN句による表の結合 Eager Loading(必要なデータを事前にロード) の2種類があります。 例 図書館貸出管理システムを考えます。 以下のように、「書籍」テーブルと、図書館の「利用者1」テーブルがあるとします。 各書籍について、借りている人の名前と、年齢を知りたいときを考えます。 欲しいのは

    [解説] SQLクエリのN+1問題 - Qiita
  • Laravel: Spot N+1 SQL Query Problems Early

  • 【Laravel】開発環境にN+1警察👮を宿らせる 【Laravel N+1 Query Detector】 - Qiita

    概要 N+1を検知してアラートで知らせてくれるライブラリを導入して使ってみます。 実際にプロジェクトにも導入してみました。 インストール

    【Laravel】開発環境にN+1警察👮を宿らせる 【Laravel N+1 Query Detector】 - Qiita
  • RDS / Aurora のパフォーマンスインサイト API を使って S3 に分単位の SQL トップ 10 を転記する - Qiita

    RDS / Aurora のパフォーマンスインサイト API を使って S3 に分単位の SQL トップ 10 を転記するAWSRDSAuroraパフォーマンスインサイト AWS の RDS / Aurora には、各インスタンスの負荷状況を可視化するパフォーマンスインサイトという機能があります。 マネジメントコンソールを使うとパフォーマンスインサイトの情報がグラフ化されるので見やすくて便利ですね。ただし、 追加費用なく保管できる期間が 30 日 追加費用を払えば 2 年間 画面上の表示期間を長くすればするほど、待機イベント・SQL(文)など細部の情報が欠落しやすくなる 詳しくはこちらのスライドを参照してください RDS / Aurora パフォーマンスインサイトを使ってみる(PostgreSQL 編) P.15 RDS / Aurora パフォーマンスインサイトを使ってみる(ちょっとだけ

    RDS / Aurora のパフォーマンスインサイト API を使って S3 に分単位の SQL トップ 10 を転記する - Qiita
  • Container Insights でコンテナ単位のCPU・メモリ使用率を表示させる方法 | DevelopersIO

    ちゃだいん(@chazuke4649)です。 Container Insightsの活用にあたり、ちょっとハマった箇所があったので共有します。 結論 Container Insights を有効化しただけでは、コンテナ単位のCPU・メモリ平均使用率が表示されない場合がある タスク定義内のコンテナ定義にて、コンテナごとにCPUとメモリを指定して起動すると、Container Insightsで表示されるようになる 前提 まず、そもそも Container Insights については以下ブログや資料がわかりやすいです。 [Black Belt] Amazon CloudWatch Container Insights で始めるコンテナモニタリング入門 AmazonECS用のAmazonCloudWatch ContainerInsightsの紹介| AWS Management&Govern

    Container Insights でコンテナ単位のCPU・メモリ使用率を表示させる方法 | DevelopersIO
  • ログイン時に何かを出力するようにしていると scp が失敗する問題の対処法

    ファイルがカレントディレクトリにダウンロードされるはずがダウンロードされず、"something" と表示されただけで終わってしまいます。 ログイン時に標準出力に何かを表示するようにしていると scp コマンドが失敗するらしいので、scp コマンド実行時のみ ~/.bashrc などで何も出力しないようにします。 やり方 scp でのログインかどうかを判定する is_not_scp() 関数を作ります。is_not_scp() 関数は scp からのログインでなければ true を返し、scp からのログインだったら false を返します。 そして、scp だったら、ログイン時に何かを出力するようにしている部分を出力しないようにします。 is_not_scp() { if [ ! -f /proc/$PPID/cmdline ]; then echo true elif [ -f /pr

    ログイン時に何かを出力するようにしていると scp が失敗する問題の対処法