by method name, class name, and line number. Without complex overhead, in any language or framework. IO31%Address:0x4553e01415161718192021222324252627282930313233343536 < n> ( std::array<std::array<, n>, n> &board, &row, &col) { i = , j = ; (i = ; i < col; i++) { (board[row][i]) { ; } } // Check upper diagonal on left side (i = row, j = col; i >= && j >= ; i--, j--) { (board[i][j]) { ; } } (i = ro
AWS Cloud Operations & Migrations Blog Visual monitoring of applications with Amazon CloudWatch Synthetics Monitoring application endpoints is a reliable way to measure availability. This best practice can be extended by adding synthetic monitoring to your observability strategy. Synthetic monitoring lets you continually verify your customers’ experience by following the same routes and actions as
※この投稿は米国時間 2021 年 9 月 29 日に、Google Cloud blog に投稿されたものの抄訳です。 はじめにCloud NAT は Google の、フルマネージドでプロキシレスなネットワーク アドレス変換サービスです。このサービスは Andromeda SDN レイヤに完全に実装され、優れたパフォーマンスと容易なスケールを提供します。これにより、Compute Engine と Google Kubernetes Engine(GKE)のワークロードは、外部 IP を使った外部からのアクセスにさらされることなく、スケーラブルかつ安全にインターネット リソースにアクセスできます。 Cloud NAT は基本的に、多数のインスタンスに外部 IP アドレスを「拡張」することで機能します。これは、外部 IP ごとに利用可能なソースポートを、対象範囲内のすべてのインスタンスに
LINE株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。 LINEヤフー Tech Blog LINEの技術組織が取り組んでいる・今後取り組む未解決課題を深堀りするインタビューシリーズ「Unresolved Tech Issue」です。今回のテーマは「5万台以上の物理サーバーの効率的構築と運営及びインフラリソース使用率の向上」です。 LINEではオンプレミスのインフラ拠点を複数持っており、その規模は物理サーバー数5万6,000台以上です。さらに、今後も前年比15%のペースで増え続けていくと予測されています。運用体制を改善するため、サーバーの構築・管理の効率化と並行して、インフラリソース使用率の向上やコストの最適化を進めています。 インフラの構築・運用に関する取り組みの詳細を、ITサービスセンター システム室 システムエ
One of the unusual things about Go is that it started out with the approach of directly making system calls on Unix, instead of calling the standard C library functions that correspond to those system calls. There are reasonably good reasons for Go to make direct system calls and this works well on Linux, but other Unixes are different. The official API for Illumos and Solaris system calls require
概要 ovs-cni という CNI を用いた際に、 MAC アドレスの衝突が発生するという問題が起きました (https://github.com/k8snetworkplumbingwg/ovs-cni/issues/206)。発生環境は 100 台の worker node、24 個の vlan、 各 vlan ごとに 1000 個のインターフェイスという状態でした。 結論から言いますと、「普通に」使った場合は衝突確率は最大でも0.0639(%)なので気にする必要はありません。「普通」が何を意味するか、算出根拠は、等を知りたい方は以下をお読み下さい。 MACアドレスについて MACアドレスと言うと「ハードウェアに固有のアドレス」であるため衝突はしないという説明が一般的かと思います。ただ、 Kubernetes クラスタにおいては、仮想インターフェイスを多用するため、MACアドレスも自
HelpList of template tagsrandomReturns random item from passed arguments list. Usage{{random([arg1], [arg2] ... [argN])}}Returns*repeatSpecifies number of repeats of array item. Repeatable array must contains only two items: first is repeat tag, second is item that must be repeated. If no arguments is specified item will be repeated from 0 to 10 times. If min argument is specified, item will be re
当サービスCrieitをGoogle Compute EngineからCloud Runに引っ越ししてみました(2020/4)。選定理由、実際にやったこと、懸念点などを色々書いてみます。 費用についても書きたいのですが、まだ引っ越ししたばかりのためわかりません。1,2ヶ月ほど経ったら追記しますので気になる方はフォローやブックマークなどしておいてください。 ※当記事は一部有料です。後半の実際にRunを使う方しか興味がなさそうな内容あたりは有料となっています。使ってみた感じやRunに関係ない引っ越しメモ等は無料です。費用については無料部分に書きます。 元々の構成 Compute Engineの1台構成です。f1-microインスタンスを利用しておりMySQLもこの中にインストールしているのでAlways FreeのおかげでWebサーバー、DBサーバー自体は無料運用です。ファイルなどはStora
Linux Observability with BPFを読んだので、メモしておく。 今月、Brendan Gregg氏のBPF本も出るので、 それも読みたいな。 BPFを使うことで、カーネルのイベントをフックして安全にコードを実行できる そのコードがシステムを破壊したりクラッシュさせたりすることが無いよう、BPF側で検証してくれる カーネルモジュールと異なり、BPFプログラムはカーネル再コンパイルの必要がない BPFコードが検証された後、BPFバイトコードは機械命令にJITされる BPFプログラムは、bpf syscall によってBPF VMへとロードされる 2014年前半にAlexei Starovoitov氏がeBPFを導入した 過去のBPFでは2つの32bit registerのみが使えたが、eBPFでは10個の64bit registerまで使える 2014年6月にはeBPFは
Source code: Lib/tracemalloc.py The tracemalloc module is a debug tool to trace memory blocks allocated by Python. It provides the following information: Traceback where an object was allocated Statistics on allocated memory blocks per filename and per line number: total size, number and average size of allocated memory blocks Compute the differences between two snapshots to detect memory leaks To
A Rust-powered flamegraph generator with additional support for Cargo projects! It can be used to profile anything, not just Rust projects! No perl or pipes required <3 How to use flamegraphs: what's a flamegraph, and how can I use it to guide systems performance work? Relies on perf on linux and dtrace otherwise. Built on top of @jonhoo's wonderful Inferno all-rust flamegraph generation library!
AWS OpenSearch (Elasticsearch) Serviceで専用マスターノードは3つが推奨な理由を段階を踏んで理解するAWSElasticsearch 前提 AWS OpenSearch ServiceでサポートするElasticsearch 7.10.2時点までの内容になります。 ノードが3つ必要という結論に関してはAWS OpenSearchの特別な話ではなく分散システムでの一般的な話になります。 理解のステップ 以下が本記事での理解の流れです。 マスターノードとは何か、他にどんなノードタイプがあるのかを把握する。 専用マスターノードとは何か把握する。 quorumとは何か把握する。 理想のquoram数を出す式がdedicated master nodes / 2 + 1の理由を把握する。 これまでマスター候補ノード(master-eligible node)はなぜ
私事ですが、2006年10月1日からずっと「モバイルSuica」を使っています。その後、Suicaカード一体型のクレジットカードを保有することになりましたが、鉄道やバスでの移動、電子マネーでの買い物は、一貫しておサイフケータイのモバイルSuicaで済ませています。 そんなモバイルSuicaですが、今年(2021年)3月21日にAndroidスマートフォン用アプリがリニューアルされました。かなりの変貌ぶりに驚いた人も少なくないと思います。 →「モバイルSuica」が3月21日に刷新 PASMOの使い分け、iOSからAndroidへのデータ移行が可能に →リニューアルした「モバイルSuica」は何が変わった? このリニューアルで実装された機能の1つが、プリペイド残高のチャージとチケット(定期乗車券/Suicaグリーン券)購入における「Google Pay」決済の導入です。従来、チャージと定期乗
Microsoftが先日一般提供を開始した「Windows 11」はスタートメニューやタスクバーなどUIの刷新が注目を集めています。しかし、それはあくまでも一般ユーザーにとっての話で、ハッカーや開発者ならばWindows 11の別の側面に注目すべきかもしれません。 Ars Technicaは「The best part of Windows 11 is a revamped Windows Subsystem for Linux」と題した記事を、公開し、Windows 11の注目の新機能は進化した「Windows Subsystem for Linux(WSL)」だと主張しています。 Windwos 10でもWSLは便利な機能でしたが、インストールが面倒だったり、GUIアプリケーションが動作しなかったりという制限が存在しました。Windows 11に搭載されたWSLではこれらの問題が、完璧
When you start to build web applications with Go, one of the first questions you'll probably ask is "which router should I use?". It's not an easy question to answer, either. There are probably more than 100 different routers available, all with different APIs, features, and behaviors. So for this blog post I've evaluated 30 popular ones, and created a shortlist of the best options along with a fl
2016年頃「サービスメッシュ」という用語は、マイクロサービス、クラウドコンピューティング、DevOpsの分野に登場しました。楽天的なあるチームは、2016年にこの用語を使用して彼らの製品である Linkerd を説明しました。コンピューティングの多くの概念と同様に、実際には、関連するパターンとテクノロジーの長い歴史があります。 サービスメッシュの登場は、主に IT ランドスケープの最悪の状況によるものでした。開発者は、複数言語 (ポリグロット) アプローチを使用して分散システムの構築を開始し、動的なサービスディスカバリーを必要としていました。運用は一時的なインフラストラクチャの使用を開始し、避けられない通信障害を適切に処理し、ネットワークポリシーを適用したいと考えていました。プラットフォームチームは、Kubernetes などのコンテナオーケストレーションシステムの採用を開始し、Envo
docker composeではserviceごとにprofilesという属性を指定できて、起動時にこれを指定することで関連する一連のserviceだけを起動させられる。 どういうシーンで使えるのか。例えばとあるRailsアプリでは、一部の開発者はMySQLやRedisなどのデータストアだけdocker composeで起動して開発し、他の開発者は加えてRubyもdocker composeで起動して開発している。osxfsが遅すぎて、ファイルへの読み書きが頻発する処理がmacOSのDockerでは使い物にならないからだが、この話は今回どうでもいい。さてこのとき、データストア用のserviceに適当な名前のprofileを割り当てておくことで、個々のserviceの名前を逐一指定しなくても起動でき、将来の変更にも強くなって嬉しい。 # profile導入前 docker compose u
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く