並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 271件

新着順 人気順

sysctlの検索結果81 - 120 件 / 271件

  • How a simple Linux kernel memory corruption bug can lead to complete system compromise

    In this case, reallocating the object as one of those three types didn't seem to me like a nice way forward (although it should be possible to exploit this somehow with some effort, e.g. by using count.counter to corrupt the buf field of seq_file). Also, some systems might be using the slab_nomerge kernel command line flag, which disables this merging behavior. Another approach that I didn't look

    • LinuxにおけるOOM発生時の挙動

      はじめに これはLinux Advent Calendar 2015 3日目の記事を2016/2/2に編集したものです。 Linuxにおいてシステムの物理メモリが枯渇したOut-Of-Memory(OOM)という状態になった際の挙動について説明しています。OOMに関連が深いsysctlパラメタを紹介するとともに、カーネルの内部論理についても触れました。 本記事に記載されているファイル名は、とくに断りが無ければカーネルソースのトップディレクトリからの相対パス名です。調査に使用したカーネルバージョンは4.3です。 本書は話を単純化するために、細かい動作論理については説明を省いていることをご承知おきください。また、本書の中に誤りを見つけたかた、および、私が追いきれなかったソースについての詳細をご存知のかたは、指摘していただけると助かります。 Out-Of-Memory(OOM)とOOM-kill

        LinuxにおけるOOM発生時の挙動
      • How to stop running out of ephemeral ports and start to love long-lived connections

        How to stop running out of ephemeral ports and start to love long-lived connections2022-02-02 Often programmers have assumptions that turn out, to their surprise, to be invalid. From my experience this happens a lot. Every API, technology or system can be abused beyond its limits and break in a miserable way. It's particularly interesting when basic things used everywhere fail. Recently we've reac

          How to stop running out of ephemeral ports and start to love long-lived connections
        • Low latency tuning guide

          This guide describes how to tune your AMD64/x86_64 hardware and Linux system for running real-time or low latency workloads. Example workloads where this type of tuning would be appropriate: Line rate packet capture Line rate deep packet inspection (DPI) Applications using kernel-bypass networking Accurate benchmarking of CPU bound programs The term latency in this context refers to the time betwe

          • Linux kernel bug can let hackers escape Kubernetes containers

            HomeNewsSecurityLinux kernel bug can let hackers escape Kubernetes containers A vulnerability affecting Linux kernel and tracked as CVE-2022-0185 can be used to escape containers in Kubernetes, giving access to resources on the host system. Security researchers warn that exploiting this security issue is easier and more promising than initially estimated, and that patching is an urgent matter sinc

              Linux kernel bug can let hackers escape Kubernetes containers
            • 新しい EC2 Serial Console による、起動とネットワーク問題のトラブルシューティング | Amazon Web Services

              Amazon Web Services ブログ 新しい EC2 Serial Console による、起動とネットワーク問題のトラブルシューティング 本番稼働上の問題の修正は、システム管理者とネットワーク管理者の重要な役割の 1 つです。実際、私はいつも、それがインフラストラクチャエンジニアリングの最も興味深い要素の 1 つであることに気づきます。目の前の問題を必要に応じて深く掘り下げれば、問題解決に (最終的に) 満足できるだけでなく、その過程で通常であれば目にすることのできない多くのことを学べます。 オペレーティングシステムは、まさしくそうした機会を提供します。OS は時間とともにますます複雑化し、管理者はおびただしい数の構成ファイルや設定を習熟せざるを得ません。Infrastructure as Code やオートメーションによりサーバーのプロビジョニングや管理が大幅に向上しましたが

                新しい EC2 Serial Console による、起動とネットワーク問題のトラブルシューティング | Amazon Web Services
              • Kubernetes環境を構築して、実際にコンテナを動かしてみよう

                はじめに 今回は、実際に手を動かしてkubernetesを理解していきましょう。まずはコンテナとkubernetesによるコンテナオーケストレーションについて説明します。その後、kubernetesクラスタを構築していきます。構築ができたら、実際にコンテナをクラスタ上で動かしてみます。 コンテナとは コンテナは仮想化方式の1つとされています。アプリケーションの実行に必要なファイル群をコンテナという形でパッケージングして、ホストOSのカーネルを共有しつつユーザ空間でリソースを分離することで仮想的に分離された環境を生成し、アプリケーションを実行します。この実行環境はホストOSからは通常のプロセスとして扱われます。 この仕組みには、ハイパーバイザー型仮想化などの方法に比べて、以下のような利点があります。 高速な起動/停止最小限のリソース消費再現性の保証(Immutable Infrastruct

                  Kubernetes環境を構築して、実際にコンテナを動かしてみよう
                • BusyBoxを使って、単一で実行可能なコマンドのバイナリをDockerコンテナ内に放り込む - CLOVER🍀

                  これは、なにをしたくて書いたもの? Dockerコンテナ内で解析などの作業をする必要が出た時に、コマンドなどが入っていないDockerイメージが相手の場合は どうすればいい?という時の選択肢のひとつとして、BusyBoxが使えそうな気がしたので。 BusyBox Case 例えば、以下のようにDebianのDockerイメージを使った時に、デフォルトではpsやmpstatなど、調べものをする際に 使いたいコマンドが入っていません。 $ docker container run -it --rm --name debian debian:stretch root@f28f50fe47ca:/# ps bash: ps: command not found root@f28f50fe47ca:/# wget bash: wget: command not found root@f28f50fe

                    BusyBoxを使って、単一で実行可能なコマンドのバイナリをDockerコンテナ内に放り込む - CLOVER🍀
                  • 令和なのに NAT インスタンスを手作りして使ってみた | DevelopersIO

                    (※)データ処理は 100 GB の前提で計算していますが、戻りの通信も課金対象であるため実際にはもっと増えるはずです。 NAT Gateway は利用期間に応じた単価が高いのと、データ処理量に応じた料金が発生します。NAT インスタンスは、使わない時間は停止することでオンデマンド料金をさらに減らせます。 大抵の場合、NAT インスタンスの方がコストは安くつきます。 このコストの差を鑑みてもなお 本番環境では NAT Gateway の採用をお勧めします。 NAT Gateway がマネージドでやってくれる部分や性能のメリットの方が大きいと考えるためです。検証環境や、万が一インターネットへのアウトバウンドが途切れてもクリティカルなことにはならない、というワークロードであればコスト抑制をモチベーションに NAT インスタンスを採用するのもアリだと思います。 それぞれの料金の以下をご参照くださ

                      令和なのに NAT インスタンスを手作りして使ってみた | DevelopersIO
                    • sdadams.org

                      The problem: data corruption I decided it was finally time to build a file server to centralize my files and guard them against bit-rot. Although I would have preferred to use OpenBSD due to its straightforward configuration and sane defaults, I was surprised to find that none of the typical NAS filesystems were supported. In particular I would need three features in such a filesystem. Firstly I w

                      • 【アップデート】ECS on FargateがsystemControlsをサポートし、カーネルパラメータが調整できるようになりました | DevelopersIO

                        【アップデート】ECS on FargateがsystemControlsをサポートし、カーネルパラメータが調整できるようになりました CX事業部@大阪の岩田です。 8/9付のアップデートでECS on Fargateのタスク定義で指定可能なパラメータが増えました 今回のアップデートで指定可能になったパラメータは以下の2つです。 systemControls pidMode 本ブログでは上記アップデートのうちsystemControlsについてご紹介します。 systemControlsとは ECSのタスク定義ではsystemControlsというパラメータが指定可能です。このパラメータはdocker run の --sysctlオプションに相当し、Linuxカーネルの各種カーネルパラメータが設定できるパラメータとなっています。従来このパラメータはECS on Fargateでは指定できず

                          【アップデート】ECS on FargateがsystemControlsをサポートし、カーネルパラメータが調整できるようになりました | DevelopersIO
                        • Raspberry Pi で L3 スイッチを作成する

                          以前に VMware ESxi と VyOS を用いて3つのネットワークセグメントを接続することをやりました。今回はこれを Raspberry PI を用いて実現できないかを実験しました。 準備 前回同様、都合により3つのネットワークセグメントからのパケットはタグポートで出ているものを使用することにします。このスイッチは、 NETGEAR の GS108Ev3 です。 ESXi につながっていた LAN ケーブルを Raspberry Pi に差し替えた、と思ってもらえればと思います。 ここでは Raspberry Pi は Raspberry Pi2 を使用します。 OS は 2017-03-02 raspbian-jessie-lite.img を使用しています。 またパケットの転送を許可するために /etc/sysctl.conf に以下の設定を行っています。 net.ipv4.ip

                            Raspberry Pi で L3 スイッチを作成する
                          • ping を実行するのに CAP_NET_RAW は必要なくなっていた

                            必要がなくなっている、というか特定の条件では CAP_NET_RAW は不要という話。 ある講義で Capability について話す機会があり、いつもどおり CAP_NET_RAW が必要な ping を使った実験をしていたところ、環境によっては CAP_NET_RAW File Capability を与えなくても ping が実行できることに気づき、少し調べてみました。 どうも随分前に net.ipv4.ping_group_range というカーネルパラメータが追加されていたらしく、これを設定することで ICMP ソケットを扱うグループを指定できるため、 CAP_NET_RAW や setuid なしで実行できるようになっていたようでした。 以下、調べたことを書いておきます。 ubuntu 18.04 では CAP_NET_RAW なしでは動かないのに対し、ubuntu 20.04

                              ping を実行するのに CAP_NET_RAW は必要なくなっていた
                            • LinuxのTCP Keep-Aliveを確認する - CLOVER🍀

                              これは、なにをしたくて書いたもの? TCPのKeep-Aliveについて、なんとなく知ってはいたものの、自分でちゃんと確認したことがなかったので1度見てみようかなと 思いまして。 TCP Keep-Alive Keep-Aliveという言葉は、その言葉が適用される文脈で変わったりしますが、今回はTCPのKeep-Aliveを対象とします。 TCPのKeep-Aliveは、アクティブなTCPソケットに対して、通信相手がまだ健在か確認するためのものです(Keep-Alive)。 Keep-Aliveについては、RFCが存在します。 RFC 1122 - Requirements for Internet Hosts - Communication Layers Requirements for Internet Hosts -- Communication Layers TCP通信時にTCPソ

                                LinuxのTCP Keep-Aliveを確認する - CLOVER🍀
                              • HP Microserver N54L セットアップ日記 その3 - CentOS 8 のインストールと設定 - 元RX-7乗りの適当な日々

                                久しぶりに家の NAS をリプレースしていますシリーズその1, 2の続きです。 その2、で無事に BIOS のアレコレをした結果、ディスクが認識できたので、OS をインストールしていきます。 家のサーバは、基本的に CentOS を使うようにしているのですが、新しいバージョンをということで、CentOS 8 を入れてみることに。 CentOS 8 のインストール まずは ISO イメージをダウンロードします。 http://ftp.riken.jp/Linux/centos/8/isos/x86_64/ 今回は、上記のミラーサイトあたりから、今時点の最新版である "CentOS-8.1.1911-x86_64-boot.iso" をダウンロードして使用しました。 HP Microserver は光学ドライブがないので、USBメモリ等に、USB ブートできるイメージとして ISO を焼き付け

                                  HP Microserver N54L セットアップ日記 その3 - CentOS 8 のインストールと設定 - 元RX-7乗りの適当な日々
                                • Improving Distributed Caching Performance and Efficiency at Pinterest

                                  IntroductionPinterest’s distributed caching system, built on top of open source technologies memcached and mcrouter, is a critical component of the production infrastructure stack. Pinterest’s cache-as-a-service platform is responsible for driving down application latency across the board, reducing the overall cloud cost footprint, and ensuring adherence to strict sitewide availability targets. To

                                    Improving Distributed Caching Performance and Efficiency at Pinterest
                                  • 【Linux】カーネルパラメータのパフォーマンスチューニングについて | アカスブログ

                                    LinuxのカーネルにはカーネルパラメータというOSの各種設定を調整するための機能があります。 カーネルパラメータがデフォルト値のままでも一般的な使用であれば特に問題はありません。 しかしアクセスの多いサーバや負荷の高いサーバ、特殊な条件で使用するサーバなどで一部パラメータのパフォーマンスチューニングが必要になることがあります。 更新履歴2021/8/22トップの画像を削除コードにシンタックスハイライターを適用sysctlについて注釈を追加カーネルパラメータについてカーネルはオペレーティングシステム(OS)のコアとなる部分であり、その各種設定を調整するパラメータがカーネルパラメータです。 カーネルパラメータはprocファイルシステムを通してアクセスすることが可能となっています。 カーネルパラメータの確認カーネルパラメータの確認は/proc/sys以下の対応するディレクトリのファイルを読み出

                                      【Linux】カーネルパラメータのパフォーマンスチューニングについて | アカスブログ
                                    • 未知の領域でのSYNパケット処理

                                      Cloudflareは、インターネットの未知の領域でのサーバー運用に関して豊富な経験があります。それでも、常にこの黒魔術の腕に磨きをかけています。まさにこのブログで、FIN-WAIT-2の理解やバッファチューニングを受けるといったインターネットプロトコルの影の部分についてこれまで言及してきました。 CC BY 2.0 イメージ 作成者 Isaí Morenoただし、これまで十分注目されてこなかったテーマが一つあります。それがSYNフラッドです。当社はLinuxを使用しており、LinuxのSYNパケット処理は実に複雑です。今回はこれをテーマに取り上げます。 2列の物語まず、TCPの「LISTENING」状態のバインドされた各ソケットには、2 つの別個のキュー(待ち行列)があることを理解しなければなりません。 SYN キューAccept キュー文献ではこれらのキューには、「reqsk_queu

                                        未知の領域でのSYNパケット処理
                                      • LinuxサーバーのTCPネットワークのパフォーマンスを決定するカーネルパラメータ – 3編 | NHN Cloud Meetup

                                        連載 LinuxサーバーのTCPネットワークのパフォーマンスを決定するカーネルパラメータ- 1編 LinuxサーバーのTCPネットワークのパフォーマンスを決定するカーネルパラメータ- 2編 5. TIME_WAIT socket TIME_WAIT状態のソケットは、利用可能なlocal port数を軽減させて同時に保有できるクライアントソケットの数を制限します。 5.1 TIME_WAIT socketとは? TIME_WAIT状態のソケットは、いつ発生するでしょうか? まず、TCPソケットの状態フローを見てみましょう。 上図から分かるように、active closingするソケットの最後の終着地がTIME_WAITの状態です。 言い換えれば、クライアントソケットであれ、サーバーソケットであれ、close()システムコールを先に呼び出した側(active closing)が最終的にそうなり

                                          LinuxサーバーのTCPネットワークのパフォーマンスを決定するカーネルパラメータ – 3編 | NHN Cloud Meetup
                                        • Homebrew で使われていない formula を削除する :: by and for engineers

                                          May 9, 2020 Homebrew でインストールした formula で使っていない不要なものを調査した。 ほかの formula に依存していない formula を一覧化するbrew uses にかけると、何にも依存していないパッケージ (formula) を特定することができる。 brew list | xargs -I{} sh -c 'brew uses --installed {} | wc -l | xargs printf "%20s is used by %2d formulae.\n" {}' xargs の並列実行バージョン(おすすめ)実行に時間がかかるので、 xargs -P3 など適宜並列プロセス数を指定すると良い。特にこだわりがなければ expr $(sysctl -n hw.ncpu) - 1 で、CPUコア数から割り当てられるだけ指定する。 brew

                                            Homebrew で使われていない formula を削除する :: by and for engineers
                                          • High Availability Load Balancers with Maglev

                                            BackgroundWe run many backend services that power our customer dashboard, APIs, and features available at our edge. We own and operate physical infrastructure for our backend services. We need an effective way to route arbitrary TCP and UDP traffic between services and also from outside these data centers. Previously, all traffic for these backend services would pass through several layers of stat

                                              High Availability Load Balancers with Maglev
                                            • ルートレスのPodmanはどのように動作しますか? - 赤帽エンジニアブログ

                                              Podmanがどのようにしてユーザ名前空間を利用してルートレスモードで動作するのかを説明します。 この記事は How does rootless Podman work? | opensource.com を翻訳したものです。RHEL 7.8以降およびRHEL 8.1以降ではこの記事で紹介されているユーザ名前空間を活用した rootless container がフルサポートとなっていて、利用できます。 :::11 Feb 2019 Daniel J Walsh::: Image by: Opensource.com 前回のユーザ名前空間とPodmanについての記事では、Podmanコマンドを使って異なるユーザ名前空間で異なるコンテナを起動し、コンテナ間の分離を改善する方法について説明しました。Podmanはまた、ユーザ名前空間を利用してルートレスモードで実行できるようにしています。基本的

                                                ルートレスのPodmanはどのように動作しますか? - 赤帽エンジニアブログ
                                              • Keepalivedを用いた冗長化 - Carpe Diem

                                                概要 デフォルトゲートウェイのように1つしかIPを設定できない箇所を冗長化したい ロードバランサ、Proxyを冗長化したい active/standby型でフェイルオーバーした時にクライアント側でIPの変更を意識したくない といったケースでVIP(仮想IP)を用いることで解決するのがVRRPです。 今回はそのVRRPを実現できるkeepalivedを紹介します。 環境 Ubuntu 18.04 keepalived v1.3.9 VRRPとは VRRP(Virtual Router Redundancy Protocol)とはその名の通りルータを冗長化させるために考えられたプロトコルです。 複数のルータを外部からは仮想的な1つのルータとして扱うことでルータの冗長構成を実現します。 VIPを振られていた機器が故障してもVRRPによって別の機器にVIPが振られ直すので、クライアントは引き続きア

                                                  Keepalivedを用いた冗長化 - Carpe Diem
                                                • Kubernetes 1.21: Power to the Community

                                                  Authors: Kubernetes 1.21 Release Team We’re pleased to announce the release of Kubernetes 1.21, our first release of 2021! This release consists of 51 enhancements: 13 enhancements have graduated to stable, 16 enhancements are moving to beta, 20 enhancements are entering alpha, and 2 features have been deprecated. This release cycle, we saw a major shift in ownership of processes around the releas

                                                    Kubernetes 1.21: Power to the Community
                                                  • Troubleshoot Boot and Networking Issues with New EC2 Serial Console | Amazon Web Services

                                                    AWS News Blog Troubleshoot Boot and Networking Issues with New EC2 Serial Console Fixing production issues is one of the key responsibilities of system and network administrators. In fact, I’ve always found it to be one of the most interesting parts of infrastructure engineering. Diving as deep as needed into the problem at hand, not only do you (eventually) have the satisfaction of solving the is

                                                    • Amazon VPC のルーティング強化により、VPC 内のサブネット間のトラフィックが調査可能に | Amazon Web Services

                                                      Amazon Web Services ブログ Amazon VPC のルーティング強化により、VPC 内のサブネット間のトラフィックが調査可能に 2019 年 12 月以降、Amazon Virtual Private Cloud (VPC)では、すべての入力トラフィック(北-南トラフィック)の特定のネットワークインターフェイスへのルーティングが許可されるようになりました。この機能を使用できる理由は多数あります。たとえば、侵入検出システム(IDS)アプライアンスを使用して着信トラフィックを検査したり、入力トラフィックをファイアウォールにルーティングするために使用します。 この機能を開始して以来、多くのお客様から、VPC 内のあるサブネットから別のサブネットへ流れるトラフィックを分析する同様の機能(East-Westトラフィック)を提供するように依頼がありました。ルーティングテーブル内のル

                                                        Amazon VPC のルーティング強化により、VPC 内のサブネット間のトラフィックが調査可能に | Amazon Web Services
                                                      • Technical reasons to choose FreeBSD over GNU/Linux

                                                        Published on 2020-04-11. Modified on 2023-10-27. I run FreeBSD as my daily driver on both my main workstation and on all my servers and I have been running FreeBSD since about 1999 because I consider it an amazing operating system. In this article I will address some of the technical reasons for choosing FreeBSD over a GNU/Linux distribution. A complete operating system On FreeBSD you'll notice ri

                                                        • 固定IPv4アドレスを失ったので、VPS上にDS-Lite方式に対応したルーターを作ってみた | DevelopersIO

                                                          社内で年齢詐称疑惑の絶えない、インターネット老人会員の水島が大阪からお届けします。 皆さんにとってインターネットとは何でしょうか。情報源…憩いの場…金の生る木…実家のような安心感……? 私にとってインターネットとは、IPv4とIPv6です。夢のない話ですね! 今回はお仕事とは全く関係ありません、自宅のインターネット回線のお話です。 涙なしでは語れません。諸行無常のインターネットの世界、お気に入りだったISPのサービス終了を何度か経験されている会員の皆様も多くいらっしゃると思いますが、先月いっぱいで長年愛用してきた固定IPv4が使える安価なプロバイダーが、惜しまれつつもサービス終了となってしまいました。 自宅で固定IPv4アドレスを必要とする活動をされている方はまだまだいらっしゃると思います。このままでは、「IPアドレスを持つ者はすべて対等にサービスを提供できる」という本来のインターネットの

                                                            固定IPv4アドレスを失ったので、VPS上にDS-Lite方式に対応したルーターを作ってみた | DevelopersIO
                                                          • A Google Cloud support engineer solves a tough DNS case | Google Cloud Blog

                                                            Antonio MessinaTechnical Solutions Engineer, Google Cloud Platform Support Editor’s note: Ever wonder how Google Cloud Technical Solutions Engineers (TSE) approach your support cases? TSEs are the support engineers responsible for troubleshooting and identifying the technical root cause of issues reported by customers. Some are fairly simple, but, every once in a while, a support ticket comes in t

                                                              A Google Cloud support engineer solves a tough DNS case | Google Cloud Blog
                                                            • VS CodeのRemote DevelopmentでSSHアクセスすると接続先の高負荷状態が続く問題と対応 - zaki work log

                                                              年末くらいから、メインの作業用Linuxマシン(この1台のみ)にVS CodeのRemote DevelopmentでSSHアクセスすると一定時間高負荷状態が続いていたので、なんとかならないかと原因調査した結果。 なお、クライアント側のVS CodeはどのPCから接続しても、特定の接続先Linuxマシンのみで高負荷になっていたので、VS CodeをインストールしているPC側の問題ではなかった ないだろうと見当をつけて調査。 VS Code version: 1.52.1 VS CodeのRemote SSHでnodeプロセスが高負荷になる 大量のreportファイル 原因 watchの除外設定 (余談) なぜこんなにvenvがあるのか まとめ VS CodeのRemote SSHでnodeプロセスが高負荷になる Remote Development SSHでアクセスした時のtopの状態がこ

                                                                VS CodeのRemote DevelopmentでSSHアクセスすると接続先の高負荷状態が続く問題と対応 - zaki work log
                                                              • Kubernetesがコンテナイメージのダウンロードに失敗する原因を探る - ANDPAD Tech Blog

                                                                はじめに バックエンドエンジニアの須恵です。 過去の記事ではSREを名乗っていましたが、最近はGoでAPIサーバーを開発するのが主業務になっています。 依然SREチームの末席にも名を連ねさせていただいており、自分の開発しているAPIサーバーが乗っているKubernetesクラスターのメンテナンスや、クラスターに同居している他のサービスのCI/CD関連に取り組んだりしています。 会社のブログに寄稿するのは久しぶりです。 起きた問題 いつからか、そこそこ頻繁に、Podの更新が失敗する症状が発生するようになりました。 その際PodのステータスとしてErrImagePull または ImagePullBackOffが確認できました(ErrImagePullからImagePullBackOffに推移する)。 kubectl describeすると、このようになっています。 拡大してご覧ください Er

                                                                  Kubernetesがコンテナイメージのダウンロードに失敗する原因を探る - ANDPAD Tech Blog
                                                                • ネットワークコネクションの切断と Go の HTTP/2 クライアントのタイムアウト - Cybozu Inside Out | サイボウズエンジニアのブログ

                                                                  こんにちは、クラウド基盤本部の向井です。 幸いにも cybozu.com を運用しているデータセンター内のネットワークは(担当チームの尽力により)安定していますが、ネットワークコネクションは常に切断されるリスクがあることを念頭においておく必要があります。その原因が一時的なネットワークの不調だったり、関係するコンポーネントのメンテナンスに伴う瞬断であったりした場合、アプリケーションは適切にリトライするなどして処理を継続したいところです。一方で、このような場合には OS によるプロトコルの実装やライブラリによって隠蔽された動作により、一見不思議に見える挙動に悩まされることも少なくありません。本記事では、一例として私が所属するチームで開発している Go を使って開発されたコンポーネントで経験したネットワークコネクションの切断に伴うトラブルと、その解決に利用した Go の HTTP/2 クライアン

                                                                    ネットワークコネクションの切断と Go の HTTP/2 クライアントのタイムアウト - Cybozu Inside Out | サイボウズエンジニアのブログ
                                                                  • WireGuardベースのTailscaleを使ってAmazon Lightsail上にVPNサーバを10分で作る | DevelopersIO

                                                                    VPSサービスのAmazon Lightsail上にWireGuardベースのTailscaleをインストールしてVPNサーバをシュッと作る Amazon LightsailとTailscaleを使い、AWS上でVPNサーバーをシュッと構築する方法を紹介します。 Amazon Lightsail Amazon Lightsailは、AWSが提供するVPSサービスです。 AWSは世界各地にデータセンターを集積したリージョンが存在します。 VPNサーバを特定のリージョンに作成すると、VPN接続時はそのリージョンのあるエリアからアクセスしていることになります。 東京リージョンにVPNサーバを構築すれば、日本ローカルのサービスにアクセスしたり、ソーシャルメディアが規制されているエリアに滞在中の迂回策としても利用できます。 参考 : Amazon Lightsail を利用可能なリージョン Tail

                                                                      WireGuardベースのTailscaleを使ってAmazon Lightsail上にVPNサーバを10分で作る | DevelopersIO
                                                                    • Linux v5.13でスケジューラ関係のマニアックなsysctlパラメタが廃止された

                                                                      Linuxのsysctlパラメタにはスケジューラ関係のものがいくつかあります。一部については以下の記事で解説しています。 スケジューラに関するパラメタのうち、以下のものはv5.13以降で廃止され、同じことをするパラメタがdebugfs(Ubuntu20.04の場合は"/sys/debug/sched"以下に存在)に追加されました。 sched_min_granularity_ns sched_latency_ns sched_wakeup_granularity_ns sched_tunable_scaling sched_migration_cost_ns sched_nr_migrate numa_balancing_scan_delay_ms numa_balancing_scan_period_min_ms numa_balancing_scan_period_max_ms num

                                                                        Linux v5.13でスケジューラ関係のマニアックなsysctlパラメタが廃止された
                                                                      • 東京リージョンと大阪リージョンのEC2インスタンス間の転送速度を計測してみた | DevelopersIO

                                                                        検証環境 検証環境は以下のとおりです。 OS : Amazon Linux 2023 (al2023-ami-2023.4.20240429.0-kernel-6.1-arm64) インスタンスタイプ : c6gn.medium (ネットワーク帯域幅最大16Gbps) 東京リージョンのEC2インスタンスから大阪リージョンのEC2インスタンスへiperf3を叩いて、その時の転送速度を確認します。iperf3の詳細は以下記事をご覧ください。 レイテンシーは8msで安定しています。 EC2インスタンスの各種設定は以下のとおりです。 $ sudo cpupower frequency-info analyzing CPU 0: no or unknown cpufreq driver is active on this CPU CPUs which run at the same hardware

                                                                          東京リージョンと大阪リージョンのEC2インスタンス間の転送速度を計測してみた | DevelopersIO
                                                                        • FreeBSD 13.1-R ではフツーに NTFS が使えている。 » かけまわる子犬。

                                                                          running-dog.net。しかし、自分が一番落ち着かない。かけまわっている子犬のような状態。そんな毎日をブログで綴ってみました。 FreeBSD・MacOSX・UNIX・PC・プログラム・iPhone(iOS)・Android ネタなど技術的・趣味的なネタについて色々書いてみたいと思います。 僕が持っている色々な PC は WindowsOS と FreeBSD でマルチブートしています。デスクトップ PC の場合は M2.SSD の他に SATA 2.5 インチ SSD と、更に USB HDD を接続して、全てのストレージは NTFS と UFS (ZFS ではない;-) に分割して、どちらの OS でも高速アクセスと、ビッグデータ蓄積領域を確保している状態です。 普段は FreeBSD を利用しているのだけど、たまに Windows11 を起動してアプリを利用したり、蓄積してい

                                                                          • LKML: Miguel Ojeda: [PATCH 00/19] Rust support

                                                                            Rust support This is the patch series (v2) to add support for Rust as a second language to the Linux kernel. If you are interested in following this effort, please join us in the mailing list at: rust-for-linux@vger.kernel.org and take a look at the project itself at: https://github.com/Rust-for-Linux As usual, special thanks go to ISRG (Internet Security Research Group) and Google for their finan

                                                                            • Linux の Network Namespace と Keepalived でルータの冗長化を試す - CUBE SUGAR CONTAINER

                                                                              今回は「Linuxで動かしながら学ぶTCP/IPネットワーク入門」に載せようか悩んで、結局は載せなかった内容のひとつを扱う。 Linux の Network Namespace を使って作った 2 台のルータを、Keepalived (VRRP) を使ってホットスタンバイで冗長化する構成を組んでみる。 つまり、2 台のうち 1 台のルータに障害が起きても、残りの 1 台が役務を引き継いで通信を継続できる状況を再現する。 使った環境は次のとおり。 $ lsb_release -a No LSB modules are available. Distributor ID: Ubuntu Description: Ubuntu 20.04.4 LTS Release: 20.04 Codename: focal $ uname -srm Linux 5.4.0-107-generic aarch

                                                                                Linux の Network Namespace と Keepalived でルータの冗長化を試す - CUBE SUGAR CONTAINER
                                                                              • 負荷試験#サーバーアーキテクチャ事例 | 外道父の匠

                                                                                図を書いて気分転換したくなったので、アーキテクチャについて軽く触れます。 細かくは省いて、負荷試験の大雑把なサーバー構成にはどのような選択肢があるのか、の事例を出していきます。 登場人物 超ざっくり分けると3つに分類されます。 基本AWS内での利用を想定していますが、User と Server は別にどこの環境でも大丈夫なようにしています。Client は ECS Fargate で使い捨て。 私の場合、実際にどのような構成で試験できるようにしたのか、を紹介していきますが、これだけ見ると至って普通な内容かもしれません。 1:1 ダイレクト型 まずは最もシンプルな構成で、主に動作テスト用です。 これだと普通にLocustを動かすのと変わらない構成です。実行命令と負荷リクエストを出すサーバーが同じで、任意の1ホストへリクエストを送信します。 Server は Host を指定するだけなので、経

                                                                                  負荷試験#サーバーアーキテクチャ事例 | 外道父の匠
                                                                                • GKE でカーネルパラメータの設定 - Qiita

                                                                                  GKE でカーネルパラメータを設定したい。 Using sysctls in a Kubernetes Cluster を参考にすると Pod オブジェクトの spec.securityContext.sysctls[] で設定できる 許可をだすために PodSecurityPolicy オブジェクトを作る 許可をだすために kubelet に --allowed-unsafe-sysctls オプションを指定する とあるが、GKE では kubelet にオプションを渡せない。 initContainers を使う 代わりに initContainers で起動時に sysctl -w コマンドで設定してあげればできる。 apiVersion: apps/v1 kind: Deployment spec: template: spec: initContainers: - name: s

                                                                                    GKE でカーネルパラメータの設定 - Qiita