並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 80 件 / 225件

新着順 人気順

netnsの検索結果41 - 80 件 / 225件

  • Containers the hard way: Gocker: A mini Docker written in Go

    They are popular and they are misunderstood. Containers have become the default way applications are packaged and run on servers, initially popularized by Docker. Now, Docker itself is misunderstood. It is the name of a company and a command (a suite of commands, rather) that allow you to manage containers (create, run, delete, network) easily. Containers themselves however, are created from a set

      Containers the hard way: Gocker: A mini Docker written in Go
    • 詳解: Amazon ECSのタスクネットワーク | Amazon Web Services ブログ

      Amazon Web Services ブログ 詳解: Amazon ECSのタスクネットワーク この記事はECSのSr. Software Dev EngineerのAnirudh Aithalの寄稿です。 2017年11月14日に、AWSはコンテナにElastic Network InterfaceをアタッチできるようにするAmazon ECSのTask Networkingを発表しました。 この記事では、ECSが管理するインスタンス(コンテナインスタンスと呼ばれます)上でContainer Networking Interfaceプラグインを使って、この新しいコンテナネイティブなawsvpcネットワークモードがどのように実装されているかを詳しくご紹介したいと思います。 こちらはAmazon ECSでタスクネットワークが動作するかにdeep diveしたものです。もし自身のコンテナ化し

        詳解: Amazon ECSのタスクネットワーク | Amazon Web Services ブログ
      • インターンレポート: RootlessコンテナのTCP/IP高速化

        はじめまして、インターン生の松本直樹と申します。 この記事では、私がNTT研究所におけるインターン「コンテナランタイムの実装と評価」のインターン期間中に取り組んだ「bypass4netns」について紹介させていただきます。 自己紹介私は京都大学 情報学研究科に所属し、 普段は次世代型ホームネットワークと称してホームネットワークとSDNの融合や計算処理オフロードに関する研究に取り組んでいます。 コンテナ技術やその周辺のネットワーク技術に関しては普段から興味があったものの、 時間をかけて取り組む機会がありませんでした。 その折に、今回のインターンの募集を見つけ、実装を中心に触れることができる良い機会だと思い応募させていただきました。 インターン期間中はRootlessコンテナとネットワーク周りにどっぷりと浸ることができ、 非常に貴重な体験ができました。 はじめに: Rootless コンテナに

          インターンレポート: RootlessコンテナのTCP/IP高速化
        • linuxのipコマンドでgretap を作って通信してみる - それマグで!

          gretap を作る GRE Tap でイーサネット・フレームを転送するVPNを作ってみたい。 wg0 でL2-VPNはできると思う。 wg に L2-VPN機能がないので、 wg 上に ip bridge で gre tap を構成すればいい。 wireguardではL2はサポートされていなので、WG上にGRETAPでL2転送をかけてみたらいいと思う。ただし、iPhoneのiOSではgreを使えないので、どんな手段を用いてもリモートからGoogle Homeを呼び出しはできないと思う。iphoneでL2TPをするならwigreguardは使えない もっとかんたんに、L2トンネルを使うのなら、softether や OpenVPNを使うしかない。 GRE tap を体験するために、Linux仮想マシンを作る。 仮想マシンをつくると流石に重いので、LXCを使ってコンテナを使うことにする。 n

            linuxのipコマンドでgretap を作って通信してみる - それマグで!
          • somaxconnの上限値は65535

            Linuxのネットワークパラメータの一つに、net.core.somaxconnというのがあります。これはlisten(2)の第二引数backlogの上限値となっています。このsomaxconnは一見intに見えますが、実はunsigned shortの範囲の数値しか受け付けません。それを超える数値を入れると黙って切り捨てられます。つまり -1→65535 0→0 65535→65535 65536→0 65537→1 と同じような動作を内部的にします。なので、この値は絶対に0~65535の範囲を超えてはいけません。以下、詳しい説明です。 おことわり: この仕様はLinux 3.11以降変更されており、範囲外の数値を設定できないようになっています。ここに書いてある内容が再現するのは、Linux 3.10以前の古いカーネルのみです。 まずsysctlの定義ですが net/core/sysct

            • Linux Network Namespace で遊んでみる

              Linux Network Namespace を使うと 1 つの Linux ホストの中に仮想的なネットワーク環境を複数作れる。今回はサーバ、ゲートウェイ、クライアントの 3 つのネームスペースを作って通信させてみる。この機能を使うには新しめの Linux カーネルとツール群が必要みたいなのでディストリビューションには Ubuntu 13.04 を使った。 まずは各ネームスペースを作る。 $ sudo ip netns add server $ sudo ip netns add gateway $ sudo ip netns add client $ ip netns list client gateway server ネームスペース gateway をルータにしたいので IP 転送を有効にする。 ip netns exec コマンドを使うことで各ネームスペース上でコマンドを実行でき

                Linux Network Namespace で遊んでみる
              • 2021年 SRv6 入門 - hiroportation

                SRv6について2021年までに取集した情報を整理して入門書を作りました。 とりあえずSRv6に触れたい方向けの内容になっています。 1. SRv6 概要 1.1. SRv6 とは 1.1.1. セグメントルーティング 1.1.2. IPv6 1.2. どういうところで使われているのか? 1.3. 今どういう状況? 2. SRv6 詳細 2.1. SRv6の仕組み 2.2. SRv6 Function 2.3. SRv6 Control Plane 2.4. Flex-Algo (Flexible Algorithm) 2.5. TI-LFA 2.6. SRv6 OAM (Operation, Administration, and Maintenance) 2.6. 今後のSRv6 3. SRv6を実際に使う 3.1. iproute2 【ハンズオンツール】 3.2. VPP 3.3.

                  2021年 SRv6 入門 - hiroportation
                • socat

                  dest-unreach / socat socat - Multipurpose relay Abstract what: "netcat++" (extended design, new implementation) OS: AIX, BSD, Linux, Solaris e.a. (UNIX) lic: GPL2 inst: tar x...; ./configure; make; make install doc: README; socat.html, socat.1 ui: command line exa: socat TCP6-LISTEN:8080,reuseaddr,fork PROXY:proxy:www.domain.com:80 keyw: tcp, udp, ipv6, raw ip, unix-socket, pty, pipe, listen, sock

                  • Linuxカーネル4.1の名前空間(ドラフト) - φ(・・*)ゞ ウーン カーネルとか弄ったりのメモ

                    はじめに 名前空間 名前空間の利点 名前空間の種類 Mount名前空間 IPC名前空間 UTS名前空間 Net名前空間 PID名前空間 User名前空間 名前空間の管理 プロセスと名前空間 名前空間のエクスポート nsfs 名前空間共通データ NSProxy構造体 NSProxyと名前空間 参照カウンタ NSProxyと名前空間の関連 名前空間へのアクセス デフォルトの名前空間 名前空間の共有・分離・移動 名前空間の共有と複製 fork(2) clone(2) fork(2)・clone(2)時の処理 unshare(2) 名前空間の分離処理 名前空間の移動 setns(2) 名前空間の移動処理 Mount名前空間 Mount名前空間の実装 Mount名前空間の初期化 Mount名前空間の分離 IPC名前空間 IPC名前空間の実装 IPC名前空間の初期化 UTS名前空間 UTS名前空間の実

                      Linuxカーネル4.1の名前空間(ドラフト) - φ(・・*)ゞ ウーン カーネルとか弄ったりのメモ
                    • 祝k8s on AWS!ということで一番基本的なDockerネットワークについて調べてみた - freee Developers Hub

                      おはようございます。会計freeeの開発をしている bananaumai と言います。 ついにEKSでAWSにKubernetesがやってきましたね! また、Fargate の登場により、ECS自体の利用もとても気軽になりました。いい時代来てます。 オメデタイことが続くので?、Dockerのネットワークを調べてみようとふと思いました。 しかし、ネットワーク苦手エンジニアの僕からするとあまりにも壮大な壁でした。 ということで、freee Developers Advent Calendar の11日目、一番基本的なDockerネットワークを調べてお茶を濁すことにします。k8s関係ありません。すみません。 ※ EKSについての説明は同僚のmumoshuさんの記事がわかりやすいのでご参照下さい。 それではやっていきます。 とりあえず見てみましょう コンテナと外の世界との通信は特に意識しなくてもで

                        祝k8s on AWS!ということで一番基本的なDockerネットワークについて調べてみた - freee Developers Hub
                      • Out of memory and no killable processes... のカーネルパニックを起こしたい - hibomaの日記

                        イントロ dsas.blog.klab.org こちらのエントリを拝見したのだが Out of memory and no killable processes... というログを出してカーネルパニックするケースがあるのだなと初めて知った。 幸いにして、過去に同様のメッセージを出すカーネルパニックには遭遇したことがない。あるいはログが取れてなくて気がつかなかっただけかもね! モチベーション 故意に異常を起こして、このカーネルパニックを見てみたい 🔥💀 Out of memory and no killable processes ... のコード 該当のログを出してカーネルパニックするコードは out_of_memory に書かれている (ソースは CentOS7.4 1708 ) /** * out_of_memory - kill the "best" process when w

                          Out of memory and no killable processes... のカーネルパニックを起こしたい - hibomaの日記
                        • 組み込みの人。

                          技術ネタはこちらに書いていこうとおもいます。 https://qiita.com/tetsu_koba FreescaleのCortex-M0のMCUの評価ボードであるFRDM-KL02Z を動かしてみました。 Linux(Ubuntu 14.04 x86_64)の上に開発環境を構築しました。 準備 SDKのインストール 以下のサイトからFreescale kinetisのSDKをダウンロードして展開します。 http://www.freescale.com/tools/software-and-tools/run-time-software/kinetis-software-and-tools/development-platforms-with-mbed/software-development-kit-for-kinetis-mcus:KINETIS-SDK $ WORK=$PWD

                            組み込みの人。
                          • Exploring LXC Networking - Container Ops

                            Daily Dilemma Recently I’ve been finding myself in various conversations about Docker and Linux Containers (LXC). Most of the time the conversations eventually end up with one and the same question and that is whether we should run containers in production. Initially this post had a few paragraphs where I philosophised about readiness of the technology, but I’ve deleted those paragraphs now as the

                            • ip netns コマンドが意外にきめ細やかにコンテナを作ってくれる - TenForward

                              (2016-07-26: 誤記修正しました "setns -> nsenter") お手軽にシェルスクリプトなんかでコンテナを作る場合の強い味方といえば util-linux の unshare/nsenter コマンド iproute2 の ip netns コマンド が代表的でしょう。"ip netns" は Network Namespace 作ってコマンド実行するだけの単純なコマンドかと思ったら、中では意外に色々細かくやってくれていることがわかったのでちょっと紹介しておきます。 以下は iproute2 4.2.0 で試しています。 /var/run/netns まずよく知られているのが /var/run/netns 以下に Namespace 名のファイルを作ってくれることですね。これは、Namespace 内で動いているプロセスがなくなったら Namespace が消滅してくれ

                                ip netns コマンドが意外にきめ細やかにコンテナを作ってくれる - TenForward
                              • Linux Kernel: rtnl_mutex を長時間 ロックして刺さった状態を観察する - hibomaの日記

                                Linux Kernel で struct net_device や Routing Netlink の処理を排他制御する mutex である rtnl_mutex を任意の時間 ロックするカーネルモジュールを作成して、rtnl_mutex のロックがユーザランドのプロセスやカーネルスレッド等にどういった影響を及ぼすかを観察する ... というエントリです Linux カーネルの話や、strace, gdb, /proc/$pid/stack を使ったデバッグ方法に興味あるかた向けです 経緯 とあるサーバで動いてる大量のプロセスが rtnl_mutex をロックする箇所やそれに関連していそうな箇所で TASK_UNINTERRUPTIBLE でブロックしてしまい、障害を起こしているのに遭遇して原因を追いかけていたのでした 障害の再現が難しくて困っていたのだが、別のアプローチとして 「rtn

                                  Linux Kernel: rtnl_mutex を長時間 ロックして刺さった状態を観察する - hibomaの日記
                                • MINCSによるLinuxコンテナ実装の裏側 - Qiita

                                  これは何か MINCSのコンテナ実装の基本設計を解説する記事です。MINCSの概要については以前の記事を参照してください。 この記事では実際にMINCSのコードを見ながら、シェルスクリプトあるいはコマンドラインから最小限のコンテナ環境を作る方法を説明しています。 MINCSの基本設計 MINCS(mincコマンド)はPosixシェルスクリプト1としてコンテナを実装することを目的としていたため、基本的には特殊なコマンドを使わず、Linuxの基本コマンド(coreutilsやutil-linux)を利用して実装しています。 Linuxコンテナの基礎 Linuxコンテナとは何でしょうか? 個人的には、広義の(狭義の?)Linuxコンテナとはnamespaceを利用した空間分離のことを指すと考えています。このnamespaceは基本的にはプロセスから見えるリソースを別空間に分離する機能だと思ってく

                                    MINCSによるLinuxコンテナ実装の裏側 - Qiita
                                  • Systemd入門(5) - PrivateTmpの実装を見る - めもめも

                                    「Systemd入門(4) - serviceタイプUnitの設定ファイル」で、[Service]セクションのオプション「PrivateTmp」を紹介しました。実はこの他にも、ファイルシステムのセキュリティ保護を図るオプションがあります。今回は、これらオプションの紹介に加えて、それがどのような仕組みで実装されているのかを解説します。 参考資料 systemd for Administrators, Part VI - Changing Roots systemd for Administrators, Part XII - Securing Your Services ファイルシステム保護オプション serviceタイプのUnitについて、[Service]セクションで次のようなオプションを指定できます。(念のため、PrivateTmpも再掲しています。) オプション 説明 ReadOnl

                                      Systemd入門(5) - PrivateTmpの実装を見る - めもめも
                                    • RFC 準拠のコントローラー&プロトコルライブラリ開発の進め方 - NTT Communications Engineers' Blog

                                      イノベーションセンターの三島です。 本記事では、RFC や Internet-Draft に準拠したコントローラーやプロトコルライブラリの開発について、 NTT Com が公開中の Segment Routing (SR) 用のコントローラー、Pola PCE の開発経験を基にご紹介します。 商用機器と相互接続可能なコントローラー・プロトコルライブラリを開発してみたい方、SR をはじめとするネットワークを運用中で、機能拡張が可能なコントローラーを導入してみたい方は是非ご覧ください! 以降では、コントローラー開発手順の概要を Pola PCE の実装例を基に解説した後、プロトコルライブラリの作り方と機能追加の方法、相互接続試験と OSS へのマージまでの流れを解説します。 例として扱う Pola PCE 自体の詳細や活用例については解説しないため、詳細を知りたい方は下記の資料をご参照ください

                                        RFC 準拠のコントローラー&プロトコルライブラリ開発の進め方 - NTT Communications Engineers' Blog
                                      • ミニキャンプ愛媛でのコンテナ編を実行してみた - script day.log

                                        Outline Outline 仮想化(virutalization) ハイパーバイザ/ホスト型仮想化の違い コンテナはどんなところに使われているだろうか? コンテナのセキュリティ コンテナの実装 コンテナのメリット/デメリット メリット デメリット コンテナはどうやって実装されているのだろうか? コンテナはプロセス 自作コンテナ by Haconiwa では,まずコンテナはプロセスなのでforkするところから始めます. Namespaceを分離します cgroupを設定 Capabilityを設定 コンテナへのAttack コンテナのセキュリティ機構 Attack Surfaces スイスチーズモデル AppArmor /sys/kernel/uevent_helper /proc/sysrq-trigger AppArmorの適用 AppArmorによる保護 seccomp secco

                                          ミニキャンプ愛媛でのコンテナ編を実行してみた - script day.log
                                        • ubuntu xenialでnetnsの追加処理を40倍早くする | ten-snapon.com

                                            ubuntu xenialでnetnsの追加処理を40倍早くする | ten-snapon.com
                                          • 100台くらいスケールする“Kubernetesもどき”を自作してみた!

                                            この記事はFIXER Advent Calendar 2022 技術編 23日目の記事です こんにちは、毛利です。この記事では、最近趣味で自作し始めてしまったコンテナオーケストレーションシステム(+分散Key Value Store)の話をします。つまるところKubernetesのようなものを自作し始めた話です。 背景 要約:素のKubernetesは料金が高くなりそうだったので、趣味用に安く済むKubernetes環境が欲しかった。あと自作対象として興味がちょうどよかった。 みなさんは趣味用のサーバー等ありますでしょうか? 自分は学生時代からConoHa VPS(コンビニ支払いできるのが学生にやさしい)、最近はAzureも使っています。管理方法ですが、最初のころはサービスをホストに直置き、途中からdocker-composeを使うようになり、しばらくそれで管理していました。最近は業務でK

                                              100台くらいスケールする“Kubernetesもどき”を自作してみた!
                                            • CNCF CNI プラグイン - Qiita

                                              CNCFで管理されているプロジェクトであり、コンテナへのネットワーク接続を実現する技術としてデファクトになりつつあるCNIについて完全に理解したので解説していく。 CNI 役割 ContainerNetworkInterface(CNI)はコンテナとネットワークを接続する技術。CNIプロジェクト自体は仕様といくつかの基本的なプラグインを提供するのみで、コンテナを利用するユーザがCNI仕様にそったプラグインを自分たちで用意する。 CNI 仕様 CNIの仕様はGithubレポジトリのドキュメントにまとまっている。CNIプロジェクトはcontainernetworking配下に2つのリポジトリを持っており、cniが仕様やCNIのベースとなる基本的なコードを管理し、pluginsは基本的ないくつかのCNIプラグインを管理している。 CNI 基本的な動作原理 CNIプラグインが実行される際に、ネット

                                                CNCF CNI プラグイン - Qiita
                                              • 猫でもわかる rkt + Kubernetes - チェシャ猫の消滅定理

                                                このエントリは Kubernetes Advent Calendar 2017 の 23 日目の記事です。ちなみに昨日は takezaki さんの「GCBを利用したContinuous Delivery環境」でした。 LT で使用したスライド 先日、市ヶ谷Geek★Night #16 の 10 分 LT 枠で、CoreOS 社によるコンテナ実装 rkt とその Kubernetes 連携について発表してきました。今回のエントリはこの LT の内容を補足しつつ、実際に手を動かして rkt を試せるような構成にしてあります。 Hello, rkt! rkt は、Docker の対抗馬として CoreOS によって開発されたコンテナ管理ツールです。プロジェクトの初期は普通に Rocket という名前でコマンド名が rkt という扱いでしたが、途中からツールの名前自体が rkt に変更されました。

                                                  猫でもわかる rkt + Kubernetes - チェシャ猫の消滅定理
                                                • Deepen Understanding of CNI by reading amazon-vpc-cni-k8s

                                                  仕事で amazon EKS を運用していると、時たま network 周りのエラーに遭遇します。都度都度 on-demand に調査をしているのですが、一度全体感を抑えておいた方がいいなと感じたので amazon-vpc-cni-k8s のコードリーディングを通して k8s の network 周りの理解を深めることにしました。 CNICNI とは端的にまとめると、Container Runtime が用意する network namespace に対して network interface を ADD/DEL する操作を実装する interface です。 Container Runtime の仕様となる CRI が CNI に依存して実装されるので、具体的な Network 設計を抽象化して CRI(及びその client となる kubelet)から network resourc

                                                    Deepen Understanding of CNI by reading amazon-vpc-cni-k8s
                                                  • CRIU on Haconiwa 現状確認 - ローファイ日記

                                                    こんばんは、皆さんはチェックポイントアンドリストアでしょうか。そのようにやっていきましょう。今日はCRIUの話をします。 CRIU について プロセスのチェックポイントイメージを取り、そのイメージからプロセスを再生する技術です。LinuxではだいたいCRIUを使えばできます。もちろん、コンテナのチェックポイント・リストアにも応用できます。 TenForwardさんの記事が詳しいですので是非そちらもお読みください。 gihyo.jp 何ができるかというところが気にかかるでしょうが、TenForwardさんの記事にある通り: ライブマイグレーション 起動が遅いサービスのスピードアップ あたりが有益そうな用途でしょう。 前者は、KVMのような仮想化方式でやっているように、動的にコンテナを動かしているホストを変えたりしたい場合に使えます。例えば特定のホストにコンテナが偏ってるぞ〜みたいなパターンの

                                                      CRIU on Haconiwa 現状確認 - ローファイ日記
                                                    • Linux Network Namespace

                                                      Linux が持つネットワーク仮想化機能の話。 kernel 2.6.24 以降でサポートされる。実行にはiprouteパッケージの 3(おそらく) 以降が必要。 Fedora16, 17、Ubuntu12.04 は標準で利用可能を確認。 RHEL6系はiprouteのバージョンが低いため利用不可。 利用可否は以下のコマンドで確認可能。 # ip netns このコマンドがエラーにならなければ、利用条件を満たせている(はず 利用方法は以下 一つのホスト内で独立したネットワーク環境を作成できる。 作成したネームスペースはホストの物理環境や、他のネームスペースの干渉を受けない。 特に1ホスト上での仮想マシンのネットワーク的な分離に利用される。 ■作成方法 # ip netns add testns01 ■ネームスペースの確認 # ip netns testns01 ■ネームスペースのネットワー

                                                        Linux Network Namespace
                                                      • コマンドを叩いて遊ぶ 〜コンテナ仮想、その裏側〜 - Retrieva TECH BLOG

                                                        レトリバのCTO 武井です。 今回は過去にセミナーでお話した内容を振り返りつつ、当時いれられなかったこぼれ話や補足などを加え、ブログで紹介しようと思います。 今後、レトリバセミナーで話した内容はこのような形でブログとしても公開する予定です。 また、過去のセミナーも随時ブログ化される予定ですのでお楽しみに! YouTubeのレトリバチャンネルもぜひよろしくお願いします! 今回の過去セミナーはこちら PFIセミナーH271022 ~コマンドを叩いて遊ぶ コンテナ仮想、その裏側~ from Preferred Networks PFIセミナー2015/10/22:コマンドを叩いて遊ぶ〜コンテナ仮想、その裏側〜 「コマンドを叩いて遊ぶ 〜コンテナ仮想、その裏側〜」というタイトルで、Preferred Infrastructure時代に、PFIセミナーで話した内容です。 レトリバ創業前、3年以上前の

                                                          コマンドを叩いて遊ぶ 〜コンテナ仮想、その裏側〜 - Retrieva TECH BLOG
                                                        • Linux Bridge でタグ VLAN を使う - CUBE SUGAR CONTAINER

                                                          今回は Linux Bridge (ネットワークブリッジ) でタグ VLAN (IEEE 802.1Q) を使う方法について。 設定が足らなくてだいぶ悩んだのでメモしておく。 使った環境は次の通り。 $ cat /etc/lsb-release DISTRIB_ID=Ubuntu DISTRIB_RELEASE=18.04 DISTRIB_CODENAME=bionic DISTRIB_DESCRIPTION="Ubuntu 18.04.1 LTS" $ uname -r 4.15.0-29-generic $ ip -V ip utility, iproute2-ss180129 $ sudo apt-cache show iproute2 | grep -i version Version: 4.15.0-2ubuntu1 下準備 最初に、今回使うパッケージをインストールしておく。 $

                                                            Linux Bridge でタグ VLAN を使う - CUBE SUGAR CONTAINER
                                                          • Quantum + OVS + GRE with Devstack

                                                            複数ノードで構成する場合、Open vSwitch(OVS) 間を接続させる必要がある。 OVS間の通信については以下の解説がわかりやすい。 Trema 日記 ・Openvswitch を OpenFlow スイッチとして使う ・EtherIP を使って OpenFlow ネットワークを作る ・GRE を使って OpenFlow ネットワークを作る Quantum から OVSを使う場合、OVS間の通信にはVLAN、GREのどちらかを選択できる。今回はVLANスイッチ等を使わずに疎通できるGREを使う。 OSはUbuntu12.04で、OpenSSHのみをインストールした環境。 admin network -------+----------------------------------------+----- | | | | eth0 | 192.168.128.100 eth0 |

                                                            • LinuxのNetwork Namespaceで手元にネットワークテスト環境を作る - APC 技術ブログ

                                                              はじめに 先進サービス開発事業部の山岡です。 最近Raw Socketで通信するプログラムを書いているのですが、試しにパケットを送って他所と上手く通信できるか確認したい時に実機を使うのは大変面倒です。こういった場合にLinuxのNetwork Namespaceを使えば手軽にルーティング環境を作ることができるので手順を残したいと思います。 構築する環境 以下のようにルーター1台を挟んでサーバー同士が通信できるネットワークを作ります。ちなみにアイコンはShownet Iconをお借りしました *1。ありがとうございます。 構成図 前提条件 以下の環境で構築しました。 $ cat /etc/lsb-release DISTRIB_ID=Ubuntu DISTRIB_RELEASE=18.04 DISTRIB_CODENAME=bionic DISTRIB_DESCRIPTION="Ubuntu

                                                                LinuxのNetwork Namespaceで手元にネットワークテスト環境を作る - APC 技術ブログ
                                                              • インターンシップ体験記 〜SRv6 機能を Pola PCE に実装してみた〜 - NTT Communications Engineers' Blog

                                                                はじめに こんにちは、インターン生の 魏心宇 と申します。 2023 年 2 月 6 日から 2 週間にわたって、NTT Com の現場受け入れ型インターンシップに参加させていただきました。 普段は大学で SR (セグメントルーティング) を用いたトラフィックエンジニアリングについて研究しています。 今回のインターンシップでは「SR を用いたキャリアネットワークの開発」をテーマに、NTT Com 発の OSS である Pola PCE への SRv6 機能実装・検証に取り組みました。 この記事では、2 週間の開発体験をご紹介します! インターンシップに参加したモチベーション 私は学部 3 年の冬、NTT Com TechWorkshop 「プロのネットワークエンジニアと学ぶ!ISP ネットワークのつくりかた」 に参加したことがきっかけで、SR という斬新なネットワークアーキテクチャを知り、

                                                                  インターンシップ体験記 〜SRv6 機能を Pola PCE に実装してみた〜 - NTT Communications Engineers' Blog
                                                                • Kubernetes Networking: Behind the scenes

                                                                  One of the things I love the most about Kelsey Hightower’s Kubernetes The Hard Way guide— other than it just works (even on AWS!)—is that it keeps networking clean and simple; a perfect opportunity to understand what the role of the Container Network Interface (CNI) is for example. Having said that, Kubernetes networking is not really very intuitive, especially for newcomers… and do not forget “th

                                                                    Kubernetes Networking: Behind the scenes
                                                                  • ApacheとPHPが動くコンテナにUID/GIDの空間を動的に割り当ててhaconiwaで起動させる - 人間とウェブの未来

                                                                    hb.matsumoto-r.jp 前回の記事では、PHPが動くApacheのコンテナをhaconiwaを使って沢山起動しました。しかし、前回のコンテナは、 同じコンテナイメージがあるディレクトリを複数コンテナで共有している ホストから見てもuid/gidがapacheで全て起動している pidもホストとコンテナで共有している というように、コンテナとホストの空間が混在した状況になっていました。そこで、今回はさらに踏み込んで、よりコンテナを独立した環境にするべく、 動的にコンテナイメージのtar.gzからそれぞれの独立したコンテナ用のディレクトリを用意する 動的に各コンテナにホストのuid/gidレンジを切り出し、コンテナ内ではuid=0からレンジの数だけマッピングする 例えば100個のuidレンジ(80000 ~ 80099)をコンテナ内では(0 ~ 99)とみなせるようにする 動的にマ

                                                                      ApacheとPHPが動くコンテナにUID/GIDの空間を動的に割り当ててhaconiwaで起動させる - 人間とウェブの未来
                                                                    • ふつうのNICでハードウェアL3スイッチング; あるいはSR-IOV switchdev modeとTC hardware offloadの使用例 - yunazuno.log

                                                                      最近のNICの中にはTCハードウェアオフロード機能を持っているものがあり、これを使えばNICハードウェア上でパケット転送処理に手を加えられることは以前のエントリで簡単に紹介した。 yunazuno.hatenablog.com 今回はこれを応用し、NICハードウェア上でL3スイッチングを実現できないか検討してみる。 前置き: tcを用いたレイヤ3パケットスイッチング tcを用いたL3スイッチ動作表現の具体例 本題: SR-IOV switchdev mode + TCハードウェアオフロードによる、NICハードウェア上でのL3スイッチング SR-IOV switchdev modeでNICハードウェアの挙動を制御する SR-IOV switchdev modeの設定方法 TCでFIBをハードウェアにオフロード まとめ 前置き: tcを用いたレイヤ3パケットスイッチング L3スイッチの動作はお

                                                                        ふつうのNICでハードウェアL3スイッチング; あるいはSR-IOV switchdev modeとTC hardware offloadの使用例 - yunazuno.log
                                                                      • コンテナと人間の一ヶ月 - ローファイ日記

                                                                        ブログ、一ヶ月ぶりのようです。 @udzura です。ところでみなさんはコンテナですよね? そういう感じです。 ここ最近のアウトプットをまとめたりしておきます。先に行っておきますがどれもLinuxコンテナの話です。 6月半ばに、第11回 コンテナ型仮想化の情報交換会@大阪 にお呼びいただいて、話してきました。なぜか一時間話しました。 ct-study.connpass.com 割とこの時点での自分がHaconiwaとFastContainerでやってきたことの集大成を出せたみたいな感じで、なおかつ日本のオルタナティヴ・ロックの話ができたので良かったです。お呼びいただいた、 @TenForward さんに感謝です。 speakerdeck.com そろそろ numbergirl って名前のミドルウェアを書こうと思います。 コンテナ勉強会は、質問も前向きかつ深いものが多くて、また各社の現場のL

                                                                          コンテナと人間の一ヶ月 - ローファイ日記
                                                                        • psコマンドで表示される内容について調べた - Qiita

                                                                          psコマンドで表示される列の詳細について分かってない部分もあったので確認してみた時のメモ 参考 以下に書いてある内容について実際に確認しつつ、メモしました。 [24時間365日] サーバ/インフラを支える技術 ‾スケーラビリティ、ハイパフォーマンス、省力運用 (WEB+DB PRESS plusシリーズ) オプション指定なしで実行してみる コマンド実行時のプロセスの状況について確認できます。 以下にオプション無しで指定した場合の結果を表示します。 # デーモンでない自分が実行したプロセスを表示 $ps PID TTY TIME CMD 2536 pts/0 00:00:00 bash 6999 pts/0 00:00:00 ps 以下を表示しています。 PID->プロセスID TTY->仮想端末ファイル TIME->プロセスが実際にCPUを使った時間 CMD->プロセスの実行コマンド TT

                                                                            psコマンドで表示される内容について調べた - Qiita
                                                                          • Docker の bridge と host ネットワークについて勉強する - Qiita

                                                                            Docker の bridge と host ネットワークについて勉強する 勉強した時のメモ。 もし違っている部分などあればご指摘頂けますと幸いです。 なお、bridge で docker0 ではなく、ユーザーが定義した bridge も使えるようですが、こちらについては調査していません 参考 Docker Reference Architecture: Designing Scalable, Portable Docker Container Networks Network overview Use bridge networks Dockerのネットワークの基礎 まとめ bridge・host いずれもインターネット経由でコンテナへのアクセスが可能 bridge はホストの任意のポートをコンテナのポートにマップすることが出来る host はコンテナで expose されたポートをホス

                                                                              Docker の bridge と host ネットワークについて勉強する - Qiita
                                                                            • Rustでマルチインターフェースパケットキャプチャを実装する - 逆さまにした

                                                                              この記事は Rust Advent Calendar 2018 の3日目の記事です。 本記事では、タイトルの通り、Rustでマルチインターフェースパケットキャプチャを実装します。 今回の記事で達成したい目標は以下2点です。 Rustでネットワークプログラミングをしたい マルチインターフェースにすることでマルチスレッド対応したい どうやって低レイヤを扱うか Rustでネットワークプログラミングを行うには、libpnetが便利なので、今回はこちらを利用します。libpnetを使えるようCargo.tomlには以下を記載しておきます。 [dependencies] serde = "1.0" serde_derive = "1.0" [dependencies.pnet] version = "0.21.0" アーキテクチャ 今回実装するパケットキャプチャのアーキテクチャは以下です。 I/F1か

                                                                                Rustでマルチインターフェースパケットキャプチャを実装する - 逆さまにした
                                                                              • Intel Galileoのインプレッション - Todotaniのはやり物Log

                                                                                Blog名更新後の初エントリ(久しぶり・・)は、Intel Galileoです。昨年スイッチサイエンスさんに予約して、1月15日に無事届きました。ArduinoとLinuxの共存やIntelの組み込み(IoT)向けプロセッサQuark SoC X1000搭載など、なかなか興味深い製品で、発売即ゲットしてしまいました。 まだ、LチカとLinux環境にちょっと触った程度ですが、気がついたことを書いてみます。 パッケージ構成 本体とACアダプタ(各国対応のプラグ付き)というシンプルな構成。 量産品発売前のレビュー記事(マイナビさんとか)だと、マスコット人形・箱を開けたときのオルゴール・USBケーブル・基板スタンド用アダプタが添付とありましたが、量産版では削除されています。USBケーブルや基板スタンドは手持ち品があるので、Arduino(DIY)の精神としては余計なものは付けないほうが私的には好ま

                                                                                  Intel Galileoのインプレッション - Todotaniのはやり物Log
                                                                                • Introduction to Linux interfaces for virtual networking | Red Hat Developer

                                                                                  Linux has rich virtual networking capabilities that are used as basis for hosting VMs and containers, as well as cloud environments. In this post, I will give a brief introduction to all commonly used virtual network interface types. There is no code analysis, only a brief introduction to the interfaces and their usage on Linux. Anyone with a network background might be interested in this blog pos

                                                                                    Introduction to Linux interfaces for virtual networking | Red Hat Developer