並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 994件

新着順 人気順

rsyncの検索結果281 - 320 件 / 994件

  • [Mac] DockerでCPU使用率が異常なときの対処法

    MacでDockerを使用していると、恒常的にCPU使用率が大幅に上がり、ファンが唸り声を上げることがあります。 原因 様々な原因がありますが、当環境では、com.docker.hyperkitが数百パーセントのCPU使用率を記録していることがわかりました。 com.docker.hyperkitは、dockerのコンテナにホストのdiskをマウントする機能の一部を担っていますが、どうもこれがあまり性能上良くないらしく、そのまま使っていると、CPU使用率が上がってしまうケースがあります。特に巨大なディスクをマウントすると起こるようです。 この問題は非常に長くの間議論されています。環境により、解消法は様々なようですので、それらを紹介していきます。 環境により、様々な対処法があり、有効なものも異なるようです。実行が簡単な順に紹介していきます。 OSごと再起動してみる もしかすると、他のプロセス

    • Windows 10でRsyncを使う方法

      rsync(アールシンク)は、UNIXシステムにおいて、差分符号化を使ってデータ転送量を最小化し、遠隔地間のファイルやディレクトリの同期を行うアプリケーションソフトウェアである。 --出典:フリー百科事典『ウィキペディア(Wikipedia)』 Rsyncコマンドを使用すると、ファイルやディレクトリをディレクトリ、ディスク、またはネットワークコンピュータ間で同期することができます。 あるディレクトリから別のローカルディレクトリにファイルをコピーする、ローカルコンピュータからネットワークサーバーにファイルを同期する、またはその逆などのことをしたいため、Windows 10でRsyncを使用したいと思うかもしれません。しかし、Windows 10でRsyncは使えますか? LinuxはMicrosoftによってホストされていないので、Windows 10でLinuxコマンドを実行するには、まず

      • rsync + ssh で同期する - Qiita

        PASSWD="xxxxxx" PORT=22 sshpass -p "$PASSWD" rsync --delete -ave "ssh -p $PORT -o 'StrictHostKeyChecking no'" local_path user@target_host:remote_path PASSWD="xxxxxx" PORT=22 sshpass -p "$PASSWD" rsync --delete -ave "ssh -p $PORT -o 'StrictHostKeyChecking no'" user@target_host:remote_path local_path

          rsync + ssh で同期する - Qiita
        • WordPress のサイトをバックアップ 【Linux】 | ex1-lab

          プラグイン不要でWordPressをバックアップする WordPressを運用しているサイトのバージョンアップ依頼があり、バージョンアップにするにあたって念の為にWordPressをバックアップしました。バックアップにはプラグインを使用しないでターミナルでコマンドを利用してバックアップをおこないます。 プラグインは不要ですが、SSHでターミナル操作が必要ですので、レンサバでWordPressを運用している場合は、このバックアップ方法は難しいかと思います WordPressのバックアップには必要なのは、WordPressで利用しているデータベースとWordPressがインストールされているディレクトリとなりますので、そのDBとディレクトリをバックアップします バックアップ先は、「/var/tmp/wp_bak」にバックアップすることにします MySQL(MariaDB)のデータベースをバック

            WordPress のサイトをバックアップ 【Linux】 | ex1-lab
          • OpenBSD 6.7

            Released May 19, 2020 Copyright 1997-2020, Theo de Raadt. Artwork by Jonni Phillips. See the information on the FTP page for a list of mirror machines. Go to the pub/OpenBSD/6.7/ directory on one of the mirror sites. Have a look at the 6.7 errata page for a list of bugs and workarounds. See a detailed log of changes between the 6.6 and 6.7 releases. signify(1) pubkeys for this release: RWTLqtfkjXf

            • 令和最初の年越しと11年目の東京 - 35歳からの中二病エンジニア

              令和最初の年越しということで恒例の初詣記事を書こうかと思ったけれども、さすがに3年連続は芸が無いので別の内容を書くことにした。ネタに困っていてふと思い出したのは、西日本から東京へ越してきて丸10年が経過していたという衝撃の事実だった。 激動の10年前 東京に出てきた10年前というのは、今とは全く状況が違ったし、激動の時代だった。 まだ27歳だった 第二新卒で入って楽しくやっていた会社が潰れた(これが原因で東京へ) バージョン管理はSVN、デプロイはrsyncなヘボ技術(当時ではマシな方かも) まだ同人音楽活動をバリバリやっていた 部屋に巨大な自作PCやプリメインアンプが転がっていた 彼女いない歴=年齢でなくなった あの1年が無ければ今の自分は存在しなかっただろうと思えるくらい、濃い期間だった気がする。 とはいえ、もしあの会社が潰れずに、あるいは関連会社に拾われずに滋賀に住み続けていたとして

                令和最初の年越しと11年目の東京 - 35歳からの中二病エンジニア
              • Developing on Remote Machines using SSH and Visual Studio Code

                Version 1.88 is now available! Read about the new features and fixes from March. Remote Development using SSH The Visual Studio Code Remote - SSH extension allows you to open a remote folder on any remote machine, virtual machine, or container with a running SSH server and take full advantage of VS Code's feature set. Once connected to a server, you can interact with files and folders anywhere on

                  Developing on Remote Machines using SSH and Visual Studio Code
                • 1ベイのQNAPのディスク交換

                  我が家では1ベイのQNAP(TS-121)を 2TB HDD で使ってるんだけど空きがなくなってきたんで、4TB HDD に交換することにした。 ダメだったやつ Linux PC に新旧両方の HDD を繋いで dd if=/dev/sdb of=/dev/sdc で丸ごとコピーすればいいかと思ってやってみた。関係ないけど dd コマンドに status=progress をつけると進捗がわかることを知った。 4時間くらいで dd が終わって、gparted でパーティションを拡張しようとしたがエラー…。 テキトーにググったところ、どうも MBR パーティションテーブルでは 2TB 以上のディスクを扱えなくて GPT に変更しないといけないらしい。 Linux では gdisk コマンドでディスクを開いて書き込むと GPT に変換できる。 その後 gparted でパーティションを拡張した

                    1ベイのQNAPのディスク交換
                  • Docker Alpineコンテナを利用したSSHサーバーの構築 - Qiita

                    はじめに 最終的にはKubernetesでの利用を考えているrsyncバックアップ用のサーバーを構築するために、AlpineコンテナでSSHサーバーを稼動するテストを行ないました。 その際に、パスワード認証はできるものの、公開鍵を利用したログインができなかったため事象が発生しました。 Ubuntuベースで作成したプロトタイプを元にしていますが、Alpineに移行したのでそのDockerfileなどをメモしておくことにしました。 参考資料 https://stackoverflow.com/questions/61833713/how-to-login-by-ssh-in-alpine-linux-without-passwords コンテナの構築 Dockerファイルはだいたい次のような内容になっています。 Alpineイメージで/etc/init.d/のスクリプトを起動させるには、ope

                      Docker Alpineコンテナを利用したSSHサーバーの構築 - Qiita
                    • CentOS7をRocky Linux8にアップグレード - Qiita

                      0x1 計画と目標 CentOS 7は停止しているため、できるだけ早くRocky Linuxに更新する必要があります。この記事では、Rocky Linuxに安全にアップグレードする方法について説明します。 更新する前に、バックアップを作成してください。 メモリが1GB未満の場合は、仮想メモリを確立する必要があります。 0x2 Rescue Kernel(Black Magic)に切り替えます cd yum -y install rsync wget wget https://raw.githubusercontent.com/johnj/centos-to8-upgrade/master/to8.sh chmod +x to8.sh ./to8.sh # エラーが発生した場合、それは問題ではありません reboot ./to8.sh # remove temp file rm -Rf /t

                        CentOS7をRocky Linux8にアップグレード - Qiita
                      • APFS で rsync の差分バックアップができない場合の対処法

                        つい先日 APFS(Apple File System)でフォーマットした HDD から、HFS+ でフォーマットした HDD に rsync で差分バックアップができないことがありました。APFS は、macOS の新しいフォーマット形式なのですが、macOS で長らく使われてきた HFS+ と仕様が異なるためこのようなことが稀に発生するようです。そこで今回は、APFS から HFS+ に rsync で差分バックアップができない場合の対処法とその原因をまとめてみました。 コピー元の HDD が APFS フォーマット、コピー先の HDD が HFS+ フォーマットの場合は、iconv オプションを追加して文字エンコードを、コピー元(APFS)が「utf8」、コピー先(HFS+)が「utf8-mac」になるように指定すればOKです。

                          APFS で rsync の差分バックアップができない場合の対処法
                        • EFIでマルチブートを作ると区別できない。(全部Ubuntuで区別つかん) - それマグで!

                          EFI パーティションにデュアルブートを作りました。 EFIパーティションには、OSごとにブートを設定を書くことができます。 EFIパーティションを使うように grub をインストールする。 sudo grub-install --target=x86_64-efi 細かく指定すると grub-install --target=x86_64-efi --boot-directory=/boot --recheck /dev/sda Ubuntu とUbuntuのデュアルブートを作ると区別できない 頑張っても以下のように、同名で登録されてしまう。 takuya@spare:~$ sudo efibootmgr -v BootCurrent: 0002 Timeout: 0 seconds BootOrder: 0000,0002,0007,0008,0005,0006 Boot0000* u

                            EFIでマルチブートを作ると区別できない。(全部Ubuntuで区別つかん) - それマグで!
                          • 5分で理解するAmazon Linux 2023 - Qiita

                            Last metadata expiration check: 0:57:46 ago on Thu Mar 23 11:36:32 2023. libstoragemgmt 1.9.4-5.amzn2023.0.2 installed supported 2028-03-15 Python 3.9 (System Python)has security support until March 2028 nfs-utils 2.5.4-2.rc3.amzn2023.0.3 installed supported 2028-03-15 Python 3.9 (System Python)has security support until March 2028 python-chevron 0.13.1-1.amzn2023.0.3 installed supported 2028-03-1

                              5分で理解するAmazon Linux 2023 - Qiita
                            • CELPA (Conao3's Emacs Lisp Package Archive) をデプロイした話 | Conao3 Note

                              3-minute to read Published: May 24, 2020 Updated: May 24, 2020 IntroMELPAのレビューが遅い。 MELPAのメンテナの方には感謝してしきれないが、実際のところ、レシピ追加PRを出して2週間から3週間音沙汰ないまま放置されたり、先方のレビューを反映して修正しても、そこから2週間、3週間待たされることがままあり、ストレスを抱えていました。 私はあまりinit.elを大きくしたくなく、ある程度の大きさになるとパッケージで切りだして (leaf hoge) で簡単にアクティベートしたいと考えているため、MELPAに入れてもらえないと el-get で取ってこないといけませんでした。 ここでさらに問題があり、 el-get は package との相性が悪く、微妙な評価タイミングの違いがとても重要になります。 init.elを自分

                              • ビッグデータの新しい基盤としてHadoop上でSpark+Delta Lakeを検証してみた - GMOインターネットグループ グループ研究開発本部

                                こんにちは。次世代システム研究室のデータベース と Hadoop を担当している M.K. です。 前回データベースのテーマでPostgreSQL&Patroniを検証しましたが、今回はまたHadoop系のテーマでDelta Lakeを検証しました。 Delta LakeはDatabricks社が開発したApache Spark用のストレージレイヤーの技術です。去年オープンソース化になってまだそれほど日が経っていません。Databricks社はビッグデータを処理する技術としてとても良く使われているApache Sparkの生みの親が創業した会社ですね。 目次 何故Delta Lakeか Delta Lakeを使うSparkとHadoopの環境準備 利用技術 サーバースペック 最初Ambariを試してみた 前準備 HadoopおよびSparkの環境構築 Hadoop用ユーザー&グループ作成

                                • lsyncdからfswatchへの移行で学んだコネタたち

                                  パートタイムでお手伝いしているプロダクトで、開発用サーバーへの同期ツールが動かない、という問題がありました。解決の過程で、いくつかのちょっとした学びがあったのでまとめておきます。特に目新しいものはありませんが、狭い特定の用途では役立つかもしれません。 おしながき複数のシェルスクリプトで共通の設定値を扱うLuaスクリプトに設定値を埋め込む正規表現のデリミタ(区切り文字)を変更するfswatch で更新を監視して同期するrsync の引数 SRC には末尾スラッシュをつけるMarkdown のコードブロックに ` (バッククオート)を書く前提手元での修正を EC2 上の開発環境に同期する、という開発ワークロード初回はどかっと rsync で同期する開発中は変更があったファイルを監視し同期するlsyncd を使用いくつか課題があった設定値が複数のシェルスクリプトにハードコードされていた環境による

                                  • hacker labs · pico.sh

                                    The secret ingredient to all our services is how we let users publish content without needing to install anything. We accomplish this with the SSH tools you already have installed on your system. Want to publish a blog post? Use rsync, scp, or sftp. Want to publish a website? Use rsync, scp, or sftp. Want to share a code snippet with a colleague? Use rsync, scp, or sftp. Hopefully you see the tren

                                    • DVCとS3で共用データセットをバージョン管理

                                      ありがちな構成 これに対して、ありがちな解法は次のようなものです。 ソースコード (train.py) ソースコードはGitHub/Bitbucket/GitLabによりgitで管理することが出来ます。これは問題ありません。 ユーザのデータ (model.pt) 巨大なバイナリデータはgitで管理できないため問題です。 マシンが二台だけであれば、片方をマスターとしてrsyncを用いてなんとか管理できるでしょう。しかし環境が3つ以上になると、rsyncでの管理は非常に複雑になります。 データセット (dog_and_cat) データセットの管理は大変です。例えば上記の例では、ユーザからの要請に従いfishというデータセットをクラウドサーバにダウンロードしたとします。このデータセットはどのようにラボサーバと同期すればよいでしょうか?管理者が常時整合性を保ちながらrsyncを行うのは、手間がかか

                                      • code.jeremyevans.net - Running My Own Email Server (2021-07-29)

                                        Many people will tell you that running your own email server on the internet is crazy, and that the likely result is the email you send will end up in the recipient's spam folder if it is delivered at all. They aren't wrong, running your own email server on the internet is up there with rolling your own crypto in the list of technical things you should never do. While I'm all about defying establi

                                        • カーネルモジュール作成によるlinuxカーネル開発入門 - 第一回 hello world - 覚書

                                          はじめに 本記事の内容はUbuntu16.04でのみ確認しています。同名の電子書籍においてはUbuntu 18.04に対応しています。 本記事の目的は、linuxのカーネルモジュール(以下カーネルモジュール)というものの作成を通じてlinuxカーネル(以下カーネル)の開発に最低限必要な知識をつけることです。C言語のポインタがわかる程度の開発スキルがあれば多分読めると思います。 本記事は、過去にセキュリティ&プログラミングキャンプ2010というイベントの中のLinux開発者育成コースにおいて使用した資料を加筆、修正したものです。1つの記事に納めるのは無理がある分量なので、(不定期)連載という形式をとることにしました。 本記事に記載されているコードを実際に試すためには、仮想化機能を持つCPUを搭載したPCにインストールされたUbuntu16.04が必要です。CPUの仮想化機能を持っているどうか

                                            カーネルモジュール作成によるlinuxカーネル開発入門 - 第一回 hello world - 覚書
                                          • 2020年2月28日号 ctrlX AUTOMATIONへのUbuntu Coreとsnapの採用、Microsoft Defender ATP for LinuxのPublic Preview | gihyo.jp

                                            Ubuntu Weekly Topics 2020年2月28日号ctrlX AUTOMATIONへのUbuntu Coreとsnapの採用、Microsoft Defender ATP for LinuxのPublic Preview ctrlX AUTOMATIONへのUbuntu Coreとsnapの採用 Canonicalが、Ubuntu CoreとSnapの採用例として、Bosch Rexroth[1]の産業機械プロダクトであるctrlX AUTOMATIONに採用された旨をアナウンスしています。ctrlX AUTOMATIONはIoTと産業用機械をミックスした、『⁠スマート化された産業用機器』を実現するための各種ソリューションを提供します。 プレスリリースを読む限りでは、各種アプリケーションをUbuntu Core上で開発し、Snapでパッケージングしてデプロイするという、Ubu

                                              2020年2月28日号 ctrlX AUTOMATIONへのUbuntu Coreとsnapの採用、Microsoft Defender ATP for LinuxのPublic Preview | gihyo.jp
                                            • ソースファイルからビルド&インストール - Qiita

                                              はじめに アプリをインストールする場合、apt-get installコマンドで、リモートリポジトリからアプリをダウンロードしてインストールすることになるが、それ以外にも、ソースファイルをダウンロードして、自分の環境でコンパイルしてインストールする方法もあります。ただし、この場合は、自己責任で行って下さいという話になります。 ソースコードからコンパイルする方法について、rsyncというアプリを手本に、実際に試してみることにする。 rsyncの公式サイトはこちらです。 https://rsync.samba.org/ 環境 focal (Ubuntu 20.04) やったこと ダウンロード先ディレクトリをtmpにするために、tmpにカーソルを移動します。 wgetコマンドを使ってソースファイルをダウンロードします。拡張子はtar.gzとなっています。拡張子のtarは複数ファイルを1つのファイ

                                                ソースファイルからビルド&インストール - Qiita
                                              • WordPress+Nuxt(SSG)+GitHub Actionsでレンタルサーバーに自動デプロイする方法|ブログ|ウェブスタジオTANI

                                                (1)Nuxtでサイトを作る&GitHub Actionsのワークフローを作成し、GitHubにpushしておく(2)GitHubのSecretsで必要な情報を登録(3)WPで記事作成&更新時に、アクションフックでGitHub Actionsのワークフローを実行させる 手順に沿ってそれぞれ解説していきます。 (1)Nuxtでサイトを作る&GitHub Actionsのワークフローを作成し、GitHubにpushしておくNuxtでのサイト作りについては端折りますが、.gitのあるディレクトリで各ファイルを設置して作成を進めましょう。(リポジトリの直下に置く) ※レンタルサーバーによって海外IPアドレスからのアクセスを拒否するようになっているところがありますので、解除しておきましょう! ファイルツリー構造だとこんな感じで配置してます! 次に、GitHub Actionsのワークフローを作成しま

                                                  WordPress+Nuxt(SSG)+GitHub Actionsでレンタルサーバーに自動デプロイする方法|ブログ|ウェブスタジオTANI
                                                • Manjaro を安定運用するための4つのルール - In my mind

                                                  Arch Linux は不安定で壊れやすい、と多くのユーザーが思っています。 しかし、実際にはユーザー自身が Arch Linux を不安定にしているのです。 ↓の動画は Arch Linux を安定運用するためのコツを解説しています。 How to Make Arch Linux Stable and What NOT to Do! Arch 系である Manjaro にも通用するものがあるので共有します。 なお、動画は全編英語であり、生粋の日本人である私には大雑把にしか理解できていないことはご了承ください。 目次 毎日アップデートしてはいけない。 システムのバックアップを忘れてはいけない。 LTS カーネルを使う。 古いパッケージをインストールしない。 毎日アップデートしてはいけない。 Arch Linux が常に最新のパッケージを利用できるディストリビューションだからといって、すぐに

                                                    Manjaro を安定運用するための4つのルール - In my mind
                                                  • AWS EBSルートボリュームのサイズを縮小する方法 - 協栄情報ブログ

                                                    皆さま、こんにちは!協栄情報の陳です。 やりたいこと EBSはサイズの拡張が容易になりますが、縮小ができません。でも、課金を抑えたいという意図など、どうしてもサイズを小さくしたい場合もあります。 今回は、データ同期を利用して、EBSを30Gから10Gへ縮小します。 環境 OS:RHEL7.9 作業ステップ 同期元としてボリュームの作成 EC2を停止して、ルートボリュームからナップショット[EBS-SNAPSHOT]取得 ナップショット[EBS-SNAPSHOT]作成済みことを確認 スナップショットから同期元としてボリュームを作成 注意:ボリュームのアベイラビリティーゾーンは必ず対象EC2と一致 ボリューム[SNAPSHOT]作成済みことを確認 縮小後新ボリュームの作成 今回の縮小対象ボリュームはルートボリュームなので、新ボリュームにディスクパーティションの作成を回避するために、対象EC2と

                                                      AWS EBSルートボリュームのサイズを縮小する方法 - 協栄情報ブログ
                                                    • Cockpit (Linux サーバ管理ツール) で Kubernetes クラスタを管理する方法を検証してみた | SIOS Tech. Lab

                                                      ◆ Live配信スケジュール ◆ サイオステクノロジーでは、Microsoft MVPの武井による「わかりみの深いシリーズ」など、定期的なLive配信を行っています。 ⇒ 詳細スケジュールはこちらから ⇒ 見逃してしまった方はYoutubeチャンネルをご覧ください 【5/21開催】Azure OpenAI ServiceによるRAG実装ガイドを公開しました 生成AIを活用したユースケースで最も一番熱いと言われているRAGの実装ガイドを公開しました。そのガイドの紹介をおこなうイベントです!! https://tech-lab.connpass.com/event/315703/ 【5/27開催】事業変革を最新ソフトウェア技術で加速する「OSS利活用事例セミナー」 OSSのビジネス活用事例などを紹介します!登壇者はスカパー様やIPAなど🎤 OSSを活用した新たなビジネス創出やDX推進のヒント

                                                        Cockpit (Linux サーバ管理ツール) で Kubernetes クラスタを管理する方法を検証してみた | SIOS Tech. Lab
                                                      • 既存環境を仮想マシンに (から) 移動 - ArchWiki

                                                        この記事では Arch Linux の現在の環境を仮想環境 (QEMU, VirtualBox, VMware) に、あるいは仮想環境から移動する方法を説明します。rsync によるフルシステムバックアップ の記事が元になっています。仮想マシン (略して "VM") が使用するハードウェアは異なるので、initramfs イメージを再生成して fstab を修正する必要があります (特に SSD を使っている場合) VM から移動 仮想環境から移動するのは比較的簡単です。 共有フォルダの設定 ゲストの仮想マシンと使用しているハイパーバイザのホストに共有フォルダを設定してください。詳しくは仮想環境の wiki ページを参照してください。 ext4 パーティションが存在しない場合は、ビギナーズガイド#デバイスの確認 を参照。 Windows を使っている場合は Ext2Fsd をインストールし

                                                        • コロナ禍でサイバー攻撃が増加、日本は世界8位の危険度

                                                          Rapid7 Japan(ラピッドセブン・ジャパン)は8月3日、オンラインによる記者説明会を開催し、企業などがサーバやインフラをインターネットに公開するにあたり存在しているリスクを包括的、かつ国・業界・クラウド別に調査した「National/Industry/Cloud Exposure Report(NICER)」2020年度版の結果を発表した。調査は変化するインターネット全体のリスクをデータに基づいて分析し、インターネットに接続されたサービスにおける外部公開の方法・設定に関する弱点(サイバーエクスポージャー)の発生率と地理的分布を測定したものとなる。 世界的にコロナ禍によるリモートアクセスが増加していることを背景に、同調査ではファイル転送プロトコルのFTPやネットワークに接続された機器を遠隔操作するためのプロトコルであるTelnet、Windowsの通信プロトコルであるSMB、オープン

                                                            コロナ禍でサイバー攻撃が増加、日本は世界8位の危険度
                                                          • Linux mintシステムバックアップ方法、TimeShiftの使い方

                                                            (2019.11.07執筆) Linux mintのシステムバックアップについて解説です。 インストール済みのアプリや、パソコンの設定等を保存するための手順となります。 システムの操作や更新で不具合が起こったとき、パソコン内部のSSD換装のときに、いち早く元の状態へと復帰させるのに必要なものです。 なお、大事な個別フォルダ(自身の創作ファイルや、お気に入りの音楽やピクチャなど)はTimeShiftに含まれませんので、個別フォルダのバックアップは別途USBなどに保存しておく必要があります。ここは各自で。 用意するもの...USBメモリ16GB以上(システム保存のみ) 「TimeShift」(Linux mintのシステムバックアップ)の解説 外付けUSBでのバックアップ手順 システムの復元方法 TimeShift(Linux mintのシステムバックアップ)解説 特に難しいことは考えず、Cr

                                                              Linux mintシステムバックアップ方法、TimeShiftの使い方
                                                            • Tips on how to structure your home directory

                                                              Published on 2023-09-04. Modified on 2023-09-07. Someone wrote me an email and asked if I could share some tips on how to structure the $HOME directory, so here we go. Structuring or organizing directories is not much different from structuring or organizing other stuff and it really comes down to what makes the most sense to you - at least as long as you're only dealing with your own directories.

                                                              • 船上機器システムにおけるサイバーリスク対策検討のためのペネトレーションテスト成果報告書

                                                                2020 年 7 月 株式会社 NTT データ 株式会社 MTI ジャパン マリンユナイテッド株式会社 一般財団法人 日本海事協会 日本郵船株式会社 July 2020 船上機器システムにおけるサイバーリスク対策検討の ためのペネトレーションテスト 成果報告書 Copyright @ 2020 NTT DATA Corporation, Japan Marine United Corporation, Nippon Kaiji Kyokai, NYK Line 禁無断転載 船上機器システムにおけるサイバーリスク対策検討のための ペネトレーションテスト成果報告書 改訂履歴 No. 日付 区分 改訂内容 1 2020.7.20 新規 新規作成 目次 1 背景と目的 .................................................................

                                                                • Linux_5.7 - Linux Kernel Newbies

                                                                  Linux 5.7 was released on Sun, 31 May 2020. Summary: This release adds: support for the notion of Thermal Pressure, which lets the task scheduler to take better scheduling decisions in the face of CPU frequency changes; support for frequency invariant scheduler accounting on x86 CPUs, which makes x86 perform better with the schedutil governor; a new and better exFAT file system implementation; sup

                                                                  • GCS to S3を極力マネージドサービスで実現してみる | DevelopersIO

                                                                    はじめに データアナリティクス事業本部のkobayashiです。 Amazon S3からGoogle Cloud Storage(GCS)へオブジェクトを転送するサービスとしてはStorage Transfer Serviceを使うことでOne-timeの転送やスケジューリングで定期転送を行うことができます。 一方、GCSからS3への転送となるとフルマネージドなサービスがなかなかありません。今回極力マネージドなサービスを使ってGCSからS3へ転送する仕組みを作ってみたのでまとめます。 Storage Transfer Service  |  Google Cloud Cloud Run JobsのシェルジョブでGCSからS3へ転送する GCSからS3への転送を極力マネージドな仕組みで実現するために今回作ってみるのは以下のようなものです。 gsutilのrsyncを使ってGCSからS3への転

                                                                      GCS to S3を極力マネージドサービスで実現してみる | DevelopersIO
                                                                    • Gatsby.jsで、爆速なええ感じのブログを作るまで | kyabe.net

                                                                      こんにちは。きゃべです。 本記事は、アドベントカレンダーほぼ厚木の民の18日目の記事です。 はじめに 先日、Gatsby.jsで自前のブログを作り、Googleのブログサービス Blogger から移行しました。 BloggerからGatsby.jsを使った自前ブログに移行しました | kyabe.net タイトルの通り、ページ遷移が爆速で、カスタマイズも簡単かつ柔軟にできるブログが出来上がりました。 これからブログを始めてみたい方のために作り方を紹介していきたいと思います。 やりたいことを達成するために何度もGoogle先生のコンサルを受けたわけですが、このアドホックな検索が結構めんどくさいので、やりたいことを実現するためには何をすればよいのか、辞書的に使える記事を目指したいと思います。 ハマりどころもあったのでそちらも紹介できればと思います。 要件定義と技術選定 私にとって「ええかんじ

                                                                        Gatsby.jsで、爆速なええ感じのブログを作るまで | kyabe.net
                                                                      • gocryptfs - ArchWiki

                                                                        公式ウェブサイト より: gocryptfs は FUSE ファイルシステムとして実装されているファイルベースの暗号化を使用します。gocryptfs 内のファイルはハードディスクでは暗号化されたファイルとして保存されます。特徴: Scrypt パスワードハッシュ化、全てのファイル内容の GCM 暗号化、ディレクトリごとの IV によるファイル名の EME ワイドブロック暗号化。 機能やベンチマークなど詳しくは gocryptfs のプロジェクトホームページを見てください。他の暗号化方法はディスク暗号化#比較表や EncFS を見てください。 ノート: 認証付き暗号 の設計目標を満たすために gocryptfs は AES-EME 暗号化モードを実装しています。(ファイル名の場合、コンテンツは標準ライブラリを使用して暗号化されます) このモードはまだ広く使用/監査されているわけではありませ

                                                                        • lsyncd 2.1で特定のファイルのみを同期させる | NO MORE! 車輪の再発明

                                                                          バージョン2.1ではrsyncOpsが廃止された lsyncd 2.0系では、rsyncOpsオプションの–exclude-fromを上手く使うことで、ディレクトリ単位ではなく、特定のファイルのみを同期させることができました。 しかし、このrsyncOpsオプションはlsyncd 2.1で廃止され、代わりにrsyncオプションに名前を変えました。 そのため、従来のrsyncOpsを設定するとlsyncdを起動できず、systemctlのstatusを確認すると以下のようなエラーが表示されます。 $ sudo systemctl status lsyncd ... 3月 09 03:44:11 Virtual-Machine systemd[1]: Starting LSB: lsyncd daemon init script... 3月 09 03:44:11 Virtual-Machin

                                                                            lsyncd 2.1で特定のファイルのみを同期させる | NO MORE! 車輪の再発明
                                                                          • ISUCON10 やらかしリスト | 6715.jp

                                                                            ISUCON10お疲れさまでした。運営の皆さん、ありがとうございました。 ボク、@sekai67はNaruseJunチームの一員として出場しました。結果はこう。 予選では、本選出場圏内の点数を取って余裕をカマしていましたが、追試をパスできずに予選落ち。本選では、本選ライブの企画で、並行チームとして問題に取り組ませてもらう。競技中最高得点 52567 を記録するものの、追試をパスできず記録なし。伝統芸能これは記念写真です。 まあ追試で落ちてるんですけどね! 参加記はチームメイトの@to_hutohuと@takashi_trapが書いてくれると信じて、ボクはちょっとしたこぼれ話を書いていきます。 予選、本選どちらにおいても、思い返すとまあいろいろやらかしたんですが、今回は興味深かった2つを抜粋して掘り下げます。 予選時、再起動試験を5回ぐらいして、追試落ちは絶対ない状態まで持っていったのに無事

                                                                              ISUCON10 やらかしリスト | 6715.jp
                                                                            • NAS lxcdebian10 と VC 2019 - IwaoDev

                                                                              ASUSTOR NAS 上の Debian と VC 2019 を使用してのビルドとデバッグ. VC で次の様なエラーになっている. lxcdebian10 にツールがありません: gdb rsync zip 次の所にある様に必要なものをインストール. Linux development with C++ in Visual Studio 丁度 1 年前にやっていた みたいで,その時より 安定したか?

                                                                              • [macOS] HFS+からAPFSへコピーのついでにファイル名のNFDをNFCにする

                                                                                macOSでHDDに用いられている旧来のファイルシステムHFS+はUnicodeの正規化が他のOSと違いNFD(に手を加えたもの)になっています.このため ばぱ のようなファイル名が は゛は゜ のようになってしまいます. SSDに使われている新しいファイルシステムAPFSになってこの制限が撤廃されましたがcpやrsyncでHFS+からAPFSにコピーしたときファイル名は変換されずNFDのままになっています. $ /usr/bin/rsync -av from_dir/ to_dir/ これを解決するためにHomebrewでrsyncをインストールします. $ brew install rsync /usr/local/bin/rsyncに--iconvオプションを追加します. $ /usr/local/bin/rsync -av --iconv=UTF8-MAC,UTF-8 from_di

                                                                                  [macOS] HFS+からAPFSへコピーのついでにファイル名のNFDをNFCにする
                                                                                • #StopRansomware Guide | CISA

                                                                                  Official websites use .gov A .gov website belongs to an official government organization in the United States. Secure .gov websites use HTTPS A lock (A locked padlock) or https:// means you’ve safely connected to the .gov website. Share sensitive information only on official, secure websites. Ransomware is a form of malware designed to encrypt files on a device, rendering them and the systems that