並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 25 件 / 25件

新着順 人気順

gsutilの検索結果1 - 25 件 / 25件

  • 【エラー】gsutil TypeError: cannot pickle '_io.TextIOWrapper' object - ITips

    Python 【エラー】gsutil TypeError: cannot pickle '_io.TextIOWrapper' object コマンドラインからGoogle Cloud Storage (GCS) を操作することができる gsutil パッケージ。 GCSからファイルをコピーする際に gsutil cp コマンドを使うのだが、複数ファイルの場合直列に処理すると遅い。 そこで並列に処理するために gsutil -m cp を実行したら以下のエラーが発生した。 gsutil TypeError: cannot pickle '_io.TextIOWrapper' object 一体何が間違っているのだろうか。 今回はこの gsutil TypeError: cannot pickle '_io.TextIOWrapper' object のエラー原因と対処法について解説する。

      【エラー】gsutil TypeError: cannot pickle '_io.TextIOWrapper' object - ITips
    • gsutil cpでリストで指定したファイルをコピーする方法 - ITips

      開発者がコマンドラインからGoogle Cloud Storage (GCS) を操作できるようにした gsutil パッケージ。 複数のファイルをGCPにコピーする場合は gsutil cp コマンドを並列に処理する為に gsutil -m cp src_dir/*.txt gs://my-bucket といった感じで使う。 複数コピーは可能だが、指定したファイルのみ複数コピーするにはどうしたらよいのか。

        gsutil cpでリストで指定したファイルをコピーする方法 - ITips
      • gsutilで"argument list too long"エラーが出る原因 - ITips

        コマンドラインからGoogle Cloud Storage (GCS) を操作することができる gsutil パッケージ。 複数のファイルをGCPにコピーする場合は gsutil cp コマンドを並列に処理する為に gsutil -m cp といった感じで使う。 しかしあるとき以下のようなエラーが発生した。 Argument list too long この Argument list too long エラーは何故発生したのか。 回避する方法はあるのか。 今回はそんな問題を解決するために、「gsutilで"argument list too long"エラーが出る原因」を解説する。

          gsutilで"argument list too long"エラーが出る原因 - ITips
        • gsutilでGCSバケット内のファイル数を数える方法 - ITips

          Googleのクラウド環境上にファイルを保存できるGoogle Cloud Storage (GCS)。 GCSを使っていると、バケットのなかに保存したファイルがいくつあるのか数えたくなることがある。 しかし数が多いとブラウザ上で数えるのは大変。 そこでGCSをコマンドで操作できるようにした gsutil パッケージを利用して数える。 今回は、「gsutilでGCSバケット内のファイル数を数える方法」を解説する。

            gsutilでGCSバケット内のファイル数を数える方法 - ITips
          • VMからgsutilでオブジェクトアップロード時に 403 Insufficient Permission

            USER@HOSTNAME:~$ gsutil cp 20190329.sql.gz gs://BUCKET_NAME/sql/20190329.sql.gz Copying file://20190329.sql.gz [Content-Type=application/x-sql]... ==> NOTE: You are uploading one or more large file(s), which would run significantly faster if you enable parallel composite uploads. This feature can be enabled by editing the "parallel_composite_upload_threshold" value in your .boto configuration file

              VMからgsutilでオブジェクトアップロード時に 403 Insufficient Permission
            • GAになった gcloud storage コマンドと gsutil コマンドのサブコマンドを比較してみた

              こんにちは、クラウドエースの阿部です。 今年9/13にgcloud storageコマンドが一般公開(GA)になりました。 参考: Google Cloud release notes, September 13, 2022 オブジェクト転送速度の改善については、gcloud storageコマンドの評価版が2021年7月に公開され、下記ブログにて紹介されていました。 この記事では、GAになったgcloud storageコマンドとgsutilコマンドとの、サブコマンド差分について調査してみました。 比較したコマンドのバージョン Google Cloud CLI(gcloud): 402.0.0 gsutil: 5.13 サブコマンド比較表 gsutilとgcloud storageで、実装状況を比較してみました。 ※helpやupdateのような本質的な比較に意味の無いものも機械的に載せ

                GAになった gcloud storage コマンドと gsutil コマンドのサブコマンドを比較してみた
              • gsutilコマンド全部試したので解説する(part1)

                ※2 … help コマンドについては後ほど説明します。 gsutilの基本コマンドを解説する 今回は Linux などでも馴染みの深いコマンドと、gsutil の基本的なコマンドを合わせて下記の14個を解説します。理解を深めるために実際にコマンドを実行することをお勧めします。 help version update test ls mb rb cp rm mv rsync cat du hash help コマンド help コマンドは gsutil サブコマンドの利用方法を確認するためのコマンドです。help コマンドを使って「cp」コマンドの利用方法を確認する場合は以下のコマンドを実行します。 例1-1 「cp」コマンドの利用方法を確認するコマンド コード $ gsutil help cp NAME cp - Copy files and objects SYNOPSIS・・・(1)

                  gsutilコマンド全部試したので解説する(part1)
                • TypeError: cannot pickle '_io.TextIOWrapper' object · Issue #961 · GoogleCloudPlatform/gsutil

                  gsutil -m -h "Cache-Control: public, max-age=31536000" cp -r test/** gs://some-bucket Traceback (most recent call last): File "/usr/local/Caskroom/google-cloud-sdk/latest/google-cloud-sdk/platform/gsutil/gsutil", line 21, in <module> gsutil.RunMain() File "/usr/local/Caskroom/google-cloud-sdk/latest/google-cloud-sdk/platform/gsutil/gsutil.py", line 124, in RunMain sys.exit(gslib.__main__.main()) F

                    TypeError: cannot pickle '_io.TextIOWrapper' object · Issue #961 · GoogleCloudPlatform/gsutil
                  • gsutil で GCS から S3 にファイルを移動したい - Qiita

                    準備 サービスアカウント用意 該当するGCSにアクセスできるサービスアカウントを用意する。 鍵ファイル(JSON)を作成しダウンロード。/tmp にでも置いとく。

                      gsutil で GCS から S3 にファイルを移動したい - Qiita
                    • [GCS]よく使う gsutil コマンドメモ - Qiita

                      Google Cloud Storageを操作で使用するgsutilコマンドの一覧です。 オプションなどの詳細は公式で確認されたし! バケットを作成する - mb デフォルト設定でバケットを作成する

                        [GCS]よく使う gsutil コマンドメモ - Qiita
                      • 【GCP】gsutil コマンドで GCS を操作するときによく使うやつ - Qiita

                        Register as a new user and use Qiita more conveniently You get articles that match your needsYou can efficiently read back useful informationYou can use dark themeWhat you can do with signing up

                          【GCP】gsutil コマンドで GCS を操作するときによく使うやつ - Qiita
                        • gsutil compose で 32より多いファイルを結合したいとき - 中野智文のブログ

                          背景 gsutil compose はファイルを結合する便利コマンド。しかし32より多いファイルは結合できない。 解決策 xargs -L31 を使う。 echo -n | gsutil cp - gs://your-bucket/total.gz gsutil ls gs://your-bucket/your_file*.gz | xargs -L31 | xargs -I{} echo gsutil compose gs://your-bucket/total.gz {} gs://your-bucket/total.gz | sh ここで、your-bucket はバケット、total.gz はコピー先、your_file*.gz はコピー元を示す。 詳細 本当は xargs を一つにまとめたかったのだが、-I オプション(リプレイス)を使うと、強制的に -L31 が -L1 に変更

                            gsutil compose で 32より多いファイルを結合したいとき - 中野智文のブログ
                          • コンテナを使って gsutil で S3 のデータを GCS に同期してみる - 継続は力なり

                            タダです. S3 から GCP のストレージサービスである GCS に対してオブジェクトを同期させたいことがあり,定期実行させるし Fargate に登録して処理させることにしたのでその設定をまとめていきます. S3 から GCS への同期手法 関連記事 Fargate に登録する Dockerfile の作成 スクリプトでハマったこと まとめ S3 から GCS への同期手法 S3 から GCS への同期手法としてgsutilを使ってみました.ZOZO Technologies さんのブログでも出ていたので自分もこの記事で初めて知り,AWS CLI の s3 コマンドのようにコマンドラインで GCS へアクセスできるツールだと感じました.データの同期だけをしたいだけなのでこのツールを使おうと思い,ZOZO Technologies さん同様にrsyncコマンドでやってます. cloud.

                              コンテナを使って gsutil で S3 のデータを GCS に同期してみる - 継続は力なり
                            • gsutil cp から gcloud storage cp への移行で Permission 'storage.buckets.get' denied が発生するようになった - Qiita

                              概要 gsutil cp で GCS にファイルをアップロードする処理を gcloud storage cp に切り替えたら、一部のファイルのアップロードで Permission 'storage.buckets.get' denied が発生するようになった。 $ gcloud storage cp *.tar gs://my-bucket/ ERROR: (gcloud.storage.cp) User [my-service-account@my-project.iam.gserviceaccount.com] does not have permission to access b instance [my-bucket] (or it may not exist): my-service-account@my-project.iam.gserviceaccount.com doe

                                gsutil cp から gcloud storage cp への移行で Permission 'storage.buckets.get' denied が発生するようになった - Qiita
                              • CentOS 7のpython 2.7にgsutilを入れて動かす - Qiita

                                前提 OSデフォルトのpythonを使う 極力最小限の手間で実現出来る pyenvとか使わない システム側には手を入れず、ユーザー側だけでどうにかする 端的に表現すると sudo なしで実現可能である Dockerは使わない EPELだけはOK牧場 pip を使うため。これだけは許して gsutilでproxyが使えることが必須 これのせいで、こんな記事を書く羽目に 結論 sudo yum install python-pip pip install --user --upgrade "setuptools<45" pip install --user wheel pip install --user gsutil 何にハマったのか まず、python2でどうにかしようとした。gsutilはpython2を未だサポートしているから。しかし、単に pip install --user gsu

                                  CentOS 7のpython 2.7にgsutilを入れて動かす - Qiita
                                • Linux (Ubuntu) 環境でサービスアカウントからgsutilを利用する - Qiita

                                  Dockerfileなどのスクリプトで gsutil を実行したい時があったので。 環境変数 GOOGLE_APPLICATION_CREDENTIALS にサービスアカウントキーファイルをセットすればいいかと思いきや、それだけでは ServiceException: 401 Anonymous caller does not havestorage.objects.list access to bucket $ export CLOUD_SDK_REPO="cloud-sdk-$(lsb_release -c -s)" && \ echo "deb http://packages.cloud.google.com/apt $CLOUD_SDK_REPO main" | \ sudo tee -a /etc/apt/sources.list.d/google-cloud-sdk.list

                                    Linux (Ubuntu) 環境でサービスアカウントからgsutilを利用する - Qiita
                                  • gsutil で rsync するときに特定のファイルやディレクトリを除外したい - Qiita

                                    ここに書いてあることをそのまま書く。issueの中身を見て満足された方は読まなくてもおk。 https://github.com/GoogleCloudPlatform/gsutil/issues/771 gsutil の -x オプションに正規表現を指定することができる。 # 同期の元ディレクトリツリー tree rsync-test/ rsync-test/ ├── dirA │ └── bar.txt ├── dirB │ └── baz.txt ├── dirC │ ├── baq.txt │ └── dirCA │ └── bat.txt └── foo.txt # dirA と dirCA の文言を含むオブジェクトを除外 gsutil rsync -r -x '^.*dirA.*$|^.*dirCA.*$' rsync-test gs://rsync-test-cball Bu

                                      gsutil で rsync するときに特定のファイルやディレクトリを除外したい - Qiita
                                    • gsutil、aws s3での基本的なファイル操作(Google Cloud Storage、S3) - Qiita

                                      aws s3コマンドはS3しか操作できませんが、Google Cloud Storage(GCS)のCLIであるgsutilコマンドはGCSだけでなくS3に対しても同じように操作できます。 ファイルのアップロード(ローカルからクラウド) $ gsutil cp dir/foo.txt gs://xxx-bucket/dir/ $ gsutil cp dir/foo.txt s3://yyy-bucket/dir/ $ aws s3 cp dir/foo.txt s3://yyy-bucket/dir/

                                        gsutil、aws s3での基本的なファイル操作(Google Cloud Storage、S3) - Qiita
                                      • Google Clould Platform | gsutil コマンドを爆速にする - Qiita

                                        -m オプションを付けるとマルチスレッド/マルチプロセスで高速に処理してくれるようになる。(体感30倍ぐらい速い) オプションの位置に注意。 gsutil cp とかの後じゃなく、gsutil に直接オプションを渡すこと。 例: gsutil -m cp -r dir gs://my-bucket gsutil -m rsync -r dir gs://my-bucket gsutil -m rm -r gs://my-bucket 参考 https://cloud.google.com/storage/docs/gsutil/commands/cp チャットメンバー募集 何か質問、悩み事、相談などあればLINEオープンチャットもご利用ください。 Twitter

                                          Google Clould Platform | gsutil コマンドを爆速にする - Qiita
                                        • GKEで起動したコンテナ内からgsutilを使用してGCS(Google Cloud Storage)にアクセスする方法 - Qiita

                                          概要 GKE Cluster内のコンテナからGCSのBucket上にあるデータをダウンロードする仕組みが必要だったので、その時に行った設定を残します。 事前準備 以下の項目については、本題とは少しそれるため事前準備として記載します。 GCPアカウントのセットアップ(プロジェクトの作成) gcloudのインストール、セットアップ こちら GKEクラスターの作成 こちらのドキュメントを参考に IAM(以下の権限を付与) Kuvernetes Enginne 管理者 セットアップ サービスアカウントの作成 GCSにアクセス可能なサービスアカウントを作成し、ダウンロードします。 今回は雑に ストレージ管理者 権限をサービスアカウントに付与しました。 secretsの作成 ダウンロードしたサービスアカウントファイル(json)をkubernetesのsecretsに保管します。 secretsを作成

                                            GKEで起動したコンテナ内からgsutilを使用してGCS(Google Cloud Storage)にアクセスする方法 - Qiita
                                          • 【GCP】gsutilコマンドさわってみた - Qiita

                                            参考url 触ったコマンド gcloud config list gcloud config list で設定確認。 https://qiita.com/masaaania/items/7a83c5e44e351b4a3a2c https://selmertsx.hatenablog.com/entry/2018/11/12/gcloud%E3%82%B3%E3%83%9E%E3%83%B3%E3%83%89%E3%82%92%E5%AE%9F%E8%A1%8C%E3%81%99%E3%82%8BGCP%E3%81%AE%E3%82%A2%E3%82%AB%E3%82%A6%E3%83%B3%E3%83%88%E3%82%92%E5%88%87%E3%82%8A%E6%9B%BF%E3%81%88%E3%82%8B ストレージがあると以下のように表示される gs://******/ gsu

                                              【GCP】gsutilコマンドさわってみた - Qiita
                                            • gsutil で No command was given. って言われる件 - Qiita

                                              google-cloud-sdk の gsutil が使いたい 同じ名前のpackageが存在するらしい いつもお世話になっておりますstackoverflow 削除ッ! aptで入ってたっぽいので以下のコマンドだけで良いですね。

                                                gsutil で No command was given. って言われる件 - Qiita
                                              • GCP gsutilでCould not reach metadata serviceが出た場合の対処法 - Qiita

                                                Traceback (most recent call last): File "/usr/lib/google-cloud-sdk/platform/gsutil/third_party/apitools/apitools/base/py/credentials_lib.py", line 227, in _GceMetadataRequest response = opener.open(request) File "/usr/lib/python3.7/urllib/request.py", line 531, in open response = meth(req, response) File "/usr/lib/python3.7/urllib/request.py", line 641, in http_response 'http', request, response,

                                                  GCP gsutilでCould not reach metadata serviceが出た場合の対処法 - Qiita
                                                • gsutilコマンド一覧 - Qiita

                                                  gcloudに引き続き、GCSで使用するコマンドをまとめます。あくまで備忘録なのであしからず。 mb:バケット作成 例.gsutil mb -c [ストレージクラス] -l [ロケーション] gs://バケット名 rb:バケット削除 defacl:デフォルトオブジェクトACLに対する操作 acl:ACLに対する操作 ちなみに、 - IAM:バケット単位でのアクセス制御、「だれが」「どのリソースに対して」「どの操作を行うか」 - ACL:バケット内のオブジェクト単位でのアクセス制御

                                                    gsutilコマンド一覧 - Qiita
                                                  • GKEで起動したコンテナ内からgsutilを使用してGCS(Google Cloud Storage)にアクセスする方法 - Qiita

                                                    概要 GKE Cluster内のコンテナからGCSのBucket上にあるデータをダウンロードする仕組みが必要だったので、その時に行った設定を残します。 事前準備 以下の項目については、本題とは少しそれるため事前準備として記載します。 GCPアカウントのセットアップ(プロジェクトの作成) gcloudのインストール、セットアップ こちら GKEクラスターの作成 こちらのドキュメントを参考に IAM(以下の権限を付与) Kuvernetes Enginne 管理者 セットアップ サービスアカウントの作成 GCSにアクセス可能なサービスアカウントを作成し、ダウンロードします。 今回は雑に ストレージ管理者 権限をサービスアカウントに付与しました。 secretsの作成 ダウンロードしたサービスアカウントファイル(json)をkubernetesのsecretsに保管します。 secretsを作成

                                                      GKEで起動したコンテナ内からgsutilを使用してGCS(Google Cloud Storage)にアクセスする方法 - Qiita
                                                    1