エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Cloud Datalabに大きなデータをアップロードする方法 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Cloud Datalabに大きなデータをアップロードする方法 - Qiita
Cloud Datalab1は、ブラウザでpythonが実行できる便利な環境ですが、大きなデータをアップロードできな... Cloud Datalab1は、ブラウザでpythonが実行できる便利な環境ですが、大きなデータをアップロードできない問題があります。 検証用の大きなデータをアップロードしようとしても無反応で、裏側で何が起きているのかわかりません。 アップロードする方法はいくつかあるようですが、今回は gcloud コマンドを使用する方法について。 前提 すでにローカルで動作する jupyter のプロジェクトがある → BigQueryやCloud Storageからデータを取得するコードに書き換えるのは手間…… DatalabのWebコンソールではアップロードできない大きなファイルがある gcloud コマンド の scp を使用し、Datalabインスタンスに直接投げます。 (これが良い方法かどうかは不明です、Datalabのドキュメントにはこのような方法は書いていなかった。気がする。) アップロー