並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 6 件 / 6件

新着順 人気順

python subprocess stdin from fileの検索結果1 - 6 件 / 6件

  • シェルスクリプトとの対比で理解するPythonのsubprocess - 朝日ネット 技術者ブログ

    はじめに 開発部の ikasat です。 皆さんは git, ssh, rsync のような外部コマンドを呼び出すスクリプトを書きたくなったことはありますか? 個人的にこの類のスクリプトは最初はシェルスクリプトとして書くのですが、改修を重ねるうちに肥大化して処理も複雑になり、 後から Python のような汎用プログラミング言語で書き直すことがよくあります。 外部コマンド呼び出しを書き直す際に、Git 操作のために pygit2、 SSH 接続のために paramiko のようなライブラリをわざわざ使うのは大がかりだったり、 rsync に相当するようなこなれたライブラリが存在しなかったりする場合があります。 そのような時は標準ライブラリの subprocess モジュールを利用し、Python から外部コマンドを呼び出すことになるでしょう。 しかしながら、Python のチュートリアルペ

      シェルスクリプトとの対比で理解するPythonのsubprocess - 朝日ネット 技術者ブログ
    • Vim9 script for Python Developers · GitHub

      vim9script4pythondevelopers.md Vim9 script for Python Developers Vim9 script�Vim script��������������������������������������������������系��� def������義����������Vim script��vim9script�����使����������(vim9script���

        Vim9 script for Python Developers · GitHub
      • はじめての自然言語処理 Transformer 系モデルの推論高速化の検証 | オブジェクトの広場

        今回は Transformer 系のモデル、具体的には BERT, T5, GPT の推論を高速化してみます。高速化手法として FasterTransformer, Torch-TensorRT, AWS Neuron を用い、素 の transfomers に比べ、どの程度速くなるか(ならないか)、利点・欠点を確認してみましょう。 1. はじめに 今回は Transformer 系のモデル、具体的には BERT, T5, GPT の推論を様々な技術を使って高速化してみます。 高速化の元ネタは Hugging Face の transformers1 縛りとして、素の transformers で推論する場合に比べ、 どの程度速くなるか(ならないか)見てみましょう。 推論を高速化する技術としては FasterTransfomer2, Torch-TensorRT3, AWS Neuron(

          はじめての自然言語処理 Transformer 系モデルの推論高速化の検証 | オブジェクトの広場
        • Secure Node.js Applications from Supply Chain Attacks

          This isn’t another AI-generated blog post about generic security practices. It contains detailed instructions on protecting Node.js applications from supply-chain attacks and describes best practices for security in any programming language. According to the GitHub report, The state of open source and rise of AI in 2023, JavaScript and TypeScript are the #1 and #3 most popular languages hosted on

            Secure Node.js Applications from Supply Chain Attacks
          • Terraformで構築する機械学習ワークロード(Lambda編) | DevelopersIO

            こんちには。 データアナリティクス事業本部 インテグレーション部 機械学習チームの中村です。 今回は「Terraformで構築する機械学習ワークロード」ということで、Lambdaを使って物体検出モデルの1つであるYOLOXの推論環境を構築していこうと思います。 構成イメージ 構成としては以下のようなものを作成していきます。 物体検出はLambda上でコンテナイメージを動かすことで実現します。 このコンテナイメージ内にMMDetectionというフレームワークをインストールしておき、その中で物体検出モデルの一つであるYOLOXを動かしていきます。 MMDetectionの説明については少しコードが古い部分もありますが、以下が参考となります。 動作環境 Docker、Terraformはインストール済みとします。 Terraformを実行する際のAWSリソースへの権限は、aws-vaultで環

              Terraformで構築する機械学習ワークロード(Lambda編) | DevelopersIO
            • 500 Python Interpreters

              🐍 No Steppy On Threads 🐍August 19, 202417 minutes As we approach the final release date for Python 3.13, I’ve seen an uptick in discussion regarding 3.13’s introduction of an optional GIL. While removing the GIL has been a long time coming for the average user (I’ve dreamt of this for nearly 20 years), there have actually been two concurrent efforts to improve Python’s performance for multithrea

                500 Python Interpreters
              1