並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 96件

新着順 人気順

tensorflow install cudaの検索結果1 - 40 件 / 96件

  • DirectX ❤ Linux - DirectX Developer Blog

    DirectX is coming to the Windows Subsystem for Linux At //build 2020 we announced that GPU hardware acceleration is coming to the Windows Subsystem for Linux 2 (WSL 2). What is WSL? WSL is an environment in which users can run their Linux applications from the comfort of their Windows PC. If you are a developer working on containerized workload that will be deployed in the cloud inside of Linux co

      DirectX ❤ Linux - DirectX Developer Blog
    • 待ってました CUDA on WSL 2 - Qiita

      最新情報 (2022-06-15 時点) エヌビディアの佐々木です。 2020 年 6 月にこの記事を書いて以来、Windows Insider Preview や NVIDIA ドライバの新しいビルドが出たタイミングなどで記事を更新してきましたが、あちこちに注釈が増えて読みづらくなってきたので、今後はこの「最新情報」セクションに新しい情報を集約しようと思います。あと、更新履歴は記事末尾へ送りました。 私が動作を確認したバージョン Windows のビルド: 22621.1 (Windows 11 バージョン 22H2) NVIDIA ドライバ: 512.95 nvidia-smi コマンドの GPU-Util 欄が "N/A" になってしまう問題は解決! 実行した NGC コンテナイメージ nvcr.io/nvidia/tensorflow:22.05-tf2-py3 Docker De

        待ってました CUDA on WSL 2 - Qiita
      • 1BitLLMの実力を見る|shi3z

        1BitLLMは本当に実現可能なのか?そして、実現されると予告されていることに意味はあるのか? ようやく再現実装に成功した人が現れたので僕も試してみた。 ちなみに1Bit(1.58bit) LLMについての考察はこのページが面白いので一読をお勧めする。 ただし、普通のHuggingFaceのお作法とはかなり違うので注意が必要。 まず、このHuggingFaceリポジトリを丸ごとgit cloneする $ git lfs install $ git clone https://huggingface.co/1bitLLM/bitnet_b1_58-3B $ cd bitnet_b1_58-3Bこれをやらずにいつもの凡例みたいにいきなりpipelineに読み込もうとすると謎のエラーが出て悩まされることになる。海外でも悩んでる人が何人もいるみたいだ。まあ個人的には「こんな説明で誰がわかる?」と思

          1BitLLMの実力を見る|shi3z
        • WSL2 のインストール,WSL2 上への Ubuntu のインストールと利用(Windows 11 対応の記事)(Windows 上)

          【概要】 WSL 2のインストールとUbuntuの利用手順を解説する.まず、Windowsの機能の有効化から始める.WSL 2 のインストールが終わったら,管理者としてコマンドプロンプトを実行し、「wsl --list --online」コマンドでWSLの一覧を取得できる.「wsl --update」コマンドを実行してWSLを更新できる.Ubuntu 22.04 のインストールは、「wsl --install -d Ubuntu-22.04」コマンドである.インストール時にユーザ名とパスワードの設定が求められる.CUDA ToolkitやcuDNN、PyTorch、TensorFlowのインストールや動作確認、Ubuntu上でのセットアップ手順やアプリケーションのインストール方法については別のページで詳しく説明している.以上がWSL 2のインストールとUbuntuの利用手順の概要である.

          • Linux GUIアプリがWindows 10にもたらす価値 - 阿久津良和のWindows Weekly Report

            レポート Linux GUIアプリがWindows 10にもたらす価値 - 阿久津良和のWindows Weekly Report Windows 10 バージョン2004は、ファイルI/Oのパフォーマンスを改善し、Linuxカーネルの機能を呼び出すシステムコールの互換性を大きく高めたWSL 2(Windows Subsystem for Linux 2)を搭載する。Docker DesktopのホストもHyper-V仮想マシンからWSL 2へ移行したことで、Windows 10 Homeエディションでも開発環境を整えることが可能になった。 Docker Desktopの設定画面。Dockerと統合するLinuxディストリビューションを選択できる WSL 2で動作するDebian GNU/Linuxでhello-worldコンテナを実行した状態 Windows 10とLinuxを併用する環

              Linux GUIアプリがWindows 10にもたらす価値 - 阿久津良和のWindows Weekly Report
            • Kubeflow Pipelinesで日本語テキスト分類の実験管理 - やむやむもやむなし

              機械学習ワークフロー管理ツールであるKubeflowのPipelines機能を使って日本語テキスト分類の実験管理を行います。 この記事ではKubeflowのチュートリアルに従ってKubeflowのクラスタを構築してPipelinesを動かし、最後に日本語のデータセットをKubeflow Pipelinesに実際に乗せて機械学習のワークフロー管理を行うところまでまとめていきます。 Kubeflow Kubeflowとは Pipelinesとは GKEでKubeflowクラスタの構築 クラスタ構築 Workload Identityの設定 Pipelinesの基本的な使い方 Pipeline/Experiment/Run PipelineとComponent PipelineとDSL 実験管理としてのKubeflow Pipelines 日本語テキスト分類 with Pipelines Pip

                Kubeflow Pipelinesで日本語テキスト分類の実験管理 - やむやむもやむなし
              • The Windows Subsystem for Linux BUILD 2020 Summary

                This year at an all virtual BUILD conference we had many exciting announcements for the Windows Subsystem for Linux (WSL)! This blog post gives you a summary of all the WSL news, including what’s available now and what you can expect in the future. WSL’s BUILD news at a glance Available this month Support for WSL 2 distros is coming this month in the Windows 10 May 2020 Update Docker Desktop relea

                  The Windows Subsystem for Linux BUILD 2020 Summary
                • 日本語BERTモデルをPyTorch用に変換してfine-tuningする with torchtext & pytorch-lightning - radiology-nlp’s blog

                  TL;DR ①TensorFlow版訓練済みモデルをPyTorch用に変換した (→方法だけ読みたい方はこちら) ②①をスムーズに使うための torchtext.data.Dataset を設計した ③PyTorch-Lightningを使ってコードを短くした はじめに 日本語Wikipediaで事前学習されたBERTモデルとしては, 以下の2つが有名であり, 広く普及しています: SentencePieceベースのモデル (Yohei Kikuta さん提供) TensorFlow版 Juman++ベースのモデル (京大黒橋研提供) TensorFlow版 PyTorch版(Hugging Face transformers準拠) このうち, SentencePieceベースのものは現在TensorFlow版のみの提供となっており, PyTorch版は存在しません。 そのため, 私のよう

                    日本語BERTモデルをPyTorch用に変換してfine-tuningする with torchtext & pytorch-lightning - radiology-nlp’s blog
                  • fast.ai - Mojo may be the biggest programming language advance in decades

                    I remember the first time I used the v1.0 of Visual Basic. Back then, it was a program for DOS. Before it, writing programs was extremely complex and I’d never managed to make much progress beyond the most basic toy applications. But with VB, I drew a button on the screen, typed in a single line of code that I wanted to run when that button was clicked, and I had a complete application I could now

                      fast.ai - Mojo may be the biggest programming language advance in decades
                    • 実写をアニメ風に変換してくれるAnimeGANやーる(Windows10、Python3.6) - Qiita

                      はじめに 実写をアニメ風に変換してくれるAnimeGANをやってみました。 システム環境 Windows10(RTX2080 Max-Q、i7-8750H、RAM16GB) Anaconda 2020.02 Python 3.6 CUDA 9.0 導入 AnimeGANをクローンします。 animegan用の環境を作成します。 $ conda create -n animegan python=3.6 $ conda activate animegan $ pip install tensorflow-gpu==1.8.0 $ pip install tqdm $ pip install scipy $ pip install opencv-python $ cd AnimeGAN-master AnimeGAN-masterにdatasetを置きます。 Haoyao-styleの中身をc

                        実写をアニメ風に変換してくれるAnimeGANやーる(Windows10、Python3.6) - Qiita
                      • GCPでのディープラーニング学習環境構築方法 - Qiita

                        GCP(Google Cloud Platform)でディープラーニング学習環境構築方法 背景 ようやくDockerでのディープラーニングGPU学習環境構築に成功した @karaage0703 。疲れを癒す間も無く、ディープラーニングの帝王Google社のデベロッパーアドボケイトから、新たなる天啓がくだる。 度々からあげさんの記事を引用して恐縮ですが、もしGCPを使う場合は、このあたりをまるっとイメージにまとめたDeep Learning Containersってのもあります。ポチるだけでCUDA/TF/Jupyter/その他全部入りのコンテナをGKEで動かせます。 #gcpjahttps://t.co/tszxsK6sichttps://t.co/VMo9OHBjUp — Kazunori Sato (@kazunori_279) August 7, 2020 CUDAドライバ周り、誰し

                          GCPでのディープラーニング学習環境構築方法 - Qiita
                        • Jetson Nanoで動く深層強化学習を使ったラジコン向け自動運転ソフトウェアの紹介 - masato-ka's diary

                          この記事について 深層強化学習を利用してAI RC Carの走行を学習させるソフトウェアをGithub上で公開しています。learnign_racerと命名しました。2020年4月29日の時点でのバージョンはv1.0.0です。この記事ではこのソフトウェアについて紹介していきます。 github.com なお、NVIDIAのJetson Community Projectsのページでも紹介されています。 developer.nvidia.com learning_racerの概要 このソフトウェアは10分から15分程度の学習時間で、コースに沿って走行する方法を獲得することができます。従来のAI RC Carでは人間のお手本操作をDNNに覚えこませる手法が一般的です1。ですが、本手法は教師なし学習の手法である強化学習をベースとしているため、教師データとなる人間のお手本操作は必要ありません。さら

                            Jetson Nanoで動く深層強化学習を使ったラジコン向け自動運転ソフトウェアの紹介 - masato-ka's diary
                          • GPT-neoxの学習用にマルチノード並列学習環境を整えた with DeepSpeed - ABEJA Tech Blog

                            1. はじめに 2. 並列学習環境を調べる 並列学習方法を調べる ネットワーク、コンピューティング周りを調べる 3. インフラ環境を構築する コンパクトプレースメントポリシーの作成 Compute Engine を起動する (Fast Socket と gVNIC を利用する) 4. まずはシングルノードで動かす 5. 次はマルチ環境で動かす w/ Docker リポジトリをクローン ssh/config を作成 authorized_keys を作成 hostfile を作成 Docker を build 6. つまずいたポイント 学習途中に出力したファイルを再利用するのでNFSが必要に NFSのリージョンを間違えて速度が出なかった 大量のGPUの調達はリソースを確保できないかもしれないので要サポート確認 コンパクトプレースメントポリシーは邪魔になりそうだった 7. 結果 8. まとめ

                              GPT-neoxの学習用にマルチノード並列学習環境を整えた with DeepSpeed - ABEJA Tech Blog
                            • Google Cloud Batchを使ってバッチの処理待ち時間を1/30以下にしたので紹介させて欲しい - DeLMO(identify)エンジニアブログ

                              この記事について 今回、Google CloudのBatchを利用した動画変換処理を実装したので、どのようにしたのか、どこにハマったのか(ハマっているのか)、その効果についてまとめました。端的に現状を3行でまとめると、以下のようになります。 動画変換処理にGoogle CloudのBatchを使いました GPUを利用することで処理時間を短くできました コンテナでGPUをうまく使えずシェルスクリプトとGoで作ったバイナリを活用しています(コンテナ化の知見募集中です) はじめに はじめまして。identify株式会社 CTOの@suthioです。 弊社、identify株式会社では動画素材サービスDeLMOの運営を行っています。 service.delm0.jp 簡単に言うと、動画素材を提供するサービスとなります。 課題 弊社ではGoogle Cloud Platformをインフラとして利用し

                                Google Cloud Batchを使ってバッチの処理待ち時間を1/30以下にしたので紹介させて欲しい - DeLMO(identify)エンジニアブログ
                              • NVIDIA DockerイメージのGPGキー更新に関する備忘録 - OPTiM TECH BLOG

                                R&D チームの徳田(@dakuton)です。 今年のGWあたりにCUDAのGPG更新アナウンス(NVIDIA Technical Blog: Updating the CUDA Linux GPG Repository Key)がありました。記載に従い利用環境の反映作業をしてみたところ、特にDockerイメージ向けの反映については記事に触れられていない範囲でのハマリポイントがいくつかあることがわかったため、対策についてまとめておきます。 参考(GitHub issue) NVIDIA/nvidia-docker(Public GPG key error #1631) 影響を受けているプロジェクト例 TensorFlow (Tensorflow docker image has outdated keys #56085) TorchServe (Improvements to docker

                                  NVIDIA DockerイメージのGPGキー更新に関する備忘録 - OPTiM TECH BLOG
                                • GCPでできるだけ安くディープラーニング

                                  私は仕事でも趣味でもディープラーニングをしています。趣味ではいつもGoogle Colaboratoryを使ってお金をかけずにディープラーニングしていたのですが、Colabは1日12時間ほどしかGPUを使えず、しかも頻繁に学習タスクを回していると弱いGPUしか利用できなくなるので、進捗があまりよくありませんでした。そこで、お金を使って進捗を出すことを考えました。 Google Cloud Platform(GCP)なら、ちょっと弱めのGPU(Tesla T4)を1時間あたり約12円で借りられます。これならまあ趣味の予算で可能だと感じたので実際にやってみたのですが、GCPは思った以上に複雑で、わかりづらい点が多くありました。そこでこのブログでは、GCPに登録するところから、1コマンドでディープラーニングできる環境を構築するまでの方法を紹介します。 手順Google Cloud Platfor

                                    GCPでできるだけ安くディープラーニング
                                  • CUDA on WSL

                                    » 1. NVIDIA GPU Accelerated Computing on WSL 2 v12.4 | PDF | Archive CUDA on WSL User Guide The guide for using NVIDIA CUDA on Windows Subsystem for Linux. 1. NVIDIA GPU Accelerated Computing on WSL 2 WSL or Windows Subsystem for Linux is a Windows feature that enables users to run native Linux applications, containers and command-line tools directly on Windows 11 and later OS builds. CUDA suppor

                                    • Get Started with TensorFlow Transform  |  TFX

                                      This guide introduces the basic concepts of tf.Transform and how to use them. It will: Define a preprocessing function, a logical description of the pipeline that transforms the raw data into the data used to train a machine learning model. Show the Apache Beam implementation used to transform data by converting the preprocessing function into a Beam pipeline. Show additional usage examples. Setup

                                        Get Started with TensorFlow Transform  |  TFX
                                      • ONNX 2020 - OPTiM TECH BLOG

                                        R&D チームの奥村(@izariuo440)です。相変わらず深層学習モデルの推論に取り組んでいます。深層学習モデルの推論器として二年前に ONNX Runtime を軽くレビューしましたが、当時と比較するとかなり進歩しており、ONNX Runtime だけでなく ONNX 自体や関連ソフトウェアも成熟が進んでいるので、備忘録として私がお世話になっているものをかいつまんで紹介します。 OPTiM TECH BLOG Advent Calendar 2020 12/18 の記事です。 ONNX や ONNX Runtime は二年前の記事で少し解説しています。必要に応じてご参照ください。 tech-blog.optim.co.jp ONNX チュートリアル ONNX Model Zoo オプティマイザ その他 ONNX 関連のソフトウェア ONNX Runtime onnx-tensorrt

                                          ONNX 2020 - OPTiM TECH BLOG
                                        • Databricks Container ServiceでTensorRT-LLMを動かしてみた - NTT Communications Engineers' Blog

                                          本記事ではDatabricksのDatabricks Container Serviceを用いてNVIDIA社の推論ライブラリであるTensorRT-LLMを実行可能なNotebook環境を構築する方法を紹介します。 目次 目次 はじめに Databricks Container Service NVIDIA TensorRT-LLM 解決したいこと TensorRT-LLM Container Imageの作成 Databricks Containers ベースイメージの変更 Pytorch バージョンの変更 TensorRT-LLMのインストール 動作確認 Databricks環境設定 TensorRT-LLMのインポート Llama2 HF-7b-instruct モデルの変換 TensorRT-LLMの呼び出し まとめ 参考文献 はじめに こんにちは、NTTコミュニケーションズの露

                                            Databricks Container ServiceでTensorRT-LLMを動かしてみた - NTT Communications Engineers' Blog
                                          • RにTorchとLightGBMがやってきた - 渋谷駅前で働くデータサイエンティストのブログ

                                            これまで、RとPythonは両方使える人が少なくないながらも開発陣やコミュニティの思想が違うせいもあってか、「Rは統計学向け」「Pythonは機械学習向け」的な住み分けが年々進み、特に機械学習関連の重要なフレームワーク・ライブラリ類はPython向けのみがリリースされることが多く、R向けにはリリースされないということが常態化している印象がありました。 そんな中、この9月にPythonの機械学習OSSを代表する2つのライブラリが相次いでR版パッケージを発表したので、個人的にはなかなか驚きました。中には「この2つがRに来たからにはもうPythonは触らない」と豪語する過激派の方もいらっしゃるようですが(笑)、それはさておき個人的な備忘録としてこの2つのR版パッケージを試してみた記録を記事として残しておこうと思います。 なお、以下のモデリングはほぼ何もチューニングを行っておりません。あくまでも「

                                              RにTorchとLightGBMがやってきた - 渋谷駅前で働くデータサイエンティストのブログ
                                            • ナカシャクリエイテブ株式会社

                                              機械学習・AI【物体検出】vol.1 :Windowsでディープラーニング!Darknet YOLOv3(AlexeyAB Darknet) 最速の物体検知手法:YOLOv3 ディープラーニングの物体検出において、大きなインパクトをもって登場したdarknet YOLO(ヨロ)。 2018年3月にJoseph Chet Redmonの本家darknet(https://pjreddie.com/)で、最新のYOLOv3が公開されました。 既存の物体認識、検出系の仕組みのトップレベルの認識率を維持したままで、既存の仕組みと比較して3倍から5倍の認識速度を実現しました。 ジョセフ・レドモン(プログラマー)氏について アメリカ、ワシントン大学大学院に在籍中。オープンソースの物体検出システム YOLO (You Only Look Once)に取り組んでいる。 物体検出システムの分野はここ数年、様

                                                ナカシャクリエイテブ株式会社
                                              • 大規模言語モデルをシングルGPUで動かせる!? FlexGenを触ってみた | DevelopersIO

                                                こんちには。 データアナリティクス事業本部 インテグレーション部 機械学習チームの中村です。 今回は大規模言語モデルをシングルGPUで動かせるという噂のFlexGenについて使ってみて紹介したいと思います。 FlexGenとは FlexGenは、大規模言語モデル(LLM: Large Language Model)をシングルGPU(例えば、16GBのT4や24GBのRTX3090)で実行可能な高スループットな生成エンジンです。 以下がGitHubになります。 FlexGenは、Meta社が開発したOPT(Open Pre-trained Transformer)を動かすことができ、実際にAIアシスタントと会話することができます。 参考までにOPTに関する論文は以下です。 使用環境 Google ColaboratoryのPro環境を使います。モデルのアーキテクチャによって動作させるスペック

                                                  大規模言語モデルをシングルGPUで動かせる!? FlexGenを触ってみた | DevelopersIO
                                                • 社内GPU機の構成をItamaeで管理するようにしたことと、その反省点について - BANK tech blog

                                                  ⚠️⚠️ 注意 ⚠️⚠️ この記事の内容は2019年6月における弊社の状況についてまとめたものになります。内容を参考にする場合は注意してください。 こんにちは。機械学習についてはド素人のうなすけです。何もわかりません。この記事では、機械学習に使用しているGPU搭載社内PCにItamae recipeを用意した話をします。 不調になったGPU機 弊社には、TITAN Vを2枚積んだマシン(以下GPU機)があります。データ解析チームはそのマシンを利用して機械学習を行い、様々なモデルを作成してCASHやTRAVEL Nowのサービス改善に貢献しています。 ところがある日から、GPU機で学習を進めているうちに突然電源が落ちたり、そもそも起動しないということが頻繁に発生するようになってしまいました。 URLはマザーボードの製品ページです 起動すらまともにしなくなった様子 このGPU機はBTOとして購

                                                    社内GPU機の構成をItamaeで管理するようにしたことと、その反省点について - BANK tech blog
                                                  • Fast and Portable Llama2 Inference on the Heterogeneous Edge

                                                    Fast and Portable Llama2 Inference on the Heterogeneous Edge • 12 minutes to read The Rust+Wasm stack provides a strong alternative to Python in AI inference. Compared with Python, Rust+Wasm apps could be 1/100 of the size, 100x the speed, and most importantly securely run everywhere at full hardware acceleration without any change to the binary code. Rust is the language of AGI. We created a very

                                                      Fast and Portable Llama2 Inference on the Heterogeneous Edge
                                                    • [Latent Diffusion] AIでテキストから画像を生成する

                                                      初めに、論文発表元のGithubからソースコードを取得します %cd /content !git clone https://github.com/CompVis/latent-diffusion.git 次にライブラリをインストールします。 %cd /content !git clone https://github.com/CompVis/taming-transformers !pip install -e ./taming-transformers !pip install omegaconf>=2.0.0 pytorch-lightning>=1.0.8 torch-fidelity einops import sys sys.path.append(".") sys.path.append('./taming-transformers') from taming.models

                                                        [Latent Diffusion] AIでテキストから画像を生成する
                                                      • はじめての自然言語処理 Fusion-In-Decoder でクイズに答えるモデルを作る | オブジェクトの広場

                                                        今回は Fusion-In-Decoder を使ってクイズに答えるモデルを作ります。以前から Wikipedia 等の外部情報を参照できるテキスト生成モデルを試してみたいと思っていました。Fusion-In-Decoder の発表は 2020 年なので少し前のモデルですが、T5 ベースで手軽に試せるサイズ感ですので、日本語で試してみましょう。 1. はじめに 今回紹介する Fusion-In-Decoder(以下、FiD )1 は Meta AI (当時は Facebook AI Research) が発表した Open Domain question Answering タスクを解くテキスト生成モデルです。 じつは、以前から外部情報を参照できるテキスト生成モデルを試してみたくて2、 Google の RETRO3 の論文を読んでたんです。 なのですが、外部情報のサイズ感が 1000 B

                                                          はじめての自然言語処理 Fusion-In-Decoder でクイズに答えるモデルを作る | オブジェクトの広場
                                                        • Announcing CUDA on Windows Subsystem for Linux 2 | NVIDIA Technical Blog

                                                          WSL2 is available on Windows 11 outside the Windows Insider Preview. For more information about what is supported, see the CUDA on WSL User Guide. In response to popular demand, Microsoft announced a new feature of the Windows Subsystem for Linux 2 (WSL 2)—GPU acceleration—at the Build conference in May 2020. This feature opens the gate for many compute applications, professional tools, and worklo

                                                            Announcing CUDA on Windows Subsystem for Linux 2 | NVIDIA Technical Blog
                                                          • DiffusersベースでStable Diffusionをfine tuningする|Kohya S.

                                                            NovelAIの提案した学習手法、自動キャプションニング、タグ付け、Windows+VRAM 12GB(v1.4/1.5の場合)環境等に対応したfine tuningです。 ※12/17:v9に更新しました。「Diffusersの環境構築とスクリプトの準備」に飛んでください。 はじめに先日、DiffusersベースでDreamBoothを行う記事を書きましたが、U-Netの学習の仕組みを使うことでStable Diffusionのfine tuningが可能です。この記事ではその方法について解説します。以前のDreamBoothのスクリプトを流用したfine tuningよりも機能が追加されています。 ある程度の枚数(数百枚~が望ましいようです)の画像を用意することでDreamBoothよりもさらに柔軟な学習が可能です。 Pythonで仮想環境を構築できるくらいの方を対象にしています。また

                                                              DiffusersベースでStable Diffusionをfine tuningする|Kohya S.
                                                            • はじめての自然言語処理 spaCy 3.0 で Transformer を利用する | オブジェクトの広場

                                                              今更ですが今年の2月に spaCy 3.0 が公開されました。 3.0 で導入された新機能の中で目玉と言えるのは、やはり Hugging Face Transformers (以下、単にTransformers) のサポートや PyTorch, Tensorflow との連携になるでしょう。今回はその辺りを実際に学習を動かしながら紹介したいと思います。 1. はじめに 今回は今年の2月に公開された spaCy 3.0 の話です。 spaCy は第4回でも紹介しましたが、研究者向けというよりは自然言語処理アプリ開発者向けのオープンソース自然言語処理ライブラリになります。日本語を含めた様々な言語の学習済みモデルが存在しており、 spaCy をインストールして、学習済みモデルをダウンロードするだけで、分かち書き、品詞や依存関係の推定、単語や文の類似度の判定など様々な機能を使用することができます。

                                                                はじめての自然言語処理 spaCy 3.0 で Transformer を利用する | オブジェクトの広場
                                                              • 週刊Railsウォッチ(20190826)6-0-stableの更新を見てみる、『Morning Cup of Coding』ニュースレター、Rails TutorialがRails 6対応に動き出すほか|TechRacho by BPS株式会社

                                                                2019.08.26 週刊Railsウォッチ(20190826)6-0-stableの更新を見てみる、『Morning Cup of Coding』ニュースレター、Rails TutorialがRails 6対応に動き出すほか こんにちは、hachi8833です。数列の1, 2, 4, 8,...みたいな表記を見ると、1, 2, 4, 8, 1, 2, 4, 8, 1, 2, 4, 8,...みたいな可能性もありそうな気がして不安になります。 つっつきボイス:「ruby-jp Slackのどこかで、Rubyの..だったか...を魔改造するみたいな話をちらっと見かけたんですけど、そっちの数学的表記の方が気になっちゃって😅」「どう解釈するか問題ね☺️」「数学方面だと無限数列の...の略記ってコンベンションが頼りというか割と自明でなかったりした覚えが😆」 各記事冒頭には⚓でパーマリンクを置い

                                                                  週刊Railsウォッチ(20190826)6-0-stableの更新を見てみる、『Morning Cup of Coding』ニュースレター、Rails TutorialがRails 6対応に動き出すほか|TechRacho by BPS株式会社
                                                                • 【備忘録】PyTorchのモデルをonnx形式を経由してOpenVINO用に変換する | DevelopersIO

                                                                  せーのでございます。 コンピュータビジョンを使う際にIntelのOpenVINOというツールキットは足回りを整備してくれていて、非常に使いやすく生産性のあがるものです。システムをIntel系のチップが載ったマシンで動かす場合は必須といっても良いでしょう。 このOpenVINOを使って自作のモデルを動かしたい時にはOpenVINO用の形式にモデルを最適化(optimize)します。 TensorFlowやCaffeなどのフレームワークは直接OpenVINOのオプティマイザーに突っ込んであげれば変換されるのですが、 ChainerやPyTorchで作ったモデルは一旦ONNXと呼ばれるフレームワーク共通のフォーマットに変換してあげて、それをOpenVINOに取り込むことになります。 今回は備忘録の意味も含めましてその手順をご紹介いたします。 今回は画像を骨格検知するために学習したモデルをOpen

                                                                    【備忘録】PyTorchのモデルをonnx形式を経由してOpenVINO用に変換する | DevelopersIO
                                                                  • Japanese Language Analysis by GPU Ready Open Source NLP Frameworks

                                                                    Japanese Language Analysis by GPU Ready Open Source NLP Frameworks Hiroshi Matsuda GPU Technology Conference 2020 1 This document is published under CC BY 4.0 license from Megagon Labs, Recruit Co., Ltd. Contents 自然言語処理技術の進歩とGPUが与えた影響  ルールベースからTransformersまで NLP Frameworkを用いた日本語の解析  世界の全言語を統一的に扱うUniversal Dependenciesとその日本語化  GiNZAの文節API GPU Ready OSS NLP Frameworks  spaCy v2.3 → v3.0  Stanza

                                                                    • DL/RL on serverのDocker環境構築【祝600DL!】 - Qiita

                                                                      動かない・使い方わからない等あればお気軽にご連絡ください DL/RL研究のこんな問題を解決します! ディープラーニングの環境構築がつらい GPUが認識されない... (特にlibcudnn.so.*周り) ライブラリ公式のdockerが使い勝手悪い!でもカスタマイズはつらい... サーバーでのレンダリングで沼ってる 親の顔より見た .render() のエラー GUIが見れないから、毎回gifで保存してscp... あてはまる方はぜひ & 普段使い用としてもおすすめです! 本 dockerimage の概要 最新の TensorFlow & PyTorch ローカル感覚で動かせるRL環境をサポート ちょっとだけリッチなCUI & GUI ローカルでもサーバーでもヘッドレス(ディスプレイなし)でもok 安心安全! ・ 各ライブラリ公式のdockerfile等々の寄せ集めでできてます ・ たく

                                                                        DL/RL on serverのDocker環境構築【祝600DL!】 - Qiita
                                                                      • M1 Macで機械学習ってNVIDIA GPUと比べてどうなの? Tensorflow_macosの環境構築(Miniconda使用)

                                                                        環境構築 Minicondaインストール wget(Webからファイルをダウンロード)をインストールしていない場合は以下のコマンドでインストールします。 /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" brew install wget xcode-selectをインストールします。 xcode-select --install Minicondaのサイトから、ファイル名にarm64の付いたM1 Mac用のインストーラをダウンロードします。 bash ~/Downloads/Miniconda3-latest-MacOSX-arm64.sh インストール先の確認はそのままEnterとすると~/miniconda3にインストールされます。 それ以外で

                                                                          M1 Macで機械学習ってNVIDIA GPUと比べてどうなの? Tensorflow_macosの環境構築(Miniconda使用)
                                                                        • Windows11のWSL上でGPUを使おう!(2021/10時点) - Qiita

                                                                          1.本記事の目的 Windows11ではWSL上でGPUが使用できるようになりました。(WSLg:Windows Subsystem for Linux GUI、と呼ばれています)WSL側でGPUが使用できるようになったことで、GUIプログラムや機械学習のプログラムをWSL上で動作させることができるようになります。 さっそく、Window11上で環境を構築していきましょう! 2.使用する環境の前提 Windows 11がインストールしてあること NVIDIAのグラフィックボードが搭載されていること もし、Windows11への更新がまだの場合は手動のインストール(参考:)ができますので、そちらをためしてみましょう。残念ながらWindows10秋の更新(21H2)には、グラフィック機能はサポートされない様子ですので、Windows11にアップデートを行ってください。 グラフィックスの機能は当

                                                                            Windows11のWSL上でGPUを使おう!(2021/10時点) - Qiita
                                                                          • 過学習と学習不足について知る  |  TensorFlow Core

                                                                            過学習と学習不足について知る コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。 いつものように、この例のプログラムは tf.keras APIを使用します。詳しくは TensorFlow の Keras ガイドを参照してください。 これまでの例、つまり、映画レビューの分類と燃費の推定では、検証用データでのモデルの精度が、数エポックでピークを迎え、その後低下するという現象が見られました。 言い換えると、モデルがトレーニング用データを過学習したと考えられます。過学習への対処の仕方を学ぶことは重要です。トレーニング用データセットで高い精度を達成することは難しくありませんが、(これまで見たこともない)テスト用データに汎化したモデルを開発したいのです。 過学習の反対語は学習不足(underfitting)です。学習不足は、モデルがテストデータに対してまだ改善の余地があ

                                                                              過学習と学習不足について知る  |  TensorFlow Core
                                                                            • Jetson-Nanoの使い方 JetPack4.6.1でTensorflowとDeepStream環境構築

                                                                              Ubuntu OSイメージの作成 公式サイトからJetPackイメージをダウンロードします。 項目が多くて探しにくいですが、以下の画像のようにJetPack 4.6.1を使用します。 SEARCHの欄に”jetson nano”と入れると候補がしぼられるので探しやすくなります。 ダウンロードしたzipファイルは圧縮ファイルですが、解凍せずに使いますのでそのままにしておいてください。 以下、Macで実施する例を載せていますが、ここで使用するSD Card FormatterとBalena EtcherはWindows用もありますので、同様に実行できます。 SD Card Formatterでフォーマットします。通常、Quick formatで問題ないようですが、うまく行かない場合はOverwrite formatしてください。 Balena EtcherでJetPackイメージをSDカードに

                                                                                Jetson-Nanoの使い方 JetPack4.6.1でTensorflowとDeepStream環境構築
                                                                              • 【Ubuntu】TensorflowやKerasをGPUで動かす方法

                                                                                こんにちは。のっくん(@yamagablog)です。 最近はAIブームですので、ディープラーニングをやってみたい!って人が増えています。 ディープラーニングは普通にパソコンでも動きますが、めちゃくちゃ時間がかかります。 そこでNVIDIA社などが出しているGPUという部品を使うことで処理を高速化します。 GPUを使うことで処理時間が10倍ほど速くなりますので、例えばCPUで240分かかっていたディープラーニングを24分で終わらせることができます。 ディープラーニングを動かすにはPythonのKerasやTensorFlowなどのライブラリを使います。ライブラリは、ディープラーニングを動かすために必要な機能が全部入ったソフトウェアのことです。 ライブラリを使うことでディープラーニングの細かな仕組みを全く知らなくても誰でもディープラーニングを動かすことができます。 この記事では、GPUを使って

                                                                                  【Ubuntu】TensorflowやKerasをGPUで動かす方法
                                                                                • はじめての自然言語処理 Hugging Face Transformers で T5 を使ってみる | オブジェクトの広場

                                                                                  前回が分量的にやたらと重かったので、今回はその反省(反動?)を踏まえて軽い感じでいってみます。第7回で紹介した T5 ですが Hugging Face の Transformers でもサポートされてますので、その使用方法をご紹介したいと思います。 1. はじめに 今回は久しぶりに T5 の話です。T5 に関しては第7回、第8回で一度紹介しているので、未読の方は記事に目を通してから戻ってきて頂けると、より理解がしやすいと思います。 さて、 T5 ですが Google のオリジナルコード(以下 “t5"と記述)1は敷居が高いと感じる方もいらっしゃるのではないでしょうか。 Estimator API ベースのコードや gin による設定など慣れていないと、とっつきにくいのではないかと思います。 そこで今回は Hugging Face の Transformers 2を使って T5 を動かす方法

                                                                                    はじめての自然言語処理 Hugging Face Transformers で T5 を使ってみる | オブジェクトの広場