タグ

ブックマーク / atmarkit.itmedia.co.jp (51)

  • これだけ知っていればワンセグ博士!

    2. ワンセグはなぜワンセグ? ここからはワンセグについて解説しましょう。 新しい技術用語は、「何でそんな名前になったの」と調べてみると、その技術質が理解できるケースが多いです。「ワンセグ」はなぜ「ワンセグ」と命名されたのでしょうか。実はワンセグは略称で、正式名称は「携帯電話・移動体端末向けの1セグメント部分受信サービス」といいます。この「1セグメント」の部分だけピックアップされて「ワンセグ」と呼ばれているのです。ちなみに「セグメント(Segment)」は分節、区分、部分という意味です。 「1区分(=セグメント)の区分って何?」と疑問に感じると思いますが、それは前ページで紹介した地上デジタル放送の放送形態に関係があります。 地上デジタル放送は、1つのチャンネルに13のセグメントが割り当てられています。そのうち12セグメントは放送に使われて、残りの1セグメントを携帯電話や移動端末に当て

    これだけ知っていればワンセグ博士!
    jp-myk
    jp-myk 2024/07/02
  • 「JoeyNMT」で音声データを使った自動音声認識、音声翻訳モデルを作る

    「JoeyNMT」で音声データを使った自動音声認識、音声翻訳モデルを作る:「PythonPyTorch」と「JoeyNMT」で学ぶニューラル機械翻訳(終) 精度向上により、近年利用が広まっている「ニューラル機械翻訳」。その仕組みを、自分で動かしながら学んでみましょう。第3回は「JoeyNMT」を音声に対応させて、音声認識や音声翻訳のタスクをエンドツーエンドで解くモデルを構築してみましょう。 ハイデルベルク大学の博士課程に在籍しながら、八楽という会社で「ヤラクゼン」の開発に携わっている太田です。ヤラクゼンは、AI翻訳から翻訳文の編集、ドキュメントの共有、翻訳会社への発注までを1つにする翻訳プラットフォームです。 第2回は、Discordのチャットbotでニューラル機械翻訳を試す方法と「JoeyNMT」のカスタマイズ方法を紹介しました。第3回は「JoeyNMT」を音声に対応させて、音声認識

    「JoeyNMT」で音声データを使った自動音声認識、音声翻訳モデルを作る
    jp-myk
    jp-myk 2022/08/25
  • ニューラル機械翻訳(NMT)の基礎を「JoeyNMT」で学んでみよう(準備編)

    ハイデルベルク大学の博士課程に在籍しながら、八楽という会社で「ヤラクゼン」の開発に携わっている太田です。ヤラクゼンは、AI翻訳から翻訳文の編集、ドキュメントの共有、翻訳会社への発注までを1つにする翻訳プラットフォームです。 連載の目的、前提知識、構成 機械翻訳のフレームワークはよく知られたものが幾つか存在しますが、高機能であるが故にコードベース自体が巨大です。そのため機械翻訳の学習に行き着く前に、フレームワーク特有の仕様などを調べる段階で挫折してしまうことが少なからずあると感じています。 連載は、機械翻訳モデル開発の経験がほとんどない初心者でも「モデルを実行してみる」ことができるようになるのを目的としています。フレームワークには、小規模で初学者にも扱いやすい「JoeyNMT」を使用します。 なお読み進めてもらうに当たって、以下3点の前提知識があることを想定しています。 機械翻訳の理論的

    ニューラル機械翻訳(NMT)の基礎を「JoeyNMT」で学んでみよう(準備編)
    jp-myk
    jp-myk 2022/08/25
  • なぜ「Rustは難しい言語」とされるのか――習得の難しさとその対策をWebエンジニアが考察

    最終回となる今回は、Rustの開発生産性を支える言語機能および難しさにフォーカスを当てて簡潔に紹介します。 開発生産性とはいうものの、この言葉は定義付けをすること自体が難しいです。下記のRust公式が提供するツール群は開発生産性を間違いなく向上させますが、実際に使ってみた方が理解がはかどるのでここでは紹介にとどめます。 Rustコンパイラによるコンパイルエラーメッセージの丁寧さ Docs.rsのドキュメンテーション Cargoによるパッケージ管理(≒Rubybundler、JavaScriptのnpmrust-analyzerによる強力な開発支援(≒インテリセンス) 言語標準のユニットテスト 端的にいえばモダン開発のプラクティスがRustプロジェクトでもシームレスに利用でき、簡単に開発環境を整えることができます。 下記はプロジェクトファイル(Cargo.toml)の例です。外部ライ

    なぜ「Rustは難しい言語」とされるのか――習得の難しさとその対策をWebエンジニアが考察
    jp-myk
    jp-myk 2022/02/02
  • Microsoft、WebブラウザでMLモデルを実行できる「ONNX Runtime Web」を公開

    Microsoft、WebブラウザでMLモデルを実行できる「ONNX Runtime Web」を公開:速度を犠牲にせず、ポータビリティーが向上する Microsoftはあらゆる機械学習(ML)モデルを実行できる「ONNX Runtime Web」を公開した。オープンソース推論エンジン「ONNX Runtime」の新機能だ。JavaScript開発者はMLモデルをWebブラウザで実行、デプロイできる。 Microsoftは2021年9月2日(米国時間)、「ONNX Runtime」の新機能「ONNX Runtime Web」(ORT Web)を公開した。 ORT Webを利用することで、JavaScript開発者は機械学習(ML)モデルをWebブラウザで実行、デプロイできる。さらにORT Webは、新タイプのオンデバイスコンピュテーションの実現を支援する。 ORT Webは、近いうちに非推奨

    Microsoft、WebブラウザでMLモデルを実行できる「ONNX Runtime Web」を公開
    jp-myk
    jp-myk 2021/11/06
  • Microsoftの自然言語モデル「DeBERTa」、ベンチマークで人間を上回る記録を達成

    Microsoftの自然言語モデル「DeBERTa」、ベンチマークで人間を上回る記録を達成:SuperGLUEベンチマークランキングで首位に Microsoftが最近アップデートした自然言語モデル「DeBERTa」が、自然言語理解(NLU)モデルを評価するベンチマーク「SuperGLUE」で、人間を上回る記録を達成した。今後は「Bing」「Microsoft 365」「Dynamics 365」「Azure Cognitive Services」といったMicrosoft製品をサポートする他、DeBERTaのソースコードも公開する。

    Microsoftの自然言語モデル「DeBERTa」、ベンチマークで人間を上回る記録を達成
    jp-myk
    jp-myk 2021/02/07
  • PyTorchでDCGANを作ってみよう

    そこで、今回は「CNNなんて怖くない! その基を見てみよう」や「PyTorchで畳み込みオートエンコーダーを作ってみよう」などで取り上げた畳み込みニューラルネットワークを利用して、GANを構築してみることにします。 実際の構成は、次のようになります。以下ではConv2dクラスとConvTranspose2dクラスのみを含めてありますが、BatchNorm2dクラスおよびtorch.nnモジュールが提供する活性化関数クラス(torch.nn.Sigmoidクラス、torch.nn.Tanhクラス)も使用します。訓練データと偽物のデータの識別と偽物データの生成の中心的な処理はこれら2つのクラスが請け負うということです。 識別器(ディスクリミネーター)では、CNNで使用するConv2dクラスにより訓練データおよび生成器(ジェネレーター)から入力されたデータを最終的に0~1の値へと変換していきま

    PyTorchでDCGANを作ってみよう
    jp-myk
    jp-myk 2020/11/07
  • PyTorchで全結合型のGANを作ってみよう

    今回の目的 前回までは数回にわたってオートエンコーダーについて見てきました。今回はそれとはまた別の画像生成フレームワークとしてよく知られているGAN(Generative Adversarial Network。敵対的生成ネットワーク)を作ってみましょう。といっても、今回はみんな大好き「全結合型」のニューラルネットワークとして作ってみます。 GANの代表的な用途としては今回も取り上げる画像生成が挙げられます。萌え絵を自動生成するようなニューラルネットワークモデルはいろいろなところで話題になったことから、関連してGANという語を覚えている方もたくさんいらっしゃるでしょう。 GANは2014年に登場したアルゴリズムですが、その後、さまざまな改良が加えられ、その派生となる数多くのアルゴリズムが登場しています。その一つであるDCGAN(Deep Convolutional GAN)については後続の

    PyTorchで全結合型のGANを作ってみよう
    jp-myk
    jp-myk 2020/10/17
  • PyTorch/TensorFlow/Keras/scikit-learnライブラリ内蔵のデータセット一覧

    PyTorch/TensorFlow/Keras/scikit-learnライブラリ内蔵のデータセット一覧:AI機械学習のデータセット辞典 機械学習やディープラーニング用の主要ライブラリが提供する「画像/音声/テキストなどのデータセット」の名前とリンクを表にまとめ、典型的な使い方を簡単に紹介する。 連載目次 連載「AI機械学習のデータセット辞典」では、ここまで主に、scikit-learnやKeras/TensorFlow(tf.keras)、TensorFlow Datasets、PyTorchといった主要なPythonライブラリに共通的に含まれる代表的なデータセットを紹介し、各ライブラリでの典型的な実装コード例を示してきた。しかし、これらの全ライブラリに共通的に含まれているデータセットはまれで非常に少ない。よってこれからは、個々のライブラリに1つしか含まれていないようなこまごまと

    PyTorch/TensorFlow/Keras/scikit-learnライブラリ内蔵のデータセット一覧
    jp-myk
    jp-myk 2020/10/01
    “wiki”
  • Intel、Xeon上での「TensorFlow」使用時向けにDNNモデルコンパイラ「nGraph」の性能を強化

    Intelは2018年4月18日(米国時間)、「Intel Xeonスケーラブルプロセッサー」上でディープラーニングフレームワーク「TensorFlow」を使用するデータサイエンティスト向けに、フレームワーク非依存でオープンソースソフトウェア(OSS)のディープニューラルネットワーク(DNN)モデルコンパイラ「nGraph Compiler」のパフォーマンスを高めるブリッジコードを提供開始した。 このブリッジコードは、TensorFlowベースのプロジェクトを最適化済みのnGraph Compilerのバックエンドにリンクするために使用できる。このブリッジコードを実装することで、従来のTensorFlow統合時と比べて最大10倍のパフォーマンスを実現できるとしている。Intelは2018年3月にnGraph CompilerをOSS化したばかりだ。 IntelのAI人工知能)ソフトウェア

    Intel、Xeon上での「TensorFlow」使用時向けにDNNモデルコンパイラ「nGraph」の性能を強化
    jp-myk
    jp-myk 2020/03/27
  • Facebook、オンライン音声認識に使用可能な推論フレームワークをオープンソース化

    Facebook AI Researchは2020年1月13日(米国時間)、音声をリアルタイムでテキストに変換するプロセスであるオンライン音声認識に使用可能な推論フレームワーク「wav2letter@anywhere」を開発し、オープンソースソフトウェアとして公開したと発表した。 wav2letter@anywhereは、Facebook AI Researchのオープンソース音声認識ツールキット「wav2letter」「wav2letter++」をベースにしている。ライブ動画キャプション作成やオンデバイス音声テキスト変換のようなアプリケーションで重要となる、音声入力からテキスト出力までのレイテンシの短縮ニーズに対応して開発された。 ほとんどの既存のオンライン音声認識ソリューションは、「再帰型ニューラルネットワーク(RNN)」のみをサポートするが、Facebook AI Researchは

    Facebook、オンライン音声認識に使用可能な推論フレームワークをオープンソース化
    jp-myk
    jp-myk 2020/02/07
  • PyTorch vs. TensorFlow、ディープラーニングフレームワークはどっちを使うべきか問題【2019-2020年】

    連載目次 ※稿には新バージョンがあります。2021年に向けてのアップデート記事(2020年12月16日公開)はこちらです。 稿は、ディープラーニング(深層学習)に関心があるビジネスマンから、これから始めてみたいというエンジニア、既に取り組んでいる実務経験者まで、幅広い人に向けて書いた。よって、初歩的な内容も含めつつ説明していくのでご了承いただきたい。 ディープラーニングを実装する場合、フルスクラッチでゼロからコードを書くのは非効率なため、専用のライブラリ/フレームワークが用いられるのが一般的だ。ディープラーニングが流行してから直近4年ほどの間に、次々と新しいフレームワークが登場した。現在、主要なものを挙げると、 TensorFlow: 2015年登場、Google製。一番有名で、特に産業界で人気 PyTorch: 2016年登場、Facebook製。この中では新興だが、特に研究分野で人

    PyTorch vs. TensorFlow、ディープラーニングフレームワークはどっちを使うべきか問題【2019-2020年】
    jp-myk
    jp-myk 2019/11/01
  • 機械学習のハイパーパラメーターを自動最適化、Preferred Networksがライブラリを公開:機械学習の開発負荷を低減 - @IT

    機械学習のハイパーパラメーターを自動最適化、Preferred Networksがライブラリを公開:機械学習の開発負荷を低減 Preferred Networksは、機械学習アルゴリズムの動作を制御する「ハイパーパラメーター」向けの自動最適化フレームワーク「Optuna」のβ版をオープンソースソフトウェアとして公開した。機械学習ライブラリとして「Chainer」だけでなく、「scikit-learn」や「XGBoost」「LightGBM」などを利用した場合でも、ハイパーパラメーターの自動最適化が可能。 Preferred Networksは2018年12月3日、ハイパーパラメーター自動最適化フレームワーク「Optuna(オプチュナ)」のβ版をオープンソースソフトウェアとして公開した。 Optunaは、ニューラルネットワークを実装する際に必要な、隠れ層の数やノード数、学習の際の繰り返し回数

    機械学習のハイパーパラメーターを自動最適化、Preferred Networksがライブラリを公開:機械学習の開発負荷を低減 - @IT
    jp-myk
    jp-myk 2018/12/07
  • GoogleがAI HubとKubeflow Pipelinesを発表、機械学習専門家の知見を再利用:ソフトウェアエンジニアが大きな役割果たせる - @IT

    GoogleAI HubとKubeflow Pipelinesを発表、機械学習専門家の知見を再利用:ソフトウェアエンジニアが大きな役割果たせる Googleは2018年11月8日(米国時間)、機械学習のパイプラインを容易に構築できるツール「Kubeflow Pipelines」と、機械学習のためのツールやデータのカタログとも呼べる「AI Hub」を発表した。 Googleは2018年11月8日(米国時間)、機械学習のパイプラインを容易に構築できるツール「Kubeflow Pipelines」と、機械学習のためのツールやデータのカタログとも呼べる「AI Hub」を発表した。Kubeflow PipelinesはGitHubで公開されている。また、AI Hubは限定ユーザーとαテスト中。 この2つのツールの目的について、Google CloudでML Platformエンジニアリング ディレ

    GoogleがAI HubとKubeflow Pipelinesを発表、機械学習専門家の知見を再利用:ソフトウェアエンジニアが大きな役割果たせる - @IT
    jp-myk
    jp-myk 2018/11/21
  • NVIDIAとArmがディープラーニングで提携――NVDLAをProject Trilliumに適用へ

    NVIDIAとArmがディープラーニングで提携――NVDLAをProject Trilliumに適用へ:IoTへのディープラーニング導入を加速か NVIDIAとArmは、モバイル機器やIoT機器などへのディープラーニング導入に向けて提携し、NVIDIA Deep Learning AcceleratorをArmのProject Trilliumに適用すると発表した。両社は、「IoTチップ企業による自社製品へのAI導入を容易にする」としている。 NVIDIAとArmは2018年3月27日、モバイル機器や家電製品、IoT(Internet of Things)機器へのディープラーニング導入に向けて提携すると発表した。「NVIDIA Deep Learning Accelerator(NVDLA)」をArmの「Project Trillium」に適用する。両社は、今回の提携により「IoTチップ企

    NVIDIAとArmがディープラーニングで提携――NVDLAをProject Trilliumに適用へ
    jp-myk
    jp-myk 2018/03/29
  • Visual Studio Codeの設定「虎の巻」:Python編

    前回までは、Visual Studio Code(以下、VS Code)のIDEの全般的な設定方法や、ワークベンチやエディタの配色、構文ハイライトのカスタマイズについて見てきた。今回はVS CodeでPythonプログラミングを行う上で必須となるPython拡張機能と、その使い方と設定項目などについて取り上げる。 なお、ここではWindows版のVS Code 1.22.2と、Python.orgからインストールしたPython 3.6.5で動作を確認している(macOS版のVS Codeでも一応の確認はした)。 Python拡張機能 VS CodeでPythonを使ってコードを書こうという場合、Microsoft自身が提供しているPython拡張機能をインストールするのがお勧めだ。この拡張機能をインストールせずに、Pythonファイルを作成すると、VS Codeのウィンドウ右下にPyth

    Visual Studio Codeの設定「虎の巻」:Python編
    jp-myk
    jp-myk 2017/11/24
  • @IT:全貌を現したLinuxカーネル2.6[第1章](3/3) - AIO

    ファイルI/Oの効率化 ■Multi page block I/O カーネル2.4は、ページキャッシュ層からブロックI/O層へリクエストを渡す際、複数ページから成るバッファをそのまま渡すことができず、いったんブロックサイズに分割したバッファをブロックI/O層で再びつなぎ合わせるという無駄な処理を行っていた。 カーネル2.6では、複数ページから成るバッファに対するI/Oを効率的に行うため、bioと呼ばれる構造体が新設された。これは従来のBuffer headに相当するものだが、ページの配列を持つようになっており、複数のページをまとめてブロックI/O層へ渡すことができる。また、これに合わせた各デバイスドライバの修正も行われた。これに伴い、Direct I/Oのコードもbioを使用するように大幅に書き直された。 カーネル2.6にも従来のBuffer headは残されているが、その処理はbioを使

    @IT:全貌を現したLinuxカーネル2.6[第1章](3/3) - AIO
    jp-myk
    jp-myk 2017/02/15
  • 機械学習/Deep Learningの仕事が増える2017年、ソフトウェアエンジニアがFPGAを学ぶべき理由

    ソフトウェアエンジニアFPGA(field-programmable gate array)を使うハードルがさらに下がってきている。クラウドサービスでFPGAを活用できたり、Pythonで記述したニューラルネットワークをFPGAに高位合成できる研究成果が出てきたりしているのだ。 ソフトウェア開発者の立場でFPGAに取り組むイベント「FPGAエクストリーム・コンピューティング」を主宰する佐藤一憲氏、FPGAの高位合成によるディープラーニングについて研究している東京工業大学の中原啓貴氏(中原研究室)、そしてFPGAベンダーであるザイリンクスの神保直弘氏が、急激に常識が変わりつつあるFPGAの動向を語り合った。 稿では座談会の中から、ソフトウェアエンジニアFPGAや高位合成が求められる現状、そして、今後どのようなツールを使うべきか、ソフトウェアエンジニアFPGAに取り組む際の課題などにつ

    機械学習/Deep Learningの仕事が増える2017年、ソフトウェアエンジニアがFPGAを学ぶべき理由
    jp-myk
    jp-myk 2017/01/30
  • 意外と知らないバージョン表記・数字の豆知識

    Java News.jp(Javaに関する最新ニュース)」の安藤幸央氏が、CoolなプログラミングのためのノウハウやTIPS、筆者の経験などを「Rundown」(駆け足の要点説明)でお届けします(編集部) ちまたにあふれるバージョン表記 少し前に「Web 2.0」「○○2.0」という表記が流行したのを覚えていますでしょうか。よく見かける広告のコピーにも、最近では「バージョンアップ」という言葉が普通に使われています。バージョンや、バージョン表記は、ソフトウェアの世界だけでなく、ごくごく一般化したように思えます。しかし実際には、どういう意味か分からないのが、バージョン表記です。 アプリケーションソフトウェアの開発は、さまざまな状態/段階を経て完成します。その段階/状態と、リリース後の状態/段階を示したのが、バージョン表記です。 例えば、数字以外でも、以下のような表記を見かけたことはありません

    意外と知らないバージョン表記・数字の豆知識
    jp-myk
    jp-myk 2016/09/05
  • 「Docker Cloud」が正式リリース

    Dockerは、あらゆるアプリケーションをどこでも作成、配布、実行できるようにするクラウドサービス「Docker Cloud」の正式リリースを発表した。 米Dockerは2016年3月1日(米国時間)、「Docker Cloud」の正式リリースを公式ブログで発表した。Docker Cloudは、Dockerが2015年10月下旬に買収したTutum(トゥタム)のサービスを拡張した新しいクラウドサービス。 Docker Cloudは、「Docker Hub」(公式Dockerレジストリ)、「Docker ID」(Dockerの全サービスで使用される新しいアカウント共有システム)、Dockerの公式リポジトリ、商用サポートされている「Docker Engine」(CS Engine)とネイティブに統合されており、Docker Cloudに関するディスカッションフォーラムも新たに用意されている。

    「Docker Cloud」が正式リリース
    jp-myk
    jp-myk 2016/06/12