CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。
NECは2019年8月19日、ディープラーニングの学習に必要なデータ量を削減する新たな技術を開発したと発表した。同技術は画像や音声などデータ形式によらず適応でき、学習データセットの拡張を専門家による調整なしに実現するとしている。 製品の外観検査など、製造業においてもディープラーニング活用が進む。ディープラーニングの推論精度は学習用データセットの質と規模に依存するが、高品位なデータセットの用意は手間やコスト面で高いハードルが存在する。外観検査の例においても不良品の画像データを多数そろえる必要があるが、そもそも発生頻度の低い不良でデータ収集が困難な場合が多い。この問題を解決するため、他領域で学習したニューラルネットワークを転用する「転移学習」や、元の学習データを人為的に加工し学習用データセットへ加える「データ拡張」などの手法に注目が集まっている。 一方で、データ拡張は専門家による調整を必要とす
オブジェクト指向言語でドメインモデルを実装することが当然のように行われていますが、Go で開発したり、Haskell で遊んだりしている中で、他のパラダイムの言語で実装するのはどうなんだろうかという想いがありました。 そんな時に出会ったのが、Domain Modeling Made Functional: Tackle Software Complexity with Domain-Driven Design and F# という本です。 概要 構成 ドメインを理解し、モデリングする 端的なフレーズ Database-Drive-Design や Class-Driven-Design との違い 型、型、型 関数型言語による実用例 恐怖のモナド さいごに 参考 概要 本書は、とある会社の受注とその関連業務をドメインとし、モデリングして、実装していくという内容です。紙ベースで行われている業務
はじめに タイトルの通り、社内Proxyがあるために、yumとかgit cloneができない人のためのTipsです。 Proxyに関する前提条件は以下の通りです。 社内Proxyがある。 ProxyはID/Passの認証がある FQDNによって制限されているページがある。(Blacklist方式) Proxyに直接アクセスできないネットワークにある。(間接的にはアクセスできる) またOSは主にLinux(CentOS,Ubuntu)ですが、Windows+Cygwinの話もたまにします。 ProxyのServerとPortは、proxysrv:port。ProxyのIDはid、Passはpassと表現します。 適宜読み替えてください。 注意事項 全て自己責任でお願いします。 理由(だいたいの場合がセキュリティ)があって、会社はこのような制限を設けています。 またこれの手っ取り早い解決方法は
NECは、従来の半分程度の学習データ量でも高い識別精度を維持できるディープラーニング技術を新たに開発しました。 識別精度の向上には、識別が難しい学習データをより多く学習することが有効ですが、学習に適した質の良いデータを十分に確保することが重要です。本技術は、ニューラルネットワーク(注1)の中間層で得られる特徴量を意図的に変化させることで、識別が難しい学習データを集中的に人工生成します。これにより、少ない学習データ量でも識別精度を大きく向上させ、ディープラーニングを適用したシステムの開発期間短縮に貢献します。 具体的には、ディープラーニング技術の適用に必要な学習データ量を半分程度に削減します。また本技術は、データの種類を問わず汎用的に適用可能であることから、専門家による調整が不要になります。これにより従来、学習データ収集時間やコストの高さが阻害要因となっていた製品の外観検査やインフラ保全など
IT Leaders トップ > テクノロジー一覧 > AI > 市場動向 > NEC、ディープラーニングに必要な学習データを半減、中間層で得られる特徴量を意図的に変化 AI AI記事一覧へ [市場動向] NEC、ディープラーニングに必要な学習データを半減、中間層で得られる特徴量を意図的に変化 2019年8月19日(月)日川 佳三(IT Leaders編集部) リスト NECは2019年8月19日、ディープラーニングに必要な学習データ量を半減させられる技術を開発したと発表した。少ない学習データ量でも識別精度を高められるとしている。ニューラルネットワークの中間層で得られる特徴量を意図的に変化させることで、識別が難しい学習データを集中的に人工生成する仕組み。 NECは今回、ディープラーニングに必要な学習データ量を半分程度に削減できる技術を開発した(図1)。データの種類を問わず、汎用的に適用でき
1. はじめに 前回に引き続きPyTorchを用いたarXiv実装の2回目になります。今回紹介する論文はVISUALIZING THE LOSS LANDSCAPE OF NEURAL NETSになります。 扱う内容は前回と同じニューラルネットの可視化です。ただし前回は中間層の可視化でしたが、今回は出力層の可視化です。本論文ではディープラーニングのロス関数を可視化する手法を提案しています。 ディープラーニングの学習においては、SGDやAdaGradなどのアルゴリズムを用いてロス関数を最小とするパラメータの探索を行います。凸関数は局所最適化を繰り返すことで大域的最適解が得られますが、非凸関数ではその保障はありません(参照ページ)。そしてディープラーニングのロス関数は一般に凸関数とは限らないため、学習により適切なパラメータが求まる保障はありません。 しかし、適切なバッチサイズ・フィルタサイズを
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く