タグ

2018年9月4日のブックマーク (3件)

  • 進化する機械学習パラダイス ~改正著作権法が日本のAI開発をさらに加速する~|知的財産・IT・人工知能・ベンチャービジネスの法律相談なら【STORIA法律事務所】

    ■ はじめに 学習済みモデル生成のためには大量の生データや生データを元に生成した学習用データセットが必要となりますが、その際に著作物である生データ(文章、写真、静止画、動画など)を利用することも多くあります。 著作権法上、著作物は著作権者に無断で利用(ダウンロードや改変等)することは出来ませんが、実は日の今の著作権法には47条の7という世界的に見ても希な条文があるため(詳細は後述)、AI開発目的であれば、一定限度で著作権者の許諾なく著作物を利用できます。 その点を捉えて、早稲田大学法学学術院の上野達弘教授は「日機械学習パラダイスだ」と評しています。言い得て妙ですね。 【参考】 コラム:機械学習パラダイス(上野達弘) ただ、この47条の7には「ある限界」もありました。 2019年1月1日に改正著作権法の施行が予定されていますが、同改正法が施行されると、この47条の7が廃止され、新しい条

    進化する機械学習パラダイス ~改正著作権法が日本のAI開発をさらに加速する~|知的財産・IT・人工知能・ベンチャービジネスの法律相談なら【STORIA法律事務所】
  • PostgreSQLとcupyを繋ぐ~機械学習基盤としてのPG-Stromその①~ - KaiGaiの俺メモ

    世間の機械学習屋さんは、機械学習・統計解析のライブラリにデータをわせる時に、どうやってデータを入力しているのだろうか? 話を聞くに、データを一度CSV形式に落とし込んで、それをPythonスクリプトで読み込むというパターンが多いようではある。 ただ、ある程度大量のデータセットをCSVファイルで扱うようになると、いくつか問題点が露わになってくる。 解析すべきデータセットを切り替えるたびに異なるCSVファイルを用意する事になり、ファイルの取り回しが煩雑である。 前処理をかけた後のCSVファイルがまたできてしまい、ファイルの取り回しが更に煩雑になってくる。 最終的にCSVファイルの所在が誰にも分からなくなってしまい、機械学習・統計解析の元になったファイルが散逸してしまう。 そもそも、GB単位のフラットファイルをシェル上でコピーしたり読み込ませたりするのはそれなりに時間を要する処理である。 デー

    PostgreSQLとcupyを繋ぐ~機械学習基盤としてのPG-Stromその①~ - KaiGaiの俺メモ
  • CuPyのElementwiseKernelで楽にGPUの恩恵を受ける - Qiita

    Powered by DLHacks はじめまして、マンボウです。普段は信号処理や画像解析をやっています。 唐突ですが、PythonからピンポイントにCUDAの機能を利用できるCuPyのElementwiseKernelを紹介します。 CUDAと言っても恐れることはなく、「C++の記法をなんとなく理解している」レベルの人でも簡単に利用できます。 はじめに Pythonは書きやすく読みやすいので私は好きです。 しかし、膨大な信号や大量の画像をPythonで扱っていると、どうしても速度が気になりだします。 かといって、全てをC++やCUDAで書き直すのも骨が折れます。 特に、データ解析で1回しか使わないようなコードを頑張ってC++やCUDAで仕上げるのは辛いです。 「『この部分だけ』で良いんや!折角GPU積んでるんだから『この部分だけ』CUDAで書かせてくれ!」 と思うことが多々あるのです。

    CuPyのElementwiseKernelで楽にGPUの恩恵を受ける - Qiita