タグ

2017年12月12日のブックマーク (10件)

  • Implementing Japanese Subtitles on Netflix

    Japanese subtitles were first made available on the Netflix service as a part of the Japanese launch in September 2015. This blog post provides a technical description of the work we did leading up to this launch. We cover topics including our specification for source subtitle files, the transformation model from source subtitle files to those deliverable on the Netflix service, the model for deli

    Implementing Japanese Subtitles on Netflix
    knok
    knok 2017/12/12
    最近気がついたらHuluも字幕データ別になってたけど同じ仕組みなんだろうか
  • 退職予定エントリ – @knok blog

    「俺は仕事をやめるぞー!ジョジョーーッ!」 一度は書いてみたかったセリフなのですが、まだ確定ではありません。オリジナルは荒木飛呂彦作の「ジョジョの奇妙な冒険」第一部、ディオのセリフです。 経歴について 職務経歴書を公開します。 https://docs.google.com/document/d/1LJRGztFILXGH94YQHuQvz_eEODE3lBg1B-R9AW-QTNI/edit?usp=sharing 2017/12現在の状況 今年から早期退職制度 の対象者となったので、周囲に相談しつつ申請をしたという状況です。承認されれば今年度一杯をもって退職となります。 理由 一言でいえば「待遇に不満がある」のが理由です。調査会社による年齢ごとの年収調査によると、残業を含めた上での額面での現在の年収に対し、平均から-200、最低値と比較しても-100という状態です。 残業に関しては正直

    knok
    knok 2017/12/12
    書きました
  • The Case for Learned Index Structures

    Tim Kraska111Work done while author was affiliated with Google. MIT Cambridge, MA kraska@mit.edu Alex Beutel Google, Inc. Mountain View, CA alexbeutel@google.com Ed H. Chi Google, Inc. Mountain View, CA edchi@google.com Jeffrey Dean Google, Inc. Mountain View, CA jeff@google.com Neoklis Polyzotis Google, Inc. Mountain View, CA npolyzotis@google.com Abstract Indexes are models: a B-Tree-Index can b

    The Case for Learned Index Structures
  • gpg のはなし

    kmc-advent-2017.md gpg のはなし この記事は KMC Advent Calendar 2017 の 10 日目の記事です。 昨日の記事は tron 君 (id:tron_kmc) の今年の活動を振り返る - tron-Factory 業務日誌でした。 はたち:tada:めでたい:congratulations: はじめに KMC 6 回生の hatsusato です。 修士 2 回生ともなると研究にかまけて KMC 活動がおろそかになっているので、この場を借りて申し訳程度に KMC 活動をしようと思います。 この記事は 10 日目の予定でしたが、 10 日には KMC の追い出しコンパがあり、僕も飲み会に出席しなければならなかったので、遅刻も致し方なしなのです(言い訳)。 この記事における記述は、自分の環境である Ubuntu 17.10 におけるものをもとにしていま

    gpg のはなし
  • ObamaNet: Photo-realistic lip-sync from text

    ObamaNet: Photo-realistic lip-sync from text Rithesh Kumar, Jose Sotelo, Kundan Kumar, Alexandre de Brebisson, Yoshua Bengio Paper Abstract We present ObamaNet, the first architecture that generates both audio and synchronized photo-realistic lip-sync videos from any new text. Contrary to other published lip-sync approaches, ours is only composed of fully trainable neural modules and does not rely

    knok
    knok 2017/12/12
    なんでObamaNetという名前なんだと思ったらデータセットがオバマ演説だからか。テキストからchar2wavで音声化してキーポイント抽出、口部分だけカットした画像に対応するキーポイントだけ描画してpix2pix的に訓練
  • Variational Recurrent Auto-Encoders

    In this paper we propose a model that combines the strengths of RNNs and SGVB: the Variational Recurrent Auto-Encoder (VRAE). Such a model can be used for efficient, large scale unsupervised learning on time series data, mapping the time series data to a latent vector representation. The model is generative, such that data can be generated from samples of the latent space. An important contributio

    knok
    knok 2017/12/12
    RNN+VAEで音楽生成
  • トピックモデル(LDA)で初学者に分かりづらいポイントについての解説 - Taste of Tech Topics

    こんにちは。 信号処理で使っていた数学の知識を生かして、 機械学習関連の仕事をしている2年目の@maron8676です。 こちらは機械学習数学 Advent Calendarの11日目の記事となります。 qiita.com トピックモデルの学習で初学者に分かりづらいポイントについての解説をしていきます。 機械学習における数学の重要性 機械学習を利用してアプリケーションを作る際に、数学の知識は重要です。 機械学習の便利なライブラリは多くリリースされていますが、適切に使用するにはパラメータチューニングが必要だったり、 最新の手法を動かしたい場合は自分で数式を読んで理解し、開発しないといけません。 というわけなので、数学は大事です。機械学習でアプリケーションを作るみなさん数学を勉強しましょう。 トピックモデル トピックモデルとは何か トピックモデルは潜在的意味を推定するためのモデルです。 トピ

    トピックモデル(LDA)で初学者に分かりづらいポイントについての解説 - Taste of Tech Topics
    knok
    knok 2017/12/12
  • ディープラーニングで世界トップレベルのモデルを作ろう - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? TL;DR: ホリデーシーズンなのでコードや技術の説明は無しです。ディープラーニングの基知識を得たばかりの人間がスクラッチからモデルを作り、エンジニアとして別の仕事をしながら当時のstate of the artの性能を出すところまで作り込んで得た知見のまとめです。 目次: ・どうやって情報を得るか ・tensorflowでスクラッチから作る場合の注意点・陥りやすいポイント ・モデルの性能が伸び悩んだ時に試すべきこと ・モチベーションを維持するには 概要 単画像超解像と言われる技術があります。これは解像度の低い画像の解像度を引き上げる

    ディープラーニングで世界トップレベルのモデルを作ろう - Qiita
    knok
    knok 2017/12/12
    実際に過大に取り組む上でのフローとして参考になる
  • Pythonでデータ分析:imbalanced-learnで不均衡データのサンプリングを行う - データサイエンティスト(仮)

    導入 クラス分類、例えば0:負例と1:正例の二値分類を行う際に、データが不均衡である場合がたびたびあります。例えば、クレジットカードの取引データで、一つの取引に対して不正利用かどうか(不正利用なら1、それ以外は0)といった値が付与されているカラムがあるとします。通常、不正利用というのは稀に起こる事象なので、不正利用かどうかが格納されているカラムに関してはほとんどが0で、1がほとんどない、という状況になりがちです。 上記の状況で不正利用を予測するようなモデル構築をする場合、目的変数として不正利用かどうかを用いることになりますが、0と1の比率が50%から極度に乖離します(1の比率が0.X%とかになる)。こういったデータで予測モデルを構築すると、往々にして負例だけを予測する(予測値がすべて0になる)モデルになりがちです。というのは、不均衡なデータの場合はそれでも「正解率(Accuracy)」が高

    Pythonでデータ分析:imbalanced-learnで不均衡データのサンプリングを行う - データサイエンティスト(仮)
    knok
    knok 2017/12/12
  • 面白い本の選び方 〜ハズレ本は読み捨て、タイトルに騙されずに翻訳本を買え! - PEAKを生きる

    (この記事はCAMPHOR- Advent Calendar 2017の10日目 の記事です。CAMPHOR-は京都のIT学生コミュニティです。学生の方はぜひ遊びに来てください。企業の方は協賛お待ちしております。) 「なんで、そんなに面白いばかり読んでるんですか?」と聞かれることがある。「そんなことはない」と思っている。僕としては、まだまだ面白いはたくさんあると思ってるし、当たりばかりを読んでいる自覚はない。もっと面白いを見つける方法を知りたいなと思ってるし、ハズレに時間を割かないようにしたいとも思っている。 それでも、「面白そうなを読んでいるな」と思われることも多いので、自分なりのの読み方・選び方を紹介してみる。またを探すために作った、自作サービスを紹介したい。 面白くないは読むのを止めよ まずは、読み方だ。を買ったら全部読まないと気が済まない人がいるが、それは間違い

    面白い本の選び方 〜ハズレ本は読み捨て、タイトルに騙されずに翻訳本を買え! - PEAKを生きる
    knok
    knok 2017/12/12
    ローカライズされうる程度の質が担保されている、という意味である程度のフィルタにはなるんだろうけど、翻訳の質が悪くてアレということがあるからなあ