2016/03/17にPFIセミナーで話したスライドです。子供の言語獲得に関する非常に基本的な話と、関係しそうな機械学習の技術を紹介しました。素人なりのまとめなので、間違いなどご指摘いただけると助かります。
![ピーFIの研究開発現場](https://cdn-ak-scissors.b.st-hatena.com/image/square/93c9ce01520347962cefac319528ffb5a644ff82/height=288;version=1;width=512/https%3A%2F%2Fcdn.slidesharecdn.com%2Fss_thumbnails%2F20150218pfienv-150219020644-conversion-gate02-thumbnail.jpg%3Fwidth%3D640%26height%3D640%26fit%3Dbounds)
再びc++での文字列処理の話。 c++めんどい(´・ω・`) (2013/12/28) 長らく放置してましたが、結構アクセス数多いので追記。 wstring使うより、pficommonというライブラリをいれてustringを使うのをオススメします。stringを使うのと何も変わらず使えるので。 pficommonは他にも色々便利なので、ぜひ入れてみて下さい。 pficommon : http://pfi.github.io/pficommon/ ■wchar <-> charの変換 mbstowcs, wcstombsを使う。 wchar_t *wc; const char c[] = "あいうえお"; mbstowcs(wc, c, sizeof(c)); ■char <-> stringの変換 string -> char* : c_str()を使う。 char* -> string
サイトの構築。作品の販売。ブログの投稿。この他にもさまざまな機能があります。 ログイン サイトをはじめよう 非公開サイト このサイトは現在プライベート設定になっています。
海野です。 自然言語処理などで機械学習を行おうとすると、非常に疎なベクトル表現を使いたくなります。疎、というのはほとんどの要素が0である、という意味です。前々から疎ベクトルライブラリのパフォーマンスに関して気になっていたので、幾つか調べてみました。 Jubatus Workshopでも話したとおり、機械学習を適用しようとすると、普通は対象のデータをベクトル表現に落とします。特に言語データの場合は、それぞれの単語や文字などを特徴次元とするため、非常に疎なベクトルとなってしまいます。純粋な配列(C++で言えばstd::vector)を使ってしまうと、大量にメモリを食ってしまうため疎ベクトル専用の表現を使うのが普通です。 今日は様々な疎ベクトルライブラリのパフォーマンス比較を行おうと思います。比較したライブラリは以下のとおり。真の意味で、疎ベクトルのライブラリは、Eigenとublasだけで、残
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く