ロボットは井戸端会議に入れるでしょうか.はっきり言っていまは無理です.「井戸ロボの実現」をキャッチコピーに言語学,認知科学,情報学,社会学,ロボット工学など,さまざまな研究者が集う仕組みを提案しています. 関連プロジェクト NIIグランドチャレンジ「情報環境を支える日常的インタラクションデータ収録のためのプラットフォーム構築」(2009-2012) 本課題ではデータ収録における個人情報の保護とプライバシーの侵害の問題と,日常的インタラクションデータの豊かさと多様性の維持を統一的に検討するべき課題と位置づけ,日常的インタラクションデータ収録のためのプラットフォーム構築を目指す.これまで個々のプロジェクトが独自の手法で回避してきた個人情報に関する問題に対する統一的手法を確保した上で,日常的なインタラクションデータを収録・集積するためのモデルケースとなる手法を構築する.そして,それを広く公開する
はじめに Rousseau et al., Graph-of-word and TW-IDF: New Approach to Ad Hoc IR http://www.lix.polytechnique.fr/~rousseau/papers/rousseau-cikm2013.pdf 文書dのグラフ的表現とそこから計算されるTW-IDFというTermの重み付けについて、メモ。 Graph of Word 文書を重みなし有向グラフで表現 頂点: 各(unique)term 辺: 固定幅(4ぐらい?)の窓内のtermとの共起 辺の向き: termの出現順序(前から後ろ方向のみ) 多重辺にはしない TW-IDF TW-IDF(t,d) = tw(t,d) / (1-b+b*|d|/avdl) * log( (N+1) / df(t) ) tw(t,d): 文書dのgraph of word表
* NTT daichi@cslab.kecl.ntt.co.jp 2011 2011-3-10(Fri), z PDF : http://chasen.org/~daiti-m/paper/nlp2011semiseg.pdf – , “ ” z ( , , , ...) – ...(Brain damaged!) Twitter Blog z (“ ”,“ ”,“ ”...) – z ... CSJ (+, ACL2009) z , – : NPYLM (Nested Pitman-Yor LM) 1 2 10 50 100 200 NPYLM as a Semi-Markov model z Semi-Markov HMM (Murphy 02, Ostendorf 96) +MCMC z (n ) BOS EOS Æ z , – “ ”, “ ” – “ ”Æ“ ”, “ ”Æ“
はじめに 単語をベクトルや確率分布などの数学的表現で扱いたい場合があったりする。 しかし、「どのようなベクトル・確率分布にすべきか?」などはタスクに依存したりして、自明じゃない。 たくさんあって、派生や新しいものもどんどんでていると思うので、どんなものがあるか調べたかぎりメモ。 One hot表現 各次元が「その単語か否か」を表すベクトルで表現 次元の大きさ=ボキャブラリ数 例: スカイツリー = (「船」か否か, 「スカイツリー」か否か, ... ) = (0,1,0,...) 素性のどれか1つしか1にならなくてスパースネスの問題がでる 未知語はゼロベクトルになってしまう 文字nグラムによる表現 単語の表層から得られる情報を利用 単語に出現している文字nグラムを利用 カタカナ語とか有効そう 例: スカイツリー = (「スカ」の出現回数, 「カイ」の出現回数, 「イツ」の出現回数, 「アア
2. 玉川 奨 twitter : s_tamagawa 2 2011年3月 慶應義塾大学理工学研究科 前期博士(修士)課程 卒業 2011年4月 慶應義塾大学理工学研究科 助教 就任 2012年4月 学術振興会 特別研究員(DC2) 2014年3月 慶應義塾大学理工学研究科 後期博士課程 修了 2014年4月 株式会社サイバーエージェント 入社 研究テーマ : 日本語Wikipediaからの 大規模オントロジー学習 研究室 : 慶應大学理工学部 山口高平研究室(知識工学系) Keyword : オントロジー, セマンティックWeb, Linked Open Data, 質問応答, 自然言語処理 3. 目次 1. オントロジーと日本語Wikipediaオントロジー 1.1. オントロジーとは 1.2. 日本語Wikipediaオントロジー概要 1.3. 日本語Wikipediaオントロジー
By JD Hancock 英語の文章を入力すれば1秒にも満たないうちにその文章の優劣を自動で判定してくれるソフトウェアが開発されており、アメリカの一部の高等教育の現場では課題レポートの評価に活用されています。しかし、このような文章判定ソフトに懐疑的な学者が、自ら「美しい英語の文章」を自動生成するソフトを作り、自動生成させた文章を文章判定ソフトに判定させることで、いかに文章判定ソフトが無能で使えないかを実証しています。 Writing Instructor, Skeptical of Automated Grading, Pits Machine vs. Machine - Technology - The Chronicle of Higher Education http://chronicle.com/article/Writing-Instructor-Skeptical/1462
2023年3月をもちましてこちらのページの更新を停止します。ご活用いただき、ありがとうございました。 自然言語処理を学ぶことができる研究室をリストアップします。自然言語処理の研究をしている(= 国内では言語処理学会を主な研究発表の場所としている)教員が2名以上いる大学が対象です(私立大学は早稲田大学と法政大学と豊田工業大学です)。うち、教員が1研究室で3人以上いるのは北大荒木研、東北大乾研、筑波大山本研、東工大奥村研、名大外山研、京大黒橋研、NAIST中村研(ただし中村先生定年のため2022年現在募集停止)、NAIST渡辺研、NAIST荒牧研です。教員が1人だけしかいない研究室と、3人以上いる研究室(特に博士後期課程の在学生が多いところと)は質的にも量的にも違うと思いますので、博士後期課程に進学するつもりの人は、少なくとも1カ所はそれらの研究室を見学したほうがよいでしょう。博士前期課程から
SF作家・山本弘のblogです。小説・アニメ・特撮・マンガから時事問題にいたるまで、いろんな話題を取り上げていきます。 HPはこちら。 山本弘のSF秘密基地 http://kokorohaitsumo15sai.la.coocan.jp/ そもそもなぜ「差別語規制」「禁句集」なんてものが生まれたのか。その歴史的経緯を知らない人が多いようなので、解説しておく。 1970年代まで、マスコミには言葉の規制なんてなかった。 僕がよく例に挙げるのは、『ウルトラマン』の第2話、これからバルタン星人との交渉に赴こうとするイデ隊員が言う。 「そりゃあ僕は宇宙語に関してはかなり気ちがいさ。でも、本当の宇宙人と喋った経験はないからね」 この場合の「気ちがい」という言葉には侮蔑的ニュアンスはない。自分は宇宙語を熱心に勉強しているという肯定的なニュアンスで発せられている。 僕が子供の頃、日本人はみんな「気ちがい」
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く