AVI WIGDERSON RECEIVES ACM A.M. TURING AWARD FOR GROUNDBREAKING INSIGHTS ON RANDOMNESS Leading Theoretical Computer Scientist Cited for Field-Defining Contributions ACM, the Association for Computing Machinery, today named Avi Wigderson as recipient of the 2023 ACM A.M. Turing Award for foundational contributions to the theory of computation, including reshaping our understanding of the role of ra
最大エントロピーモデルについての解説。 既存の資料としては、A Simple Introduction to Maximum Entropy Models for Natural Language Processing や「言語処理のための機械学習入門」(通称高村本)が詳しい。 記事中でもその用語を適宜使ったり、内容を引用したりする。 ここでは、できるだけ直感的に理解できるような説明を目指す。 まず、最大エントロピーモデルとは何か。 最大エントロピーモデルは、分類を行う時に使われる。 たとえば、あるレビューに出てきた単語(good とか bad とか)から、そのレビューがポジティブなのかネガティブなのか分類する、というようなもの。 この分類先のことをクラスと呼ぶ。 最大エントロピーモデルは識別モデルの一種。 識別モデルの他には生成モデルというものもある。 これらの違いは、レビューの例で言う
This is a list of journals that may be suitable for publishing Computational Linguistics papers. See also: Impact factors Predatory publishers Searching for papers Conferences and workshops Journals currently calling for papers Artificial Intelligence ACM Transactions on Computational Logic Artificial Intelligence Frontiers in Artificial Intelligence: Language and Computation IEEE Intelligent Syst
下巻に入って7章のサポートベクトルマシン(Support Vector Machine: SVM)を実装してみます。SVMに関しては、有名なSVMのライブラリ(libsvm)を使ったことがあるだけで、アルゴリズム詳細はPRMLで初めて学習しました。なので変なことを書いていたらコメント欄で指摘してもらえると助かります。 まずは、一番簡単な線形SVMを実装してみます。今までと同様に直線(超平面)でデータが完全に分離できる場合です。PRMLの7章には特に説明がありませんが、カーネル関数に下の線形カーネル(データのただの内積)を用いた場合に相当するようです。このカーネル関数を多項カーネルやガウシアンカーネルに変更すると線形分離不可能なデータも分類できるようになるとのこと。非線形SVMは次回ためしてみます。 まず、SVMの識別関数は、式(7.1)で表せます。 今までと違ってバイアスパラメータをまとめ
昨晩から体調がまた悪化したが、情報理論の中間試験を準備しないといけないので、午前5時に起床して作業。しかしいろいろあって一時危ういことに。普段出席を必須としていないので、中間試験の日だけ来る学生もいるし、体調が悪いから、と延期できないため、相当焦る(試験問題を作るのも採点するのも大変だということ、理解していただきたい)。1学期に2回もそういう日があるとしんどいので、期末試験一発にしたほうが自分は楽だなぁ。学生はどっちが楽なのか分からないが……。 午前中、なんとか大学に来て無事中間試験を実施する(中間試験とはいえ、前半の45分は普通の授業)。 そういえば、夏のITエンジニアインターンの情報が集まる魔法のスプレッドシートに、インターンシップの内容や期間、報酬がまとまっているので、学部生たちに授業で紹介している。最近はインターンシップのでも待遇がかなりよいので、下手に夏休みを過ごすなら、こういう
2. 分散表現 (Hinton+ 1986) • 局所表現(local representation) • 各概念に1つの計算要素 (記号, ニューロン, 次元) を割り当て • 分散表現(distributed representation) • 各概念は複数の計算要素で表現される • 各計算要素は複数の概念の表現に関与する 2015-05-31 OS-1 (2)意味と理解のコンピューティング 2 バス 萌えバス … … #2948 … … #19023840334 バス 萌えバス萌えトラック ニューロンの 興奮パターン ≒ベクトル表現 http://ja.wikipedia.org/wiki/富士急山梨バス http://saori223.web.fc2.com/ 3. 構成性(Frege 1892) • Partee (1984) • The meaning of an expres
中・長単位解析ツールComainuをリリースしました。 Comainu | 中・長単位解析ツール ダウンロードはsourceforgeからできます。 ソースファイルとモデルファイルをダウンロードしてください。 モデルファイルは解凍すると1Gくらいあるので注意してください。 中・長単位解析器 Comainu プロジェクト日本語トップページ - SourceForge.JP 長単位というのは、国語研が採用している言語の単位のことです。 国語研が構築した現代日本語書き言葉均衡コーパス(BCCWJ)では言語単位として語彙形態論研究に適した短単位と構文・意味研究に適した長単位を利用しています。 Comainuでは、このうち長単位の解析をします(短単位はMeCabとUniDibで解析します)。 長単位は短単位(単語)以上、文節以下の長さで大雑把には文節を自立語部分と付属語に分けたものが長単位となります
OUR MESSAGE We would like to introduce the mission and research directions of RIT to convey our excitement. Mission & Vision Missions of RIT is fully aligned with Rakuten's mission to empower Rakuten membership. Vision of RIT is "automation, better than human." Very impressive aspect of AI in the recent years is the demonstration of power of AI that can be better than human in tasks such as langua
One year ago, Tomáš Mikolov (together with his colleagues at Google) made some ripples by releasing word2vec, an unsupervised algorithm for learning the meaning behind words. In this blog post, I’ll evaluate some extensions that have appeared over the past year, including GloVe and matrix factorization via SVD. In case you missed the buzz, word2vec was widely featured as a member of the “new wave”
1. 西本伸志 1) 情報通信研究機構 脳情報通信融合研究センター (CiNet) 2) 大阪大学 大学院生命機能研究科 自然な知覚を支える脳情報表現の定量理解 QBiC/CiNet脳型情報処理研究会(第4回全脳アーキテクチャ勉強会) 2014/6/2 2. 専門:神経科学(実験+数理的アプローチ) 2000年 大阪大学基礎工学部 生物工学コース 中退(飛び級) 2005年 大阪大学基礎工学研究科 生物工学分野 修了 博士(理学) 初期視覚野細胞の非線形受容野解析(細胞記録) 2005-2010年 カリフォルニア大学バークレー校 博士研究員 2010-2013年 カリフォルニア大学バークレー校 アソシエート・スペシャリスト 脳内時空間・意味表象解析、脳情報デコーディング(fMRI、細胞記録) 2013年-現在 情報通信研究機構 脳情報通信融合研究センター 主任研究員 (兼任:大阪大学生命機
About J.DepP is a C++ implementation of Japanese dependency parsing algorithms [1,2,3,4]. It takes a raw sentence as input and performs word segmentation, POS tagging (thanks to MeCab), bunsetsu chunking and dependency parsing. Syntactic parsers have been believed to be (significantly) slower than front-end part-of-speech taggers, and it is rarely utilized in industry that needs to handle massive
最近の更新 (Recent Changes)2008-03-09FrontPage 最新リリース情報naist-jdic (for ChaSen) (NAIST-jdic-0.4.3)2008-07-07 14:48naist-jdic (for MeCab) (mecab-naist-jdic-0.6.3b-20111013)2011-10-13 17:31naist-jdic with "ChaSen for Windows" (ChaSen-2.4.2-1-NAIST-jdic-sjis-0.3.0)2008-03-09 10:52 Wikiガイド(Guide)Wikiの文法 リンクの種類と文法 ブロックプロセッサ 拡張文法 サイドバー プロジェクトWikiでの広告設定 サイドバー (Side Bar)このサイドバーについて このサイドバーの編集 NAIST-jd
Not your computer? Use a private browsing window to sign in. Learn more
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く