タグ

NLP2013に関するtnalのブックマーク (5)

  • NLP2013 3日目: 実際のアプリケーションを想定して研究する - 武蔵野日記

    朝、地下鉄で[twitter:@cocha123t]さんと合流。今回はご家族でいらしているようで、昨日[twitter:@naoinui]さんともポスターのとき一瞬だけすれ違ったのであるが、@naoinui さんとはメル友ならぬ絵はがき友 (文通というのだろうか……?) なのである。松研どうなるんでしょうかという話が出たが、どうなるのか自分もよく分からない……。いずれにせよ松研は松研としてまだまだ続いていくと思うので、自分も遠くから見守りたいと思う。 9時からは情報抽出のセッションで、[twitter:@wk_kiyoshi] くんのレビュー文書からの省略された評価情報抽出に関する発表。 柏木潔, 小町守, 松裕治. レビュー文書からの省略された属性の推定を含めた意見情報抽出. NLP2013. 1分ほど発表時間がオーバーしてハラハラしたが、かなり質疑応答が活発で、よかった。セッシ

    NLP2013 3日目: 実際のアプリケーションを想定して研究する - 武蔵野日記
  • NLP2013 2日目: 研究者は集めたほうが相乗効果がある - 武蔵野日記

    朝、栄駅で [twitter:@yotarow] くんと遭遇。名古屋は交通案内が極めて不親切に感じる。案内通り進んでいくと最終的には到達できるのだが、目的地の50mくらい近くになると突然案内が消える (案内板はあるが、行きたいところ以外の行き先への案内しか書かれていない) ので、当にそこを直進していいのか確信が持てず、目的地の近くをうろうろしてしまうのである。地下鉄のホームでも、なぜかホームなのにあらゆる案内板が別の路線を示しておらず、違うホームに下りてしまったかと誤解してしまうのだが (よくよく壁を見ると書いてある)、名古屋の人は「いまいるところがどこか」という情報より「これからどこに行くか」という情報のほうが重要なのだろうか? 9時からのセッションは「評判・感情解析」で hirotsugu-e くんが複雑な感情の同時推定に関する発表。昨日みんなあんなにしこたま飲んでいたので人が少ない

    NLP2013 2日目: 研究者は集めたほうが相乗効果がある - 武蔵野日記
  • NLP2013 1日目: 言語処理は学部生の活躍がめざましい - 武蔵野日記

    泊まっているホテル、7Fに部屋があるのだが、目の前がオフィスでけっこう丸見えなので遮光カーテンをしていて、朝起きるのがつらい。遮光カーテンは真っ暗になるのはいいのだが、日光を浴びないと人間覚醒しないのである (あと眠くなってくる)。 お昼は誤り検出・訂正ワークショップのランチミーティング。集合場所がうまく伝わっていなかったようで、受付前で合流できず、現地で全員合流できたのだが、時間を20分近くロスしてしまい、結局今日も不完全燃焼。明日は若手の会のランチミーティングがあるので金曜日に続きをやることになったが、こういうの、なんとかならないものかなぁ。(携帯電話の連絡先を知っていたら電話するとよい、ということが今日分かったので、明日から実践する) 午後は hiroshi-t くんの Twitter における流言・デマの訂正に関する発表。 高橋弘志, 小町守, 松裕治. Twitterからの多様

    NLP2013 1日目: 言語処理は学部生の活躍がめざましい - 武蔵野日記
  • NLP2013 チュートリアル: どのように解くかではなく何を解くかが重要 - 武蔵野日記

    今日から言語処理学会年次大会である。年に1度の全国大会で、日にいる言語処理の関係者 (大学の人、企業の人、学生等々) が一堂に会するイベントである。参加人数もかなり多い (600人以上) ので、お祭り的なイベントなのであるが…… 朝から新幹線で移動なので、車内で朝ご飯をべていたら、口の中に違和感。金属がご飯の中に入っている感じ。機械の部品の破片か弾丸かなにかが入っているのか? と思って恐る恐る口から出してみたら、小さな金属の塊が出てくる。こんなものが入っているなんてけしからん!と一瞬思ったが、形としてもなにかの部品のようにも思えないし、おかしいな、と思ってお茶を飲んだら、歯の詰め物が取れていたのだ、と分かる。こんなときに、なんで〜……。 幸いなことに、朝早く名古屋に着く便に乗っていたので、名古屋大学近くの歯医者さんを検索し、着いたら速攻で行って事情を話し、治療してもらう。詰め物がそのま

    NLP2013 チュートリアル: どのように解くかではなく何を解くかが重要 - 武蔵野日記
  • 組合せ最適化入門:線形計画から整数計画まで

    The document discusses hyperparameter optimization in machine learning models. It introduces various hyperparameters that can affect model performance, and notes that as models become more complex, the number of hyperparameters increases, making manual tuning difficult. It formulates hyperparameter optimization as a black-box optimization problem to minimize validation loss and discusses challenge

    組合せ最適化入門:線形計画から整数計画まで
  • 1