タグ

2010年7月28日のブックマーク (8件)

  • “なりたい自分”になる危険性|ガジェット通信 GetNews

    今回はkikakuguyさんのブログ『ゲーマーチ』からご寄稿いただきました。 “なりたい自分”になる危険性 “なりたい自分になる”こそ、幸せの第一条件と思ってない? みんな“なりたい自分”になろうと、努力している。それが生まれてきた意味とでも、言わんばかりに。自己実現至上主義ってやつだ。 だから、なりたいものがない人は、こぞって“自分探し”と称して海外旅行にいく。外国の世界遺産や観光地を巡っても、自分は見つからない。歩いている金髪美人に「お、あの子、胸でかいなぁ」などと思う。結局“おっぱいが好きなんだ”という自分を発見し、帰路につくのが関の山だ。 僕の場合は、昔からゲームプランナーになりたかった。夢だった。 高校時代、全国模試で偏差値38だった僕は「このままじゃいかん」と、浪人して、すごく勉強して、国立大学に入った。大学4年になって、就職活動を努力したが、世間は不況。どこもひっかからず、就

    “なりたい自分”になる危険性|ガジェット通信 GetNews
  • 結局は自分の好きなことを貫き通したやつが負け|ガジェット通信 GetNews

    表現したいものを表現するというところから、人が喜んでくれるものを表現をするというところに立つというのは、なかなか簡単にはできません。でもそれをできるのがプロなのかも。今回は岩崎夏海さんのブログ『ハックルベリーに会いに行く』からご寄稿いただきました。 結局は自分の好きなことを貫き通したやつが負け 自分の好きなことを貫くということ 最近のぼくのブームは、「世間では誤って認識されていること」をえぐり出し、それに別の価値観を与え、コンセプトとして確立することだ。 去年から、ワタナベコメディスクール *1 というお笑いタレントを養成する専門学校で講師をしているのだけれど、そこで教える中で徐々に明確になってきたのは、「結局は自分の好きなことを貫き通したやつが負ける」ということだ。 これはお笑い芸人を目指す生徒たちを見ていて気づいたことで、なおかつ授業の中でも何度となくくり返し述べてきた。何度となくくり

    結局は自分の好きなことを貫き通したやつが負け|ガジェット通信 GetNews
  • ナイーブベイズを用いたブログ記事の自動分類 - 人工知能に関する断創録

    カイ二乗値を用いた特徴選択(2010/6/25)の続きです。今まで使ってきた20 Newsgroupsというデータは英語文書でかつ元ネタがよく分からずあまり面白くなかったので、今回はこのブログ(人工知能に関する断想録)の記事を分類してみます。このブログの各記事には私の判断でカテゴリをつけています。たとえば、この記事は[機械学習][自然言語処理]です。カテゴリのリストはこのブログの左メニューにあります。この前、少し整理したので全部で18のカテゴリがあります。新しい記事を書いたとき自動でカテゴリを割り振ることはできるのでしょうか? (注)プログラミング言語はPythonを使っています。シリーズもので以前作ったコードを再利用してるので検索で飛んできた人はナイーブベイズを用いたテキスト分類(2010/6/13)から順に読んでください。 はてなダイアリーデータのダウンロードと整形 まず、はてなダイア

    ナイーブベイズを用いたブログ記事の自動分類 - 人工知能に関する断創録
  • いまさらながら、「朝まで生テレビ~若者不幸社会~」東浩紀 ”退席” に思う - 橋本治とナンシー関のいない世界で

    「上野駅から夜汽車に乗って」改題 とうとう橋治までなくなってしまった。 平成終わりの年にさらに改題してリスタート。 東浩紀が堀紘一と対立し、「もうやってらんないよ」と席を立つ騒動となった今回の朝生。ツイッターで、「退席」というつぶやきを見て、いったい何が!と思っていたが、夕べやっと、録画してた番組を見た。 かつての野坂昭如と大島渚の怒鳴り合いを知る世代としては、なんか久々の爽快感だった。東浩紀がガチで切れてたというのもあるが、この「退席」騒動で今回の放送、救われたみたいなもんだ。 パネリストはこんな感じ。 東浩紀(早稲田大学教授、批評家) 猪子寿之(チームラボ代表取締役社長) 河添誠(首都圏青年ユニオン書記長) 勝間和代(経済評論家) 清水康之(NPO法人「自殺対策支援センター ライフリンク」代表) 城繁幸(Joe's Labo代表取締役、作家) 高橋亮平(NPO法人「Rights」副代

    いまさらながら、「朝まで生テレビ~若者不幸社会~」東浩紀 ”退席” に思う - 橋本治とナンシー関のいない世界で
  • 言語処理のための機械学習入門を読んだ - 射撃しつつ前転 改

    言語処理のための機械学習入門というが出版される、という話はtwitterで知っていたのだが、8月ぐらいに出るのだろうとばかり思っていたら、なんかもう発売されているらしい。Amazonでは早速売り切れていたので、某大学生協の書籍部まで行って購入してきた。おかげで、この週末は280円で過ごすハメになってしまった。 まだざっと眺めただけだが、 ラベルを人手でつけるのに隠れマルコフモデルと言うのは来はちょっとおかしいんだけどNLPの分野だとそう表現する事が多いよ 対数線形モデルと最大エントロピーモデルは同じものだよ 出力変数の間に依存関係がなければCRFではなく対数線形モデルとか最大エントロピーモデルと表現するべきだよ といった、これまでの教科書にはあまり載っていなかったような事が載っているのはとても良いと感じた。こういった情報は、これまではどこかの大学の研究室で学ぶか、もしくはウェブ上の資料

    言語処理のための機械学習入門を読んだ - 射撃しつつ前転 改
  • BLOG::broomie.net: 機械学習の勉強を始めるには

    thriftとかhadoopなど,何やらいろいろと手を出してしまい,ここのところブログの更新が滞ってしまっていますが,今日は前から書きたかったトピックについて自分へのメモの意味も含めて記しておきたいと思います. はじめに 最近,といっても結構前からなのですが,海外のブログなどで「機械学習の勉強を始めるガイドライン」についてのエントリーがいくつか見られ,かつ,議論も少し盛り上がっています.僕は機械学習が好きなだけで,専門というにはほど遠いのですが,僕も一利用者としてはこのトピックに関してはとても興味があります. 機械学習というと,色々な数学的な知識が必要であったり,統計学や人工知能の知識も必要になったりしまったりと,専門的に学ぶ機会が無かった人にとっては興味が湧いてもなかなか始めるには尻込みしてしまうことかと思います.今日紹介するエントリーは,そんな方々にヒントになるような内容になっていると

  • BLOG::broomie.net: 各種分類器の分類精度を示した絵がおもしろい

    今日会社で多次元のデータを2次元にクールでベストプラクティスな感じでプロットするにはどうしたらいいんだろうね、やっぱ多次元尺度構成法じゃない?的な会話をしていたのだけれども、2次元にデータを落とし込むと人間にもわかるデータになって当におもしろいですよね。今日はその一例というか、いくつかの分類器の分類精度を2次元にプロットした結果を示した実験結果を解説したページを紹介します。おおーこうゆうのみたかったんだよなー!と個人的にはかなりエキサイティングな感じでした。 要約というか意訳になってしまうのですが、ページに以下のように説明されています。(細かいところは訳してません) http://home.comcast.net/~tom.fawcett/public_html/ML-gallery/pages/index.html 分類タスクの機械学習の研究では定量的な評価が重要です(精度とかACUと

  • Log In - Apache Software Foundation

    Powered by a free Atlassian Confluence Open Source Project License granted to Apache Software Foundation. Evaluate Confluence today. Čeština Dansk Deutsch Eesti English (UK) English (US) Español Français Íslenska Italiano Magyar Nederlands Norsk Polski Português Română Slovenčina Suomi Svenska Русский 中文 日語 한국어 Powered by Atlassian Confluence 7.19.20 Printed by Atlassian Confluence 7.19.20 Report