タグ

ブックマーク / tjo.hatenablog.com (7)

  • 生成AIによる「慣用表現の『乗っ取り』」と、その根底にある別の問題と - 渋谷駅前で働くデータサイエンティストのブログ

    かなり前から「ChatGPTに学術論文を(英語で)書かせると"delve"のような普段使わないような単語が多く使われるのでバレやすい」という話がSNS以下各所で頻繁に噂されていたんですが*1、最近になってこの件について面白いpreprintが発表されていたのを知りました。それがこちらです。 もう読んで字の如しで「ChatGPTが登場して以来学術論文に使われる単語のレパートリーが劇的に変わってしまった」というのを、実際に具体的なデータに基づいて示した論文です。割と短めの読みやすい論文であることと、先述したようにSNSでは頻繁に噂されていた推測を明確化したということもあり、折角ですのでこのブログで簡単に紹介してみようと思います。 Preprintあげたのでご報告!📣 ChatGPTが使いがちな英単語ってありますよね。「delve」「realm」「utilize」あたり。 (限界助教先生の記事

    生成AIによる「慣用表現の『乗っ取り』」と、その根底にある別の問題と - 渋谷駅前で働くデータサイエンティストのブログ
    stealthinu
    stealthinu 2024/06/01
    『ChatGPTのRLHFプロセスの多くがアウトソースされたナイジェリアのオペレーターたちによって行われた結果』『"delve"という単語はナイジェリア英語では比較的頻繁に用いられる』なるほど
  • Andrew Ngが説く「AIプロジェクトをいかにして始めるべきか」論 - 渋谷駅前で働くデータサイエンティストのブログ

    (Image by Pixabay) 大変に面白い記事がしばらく前のHBRに出ていて話題になっていました。筆者は、あのAndrew Ng。機械学習(ML)そして人工知能(AI)の研究者・教育者(Courseraの共同創設者)としてあまりにも有名ですが、Google BrainやBaiduのAI groupやLanding.aiを設立し率いた実務家としても著名です。 その彼が説く「AIプロジェクトをいかにして始めるべきか」論となれば、間違いなく一読の価値があることでしょう。ということで、今回のブログ記事ではそのHBR記事を取り上げることにしてみます。ただしHBRゆえいずれ翻訳記事が国内販売の日語版で出ることが予想されるため、完全な翻訳を行うのはここでは見合わせます。以前の海外記事紹介の時と同様に、引用は見出しのみに留め、内容については要約とともに僕自身の経験に基づく補足を交えて論じることと

    Andrew Ngが説く「AIプロジェクトをいかにして始めるべきか」論 - 渋谷駅前で働くデータサイエンティストのブログ
    stealthinu
    stealthinu 2019/03/05
    Andrew NG先生の「How to Choose Your First AI Project」の要約。すぐに小さい成功が出来るもので、ちょうどいい規模、価値を生み出せるプロジェクトを。
  • 『機械学習のエッセンス』はゼロからガチで機械学習を生業にしたい人が「いの一番に」読むべき一冊 - 六本木で働くデータサイエンティストのブログ

    機械学習のエッセンス -実装しながら学ぶPython,数学,アルゴリズム- (Machine Learning) 作者: 加藤公一出版社/メーカー: SBクリエイティブ発売日: 2018/09/21メディア: 単行この商品を含むブログを見る発売されてからだいぶ経ちますが、構想段階の頃より著者の「はむかず」さんこと加藤公一さんからお話を伺っていて注目していたこちらの一冊をようやく一通り読みましたので、サクッと書評めいた何かを書いてみようかと思います。 各章の概要 言うまでもなく実際の内容は皆様ご自身でお読みいただきたいのですが、これまでの書評記事同様に概要を簡単にまとめておきます。 第01章 学習を始める前に Python環境やAnacondaのインストールについての説明もなされているんですが、重要なのは後述する「書は何を含まないか」という節。ここに書の狙いの全てが書かれていると言って

    『機械学習のエッセンス』はゼロからガチで機械学習を生業にしたい人が「いの一番に」読むべき一冊 - 六本木で働くデータサイエンティストのブログ
    stealthinu
    stealthinu 2018/11/01
    はむかずさんが書かれた機械学習本。ただしニューラルネット系は含まず。
  • NNが心理学と生理学から離れていった瞬間:Back propagationに関するNature論文(1986)の意義を考える - 渋谷駅前で働くデータサイエンティストのブログ

    (Fig. 1 from Rumelhart, Hinton & Williams, Nature, 1986) これはちょっとした小ネタです。僕自身はニューラルネットワーク (Neural Network, NN)の学術的専門家でもなければ況してやNNの研究史家でもないので、たかだか僕自身がかつて脳の研究者だった頃に把握していた事由に基づいて、極めていい加減な私見を書いているに過ぎないことを予めお断りしておきます。よって、この辺の事情に詳しい方いらっしゃいましたら、後学のためにも是非ご遠慮なくツッコミを入れて下さると有難いですm(_ _)m 先日のことですが、@tmaeharaさんがこんなことを呟いておられました。 オリジナル論文 https://t.co/kXfu8jIat3 これです.当にただチェインルールで微分して勾配法しているだけにしか見えない…….— ™ (@tmaehara

    NNが心理学と生理学から離れていった瞬間:Back propagationに関するNature論文(1986)の意義を考える - 渋谷駅前で働くデータサイエンティストのブログ
    stealthinu
    stealthinu 2018/10/23
    これすごいわかる。当時BPは有用だが「不自然」という感覚で生物がやってる「真の学習理論」があるはずという感じがあった。CNN原型のネオコグニトロンも生物で可能という縛りが根底にあったし。
  • "Understanding Dropout" (Baldi, NIPS 2013) メモランダム - 渋谷駅前で働くデータサイエンティストのブログ

    ちょっと今週は忙し過ぎて新しいことに取り組んでいる時間が1秒たりとも見つからないので、少し前にやった例の弊社分析チーム論文輪読会のネタをそのまま転載しておきますorz 元ネタはこちら。 ちなみに式を丸写しするのは面倒だったので、あくまでも資料として必要な部分にしかtexは書いてませんw ということで上記リンクから元論文をDLした上で、見比べながらお読みくださいw 1 Introduction そもそもdropoutはNIPS 2012で提案されたナイスなアイデアで、汎化性能は高めるし良いことずくめ。ランダムフォレストで個々の木ごとにランダムに素性を選択するのと同じように、サンプルごとに形成されるNN同士の相関を下げ、精度向上に貢献する。 けれどもその理論的背景は今のところ不明。なので、0.5という数字にこだわる必要があるのかどうかも分からないし、層ごとに変えた方がいいんじゃないかとかそうい

    stealthinu
    stealthinu 2016/07/26
    DropoutがなぜL2正規化にあたるのかという説明になるようなのだがぜんぜんわからん。数学的に確率0.5でDropoutさせるのが一番効果的となるとのこと。
  • KerasをTensorFlowバックエンドで試してみた:「もっと多くの人に機械学習とDeep Learningを」という時代の幕開け - 渋谷駅前で働くデータサイエンティストのブログ

    (左:Keras、右:MXnet) Kaggle Masterの間ではMXnetよりさらに人気なDeep Learningフレームワークというかラッパーが、@fchollet氏の手によるKeras。 Keras Documentation 結構苦心したのですが、ようやく手元のPython環境で走るようになったので、試してみました。なおKerasの概要と全体像についてはid:aidiaryさんが詳細な解説を書いて下さっているので、そちらの方を是非お読み下さい。 追記 Kerasは人気のフレームワークなので、僕なんぞがこんなブログ記事を書く前から素晴らしい紹介記事・スクリプトが幾つもあります。こちらでは参考までに以下のお二方のものをご紹介させていただきます。 Kerasはレゴブロックを組み合わせるかのようにして、簡単にディープラーニングのモデルを作成できる便利なライブラリです。これを使って楽し

    KerasをTensorFlowバックエンドで試してみた:「もっと多くの人に機械学習とDeep Learningを」という時代の幕開け - 渋谷駅前で働くデータサイエンティストのブログ
    stealthinu
    stealthinu 2016/06/10
    Keras導入についてのいろいろ。pythonについての知識が浅いからこういうハマりどころの情報あると助かる。
  • 「正答率100%」になってしまう機械学習モデルの例を挙げてみる - 渋谷駅前で働くデータサイエンティストのブログ

    何か僕がシンガポールに出張している間に妙なニュースが流れていたようで。 京大ビッグデータ副作用論文。機械学習知らない私でも疑問なのは、@sz_drさんも指摘してるが y'=a1*SCORE+a2*ACT+a3*GeneID+b (1) という式で、GeneIDという定量的に性質を示す値でないものを線形結合に加えているところだと思う。詳しい人教えて— torusengoku (@torusengoku) 2016年1月25日 (※記事そのものへのリンクは控えました) 見る人が見れば「ああこれはleakageだな」と一瞥して終わるところなんですが、そもそもleakageってどういうことなのかピンと来ない人もいるかと思いますので、以前取り上げたデータ分析題材を例にとって実演してみようと思います。お題はこちら。 何故これを選んだかというと、このテニス四大大会データには上記で話題になっていた"Gen

    「正答率100%」になってしまう機械学習モデルの例を挙げてみる - 渋谷駅前で働くデータサイエンティストのブログ
    stealthinu
    stealthinu 2016/05/30
    leakageとは『テストデータの中にあるべき変数が学習(訓練)データに洩れて(leak)しまっていること』
  • 1