タグ

2024年1月8日のブックマーク (15件)

  • 私は東浩紀に負けた - jun-jun1965の日記

    はい、東さん、三島由紀夫賞受賞だそうで、おめでとうございます。あれは面白い小説でした。 「任期付き」といっても人気があるようなので更新されるのでしょう。30代で早大教授。なに、東大でなくてもいいではありませんか。 何も一回りも年下の人相手に勝ったの負けたのやらなくてもいいようなものですが、私なんぞ小説を書いても芥川賞も三島賞も候補にすらならないし、もう教授になる見込みなんかないんだから、もうこれは負けた、でしょう。 いくらデリダやポストモダンが学問的詐欺でも、東が留学もしたことがなくても、人気のある者が勝ちなのであります。まあ東さんは東大学術博士(しかも私と同じ超域文化科学)だから文句ありませんが、もう今や、漫画やアニメ評論をやっていれば、大学院なんか行ってなくても大学教授になれるご時世です。何? 大学にこだわるお前は権威主義だ? 冗談言っちゃいけません。給料がもらえるほうがいいに決まって

    私は東浩紀に負けた - jun-jun1965の日記
  • 仲正昌樹のソーカル事件をめぐる記事について|しんかい37(山川賢一)

    仲正昌樹さんが「月刊極北」の連載で、ソーカル事件にたいして意味はないという話を以前からしている。 訳が分かっていないのに、「ポモはダメ!」と言いたがる残念な人達 http://meigetu.net/?p=2781 ソーカル教にすがりついてしまう廃人たち http://meigetu.net/?p=3065 哲学や文学研究はカンタンだと思っている連中の大言壮語 http://meigetu.net/?p=3142 ○×脳の恐怖 http://meigetu.net/?p=5151 さらに、最近三か月の連載は、すべてソーカル絡みの内容だ。ここではぼくも批判されている。 自分の脳内陣取りゲームを現実と思い込み、「お前は追いつめられている! 俺がそう思うんだから間違いない!」、と絶叫するソーカル病患者たちの末期症状 http://meigetu.net/?p=5361 ポストモダンをめぐる大陰謀

    仲正昌樹のソーカル事件をめぐる記事について|しんかい37(山川賢一)
  • 平気でデタラメを書く仲正昌樹というアカデミズムの恥部|南井三鷹の言ってみた|南井三鷹の文藝✖︎上等

    商業主義に堕した出版界など知の表層のさらに表層でしかない。ファッションを突き抜けた言語世界の「深さ」をキミは見ない? 見たか。 論理を操れず罵倒するだけなのに「学者」を名乗る売文屋 先頃、金沢大学教授の仲正昌樹が講談社現代新書から『ヘーゲルを越えるヘーゲル』を出しました。 仲正は〈フランス現代思想〉を専門にしているとも思えない(彼の留学先はドイツです)のに、フランスのポストモダン思想関連のをたくさん出しています。 まともなアカデミシャンなら到底ありえないことですので、現代の売れ筋の思想に媚びてを売っている売文屋であると僕は思っています。 (この人の専門的な思想書を屋で見かけたことがあるでしょうか。それよりも参考書的な講義録みたいなばかり出している印象です) 最近、仲正は上述したヘーゲルと題したを出したのですが、〈フランス現代思想〉は基的に反ヘーゲルの立場だけに、これまで仲正が扱

    平気でデタラメを書く仲正昌樹というアカデミズムの恥部|南井三鷹の言ってみた|南井三鷹の文藝✖︎上等
    yudukikun5120
    yudukikun5120 2024/01/08
    “売文屋”
  • Attention Is All You Need

    The dominant sequence transduction models are based on complex recurrent or convolutional neural networks in an encoder-decoder configuration. The best performing models also connect the encoder and decoder through an attention mechanism. We propose a new simple network architecture, the Transformer, based solely on attention mechanisms, dispensing with recurrence and convolutions entirely. Experi

  • Jupyterもいいけど、SageMath使って可能性もっと伸ばそう! - dely Tech Blog

    はじめに こんにちは。dely開発部の辻です。 記事はdely Advent Calendar 2019の4日目の記事です。 qiita.com adventar.org 昨日は弊社CXO坪田が「突破するプロダクトマネジメント」という記事を書きました! プロダクトマネージメントっていつの時代も課題山積ですよね。弊社も多分に漏れずたくさんの課題を抱えているわけですが、それらをどのように突破していくか様々な観点からの具体的な取り組みが書かれていますので興味のある方は是非読んでみてください。南無。 blog.tsubotax.com さて日は「Jupyterもいいけど、SageMath使って可能性もっと伸ばそう!」ということで、普段Jupyter Notebook使ってるという人向けに、どうせならSageMathを使ってやれること増やしませんか?という内容になっています。そこで、SageMa

    Jupyterもいいけど、SageMath使って可能性もっと伸ばそう! - dely Tech Blog
  • ナップサック問題 - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "ナップサック問題" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2016年9月) ナップサック問題 ナップサック問題(ナップサックもんだい、Knapsack problem)は、計算複雑性理論における計算の難しさの議論の対象となる問題の一つで、n 種類の品物(各々、価値 vi、重量 wi)が与えられたとき、重量の合計が W を超えない範囲で品物のいくつかをナップサックに入れて、その入れた品物の価値の合計を最大化するには入れる品物の組み合わせをどのように選べばよいか」という整数計画問題である。同じ種類の品物を1つまでしか入れられない場合(

    ナップサック問題 - Wikipedia
  • 《日経Robotics》その場で学習するIn-Context Learningはどのように実現されるのか

    大規模言語モデル(LLM)は大量のテキスト、書籍、プログラムを基に事前学習しているおかげで大量の知識を蓄え、それを利用した問題解決ができる。LLMのもう1つの代表的な能力としてその場で学習を行っていることが挙げられる。 一般に機械学習は学習フェーズと推論フェーズから成り、学習フェーズのみパラメータを調整することで学習し、推論フェーズはパラメータは固定した上で利用するため推論フェーズには学習できないようにみえる。 しかし、LLMは推論フェーズで、新たにいくつか訓練事例を与えた後に後続して解きたい問題を与えることでFew-Shot学習を実現し、問題を解く能力を大幅に改善できる1)。さらに、ロールを与えたり(例:プロンプトに「あなたはプロの翻訳家です」を与える)、問題を順を追って解くように指示したり(「段階的に問題を解いてください」を与える)することで問題解決能力が大きく改善することが分かってい

    《日経Robotics》その場で学習するIn-Context Learningはどのように実現されるのか
    yudukikun5120
    yudukikun5120 2024/01/08
    本文中学習
  • Meta-learning (computer science) - Wikipedia

  • 多層パーセプトロン - Wikipedia

    多層パーセプトロン(たそうパーセプトロン、英: Multilayer perceptron、略称: MLP)は、順伝播型ニューラルネットワークの一分類である。MLPは少なくとも3つのノードの層からなる。入力ノードを除けば、個々のノードは非線形活性化関数を使用するニューロンである。MLPは学習のために誤差逆伝播法(バックプロパゲーション)と呼ばれる教師あり学習手法を利用する[1][2]。その多層構造と非線形活性化関数が、MLPと線形パーセプトロンを区別している。MLPは線形分離可能ではないデータを識別できる[3]。 多層パーセプトロンは時折、特に単一の隠れ層を持つ時、「バニラ」ニューラルネットワークと口語的に呼ばれることがある[4]。 理論[編集] 活性化関数[編集] 多層パーセプトロンが全てのニューロンにおいて線形活性化関数、すなわち、個々のニューロンの出力に重み付けされた入力(英語版)を

    多層パーセプトロン - Wikipedia
  • mimium

    mimium(MInimal-Musical-medIUM) An Infrastructural Programming Language for Sound and Music mimium (MInimal-Musical-medIUM) は音楽の記述/生成に特化したプログラミング言語です。 mimiumは音楽プログラミング言語を音楽科やプログラマーのためのツールとしてだけではなく、ソースコードという形で音楽を配布するための基盤:インフラストラクチャーとなるべく設計され、開発されています。 この言語では、低レベルの信号処理から作曲レベルの長い時間軸を扱う表現まで、サンプル単位での制御処理を含めてシンプルな文法で記述ができます。実行にはLLVMというコンパイラ基盤を採用する事でC++等の低レベル言語に匹敵する処理性能を発揮することが可能です。 これらの仕様や文法はいくつかのモダンな音声

    mimium
  • 全俳句データベース

    ぜんぶの俳句のデータベースです

    全俳句データベース
  • 人間のフィードバックによる強化学習 - Wikipedia

    人間のフィードバックによる強化学習(英: reinforcement learning from human feedback、RLHF)は、AIモデルの出力において「人間の価値基準(人間の好み)」が反映されるための学習プロセスで、主にChatGPTなど高性能な会話型AIの学習プロセスに採用されている。 概要[編集] 機械学習では、人間のフィードバックによる強化学習(RLHF)は、人間のフィードバック(反応)から直接に「報酬モデル」を訓練し、そのモデルを報酬関数として使用して、近位方策最適化(英語版)などの最適化アルゴリズムによる強化学習(RL)を介してエージェントの方策を最適化する技術である[1][2]。報酬モデルは、特定の出力が良い(報酬が高い)か悪い(報酬が低い)かを予測するために、最適化される方針に合わせて事前に訓練される。RLHFは、特に報酬関数が疎であったりノイズ(英語版)が多

  • Universal approximation theorem - Wikipedia

    This article may be too technical for most readers to understand. Please help improve it to make it understandable to non-experts, without removing the technical details. (July 2023) (Learn how and when to remove this message) In the mathematical theory of artificial neural networks, universal approximation theorems are theorems[1][2] of the following form: Given a family of neural networks, for e

    yudukikun5120
    yudukikun5120 2024/01/08
    万能近似定理
  • The Bitter Lesson

    Rich Sutton March 13, 2019 The biggest lesson that can be read from 70 years of AI research is that general methods that leverage computation are ultimately the most effective, and by a large margin. The ultimate reason for this is Moore's law, or rather its generalization of continued exponentially falling cost per unit of computation. Most AI research has been conducted as if the computation ava

    yudukikun5120
    yudukikun5120 2024/01/08
    “the statistical methods won out over the human-knowledge-based methods”
  • Rich Sutton's Home Page

    Richard S. Sutton, FRS FRSC Research Scientist, Keen Technologies Professor, Department of Computing Science, University of Alberta Principal Investigator, Reinforcement Learning and Artificial Intelligence Lab Chief Scientific Advisor, Alberta Machine Intelligence Institute (Amii) Senior Fellow, CIFAR Department of Computing Science 3-13 Athabasca Hall Edmonton, Alberta Canada T6G 2E8 email rsutt