2018年9月4日のブックマーク (6件)

  • 久保田晃弘「芸術作品と社会の双対性を目指して」 | ÉKRITS / エクリ

    随伴函手は至るところに現れる。ソーンダース・マックレーン『圏論の基礎』初版への序 共感と反感は、それだけでは何の役にもたちません。真理のみが人々を結びつけるのです。『ドキュメント ヨーゼフ・ボイス』共同記者会見 1. はじめに 前稿「芸術的活動の数理的描写」では、アーベル圏というホモロジー代数が展開できるように、いくつかの公理を満たした性質のいい圏を用いて、ジェームズ・ブライドルの「新しい美学」、そしてマルセル・デュシャンが「創造過程(創造的行為)」の講演で示したような、システムとしての美学(芸術作品の意味)を生み出す芸術的活動のダイナミズムを、数学的図式(スキーマ)を用いて表現した。 これまでにも、芸術に関するさまざまな過程や行為のモデルはあったが、それらは対象に合わせた恣意的なモデルになることが多く、その一般性や汎用性は限定的なものにならざるを得なかった。それに対して、前稿で提示した

    久保田晃弘「芸術作品と社会の双対性を目指して」 | ÉKRITS / エクリ
    elu_18
    elu_18 2018/09/04
    めちゃくちゃおもしろそう!と思って読んだけど、およそ2行しか理解できなかった。 芸術作品と社会の双対性を目指して / 久保田 晃弘 | ÉKRITS / エクリ https://t.co/4AmyHTCIBz
  • GitHub - VertaAI/modeldb: Open Source ML Model Versioning, Metadata, and Experiment Management

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - VertaAI/modeldb: Open Source ML Model Versioning, Metadata, and Experiment Management
    elu_18
    elu_18 2018/09/04
    ModelDB: A system to manage ML models OSSで公開されている、機械学習のモデルをend2endで管理できるシステム メトリクスなんかも見れる KatibのGUIがこのパッケージに対応していて存在をしったけど良い感じ👍 データサイエンティス
  • PFN Values - 株式会社Preferred Networks

    Motivation-Driven 熱意を元に PFNの組織文化を表す上で欠かすことができないのは、メンバーのモチベーション主導である、ということです。 モチベーションがある(つまり”熱中している”)ということは、真剣に成果と向き合っている、ということを意味します。 プロジェクトの成果に意義を見出し、強いモチベーションがあれば、私たちはそれぞれのチームのメンバーの成果にも貢献しようとします。これはチームワークで成果を出す、ということとも同義です。 このカルチャーがあるからこそ、私たちは非常にフラットで、フレキシブル、かつ高いパフォーマンスを誇る組織であり続けられるのです。 Learn or Die 死ぬ気で学べ PFNのメンバーは全員、学ぶことに非常に貪欲です。 PFNが挑戦する分野は変化の大きな分野であり、その中で私たちが最先端であり続ける為には、学ぶことが唯一の方法です。 私たちは一つ

    PFN Values - 株式会社Preferred Networks
    elu_18
    elu_18 2018/09/04
    PFNは、会社としての行動規範や、日々の意思決定の指針となる「PFN Values」を4つの項目にまとめました。 PFN Valuesは「PFNらしさ」を特徴づけるものであり、私たちはとても誇りに思っています。 https://t.co/qJXUETdGNO
  • What metrics should be used for evaluating a model on an imbalanced data set?

    I always thought the subject of metrics to be somehow confusing, specifically when the data set is imbalanced (as happens so often in our usual problems). In order to clarify things I’ve decided to test a few simple examples of an imbalanced data sets with the different type of metrics and see which reflects more correctly the model performance — ROC curve metrics — TPR and FPR or precision or rec

    What metrics should be used for evaluating a model on an imbalanced data set?
    elu_18
    elu_18 2018/09/04
    不均衡データに対してサンプリングでゴニョゴニョするってのはよくある話なのでそれなりに知識はある(つもり)だけど、その先の予測モデルを評価する際の適切なメトリクス選びは詳しくなかったのでこのエントリは
  • Critical Learning Periods in Deep Neural Networks

    elu_18
    elu_18 2018/09/04
    @ytsmiling @imenurok これですかね?間違ってたらごめんなさい Critical Learning Periods in Deep Neural Networks: https://t.co/2fkFf05C6Y
  • 関西空港の連絡橋に船が衝突 風にあおられ | NHKニュース

    関西空港海上保安航空基地によりますと、4日午後1時半すぎ、関西空港と大阪 泉佐野市を結ぶ連絡橋に船が衝突したということです。

    関西空港の連絡橋に船が衝突 風にあおられ | NHKニュース
    elu_18
    elu_18 2018/09/04
    関西空港の連絡橋に船が衝突 風にあおられ 船は空港に燃料を運ぶタンカー船で、燃料を運び終えて停泊していたところ、風にあおられて橋に衝突したということです。 (午後3時半ごろの映像) #nhk_news https://t.co/Tb39d3zY40