並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 3 件 / 3件

新着順 人気順

解釈性の検索結果1 - 3 件 / 3件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

解釈性に関するエントリは3件あります。 機械学習tooltechnology などが関連タグです。 人気エントリには 『ニューラルネットの解釈性を高める新アプローチ、MITなど提案』などがあります。
  • ニューラルネットの解釈性を高める新アプローチ、MITなど提案

    画像認識などのタスクでニューラル・ネットワークがなぜそのように出力をするのか、これまで理由を説明できなかった。MITなどの研究チームが提唱する「KAN」と呼ばれるシンプルなニューラル・ネットワークは、その理由を説明できるかもしれない。 by Anil Ananthaswamy2024.09.05 11 この記事の3つのポイント ニューラル・ネットワークの人工ニューロンを単純化する新手法をMITなどが提案 KANと呼ばれるこの手法は解釈性に優れ、精度向上も早い 欠点は訓練に多くの時間と計算資源を要することである summarized by Claude 3 ニューラル・ネットワークで人工ニューロンが機能する方法に少し手を加えれば、人工知能(AI)の解読がもっと容易になるかもしれない。 多層ニューラル・ネットワークの基本的な構成要素である人工ニューロンは、数十年にわたりほとんど変わることなく使

      ニューラルネットの解釈性を高める新アプローチ、MITなど提案
    • SHAP を用いた機械学習への解釈性付与

      (noteの「クリエイターを応援する」で応援していただけると嬉しいです。よろしくお願いします) SHAP(SHapley Additive exPlanations)とは背景昨今では機械学習モデルに解釈性や説明性が強く求められるようになっており「説明可能なAI(Explainable AI|XAI)」が着目されるようになっている。 SHAPは、予測モデルに対してそのような解釈性を付与するために作られたライブラリ。 SHAPとは協力ゲーム理論のシャープレイ値(Shapley Value)を機械学習に応用したオープンソースのライブラリ。 SHAPを使うことで、ある機械学習モデルが導き出した予測値に対して、それぞれの特徴量の影響をどれだけ受けたか(寄与の度合い)を求めることができる。 特に、変数重要度をデータ個別に出せる点が、SHAPの魅力的な点と言える。 アウトプット例として、例えば以下の図。

        SHAP を用いた機械学習への解釈性付与
      • 山本一成🌤️TuringのCEO on X: "AIがいい手を指しても解釈性が無いと表現される一方で、羽生さんが「妙手ですね〜」といったら、とりあえずみんなが納得するの不公平感がある😵‍💫 AIのアウトプットの解釈性に疑問が呈される問題は本当は解釈性ではなくて、人間の介在による安心感や納得感がほしいだけだと思ってる。"

        1

        新着記事