記事へのコメント1

    • 注目コメント
    • 新着コメント
    tokyocat
    tokyocat 《さらに、大規模で高性能なモデルを教師AIとして、小規模なモデルを生徒AIとして学習させることを「蒸留(distillation)」と言います》《AIは蒸留しても性能がほとんど落ちないことがよく知られています》←驚き!

    2023/10/02 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    AIはいったい何を「学習」しているのか…「生成AIにできて、コンピュータには決してできないこと」とは 「ChatGPT維持費1日7000万円」問題も解決に向かう (6ページ目)

    教師AIが生徒AIを学習させる「蒸留」 学習というのは、AIのなかにある定数を調整することを意味します。...

    ブックマークしたユーザー

    • tokyocat2023/10/02 tokyocat
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事