Parameter-efficient fine-tuning (PEFT) techniques have unlocked the potential to cheaply and easily specialize large pretrained models. However, the most prominent approaches, like low-rank adapters (LoRA), depend on heuristics or rules-of-thumb for their architectural choices -- potentially limiting their performance for new models and architectures. This limitation suggests that techniques from
Radiance Field methods have recently revolutionized novel-view synthesis of scenes captured with multiple photos or videos. However, achieving high visual quality still requires neural networks that are costly to train and render, while recent faster methods inevitably trade off speed for quality. For unbounded and complete scenes (rather than isolated objects) and 1080p resolution rendering, no c
理化学研究所(理研)脳神経科学研究センターの磯村拓哉ユニットリーダーらの国際共同研究グループは、どのような神経回路も「自由エネルギー原理[1]」と呼ばれる近年注目される脳理論に従っており、潜在的に統計学的な推論[2]を行っていることを数理解析により明らかにしました。 本研究成果は、自由エネルギー原理の神経基盤への理解を進め、将来的には精神疾患の早期診断・治療への応用や、ヒトのように学習する脳型コンピュータ・人工知能の開発に貢献すると期待できます。 私たちは目や耳から受けた感覚入力が背後の原因からつくられる仕組みを推論することで、将来を予測し適切に行動できます。自由エネルギー原理は、それらを統一的に説明できる脳の理論です。しかし、脳の基本単位である神経細胞やシナプス結合[3]がどのように自由エネルギー原理を実装しているかは未解明です。 今回、国際共同研究グループは、神経活動の方程式から神経生
先回まで、ツイスター空間論についていくらか述べてきた。ツイスター空間論は、もちろん、その母体はツイスター理論である。ツイスター理論は、ロジャー・ペンローズにより提唱された理論であることをご存じの方も多いであろう。ツイスター理論は、物理理論であるが、物理理論としてはほぼ成功はしてない。場の方程式の幾何学的解釈を与えたのであるが、その考え方は数学に大きな影響を与えたが、物理的には何も新しいことは言えなかったようである。物理的な成功とは、理論から何か新しい事柄が予言され、それが実験で確かめられるということであるが、そういった成功は、ツイスター理論においては、皆無のようである。ただ、ツイスター理論は失敗した理論でもないと思われる。ツイスター理論の考え方は、場と幾何学の関係性に関して、数学に大きな影響を与えた。私は、その影響に感銘を受けて、今、ツイスター空間論について、勉強しもって、このブログを書い
こんにちは。ZENKIGENデータサイエンスチームの川﨑です。所属チームでXアカウントを運用しており、AIに関する情報を発信していますのでご興味あれば覗いてみてください。 論文は以下になります。 図1. 提案手法のアーキテクチャ。SZTU-CMU at MER2024: Improving Emotion-LLaMA with Conv-Attention for Multimodal Emotion Recognitionより引用。 MER2024コンペについて 本コンペはIJCAIにて開催されました、マルチモーダル感情認識のコンペです。 感情認識を多様な状況に適用する観点を重視した課題設定しており、コンペは3種類に分かれています。本論文ではMER-NOISE, MER-OVに参加しています。 MER-SEMI ラベル付きデータ以外に、大量のラベルなしデータが与えられています。 MER-
これは何 RAGの構築そのものよりも RAGの回答品質を上げるためにどの指標をどう使うか RAGの回答品質を上げるために人手でやるべき評価は何か RAGの回答品質が十分であることをどのように確かめるか に焦点を充てた考え方の整理 基本的にはRAG評価フレームワークで有名なOSSのRAGASの指標や用語を使うが、一部大胆に拡張する。 今回、RAGで参照するドキュメントは規定やマニュアル等の「自組織で作成・管理している」「他組織で作る場合も全体像は把握できている」ケースを想定しており、例えばWeb検索で幅広に情報収集するケースは想定していない。自前でRAGを作りたい場合は、独自のドキュメントで特化型のRAGを作りたい!が大半のはず 用語の全体像。以下、この図の解説 人力質問応答(問い合わせ窓口・ヘルプデスク)対応 用語 real question 実際のユーザからの質問内容 質問内容に直接関係
楕円曲線の集合を考えると,その集合自体もまた楕円曲線とみなせる,という話について書きます.基本的にこの記事は三枝洋一先生の『数論幾何入門』1を参考にしています.この本は易しく,数論幾何に入門するのにとても良い本だと思うのでその方面に興味のある人はぜひ読んでみてください. 準備楕円曲線とはこの記事で楕円曲線とは,ある$a_0,a_1,a_2\in \mathbb{C}$を用いて$y^2=x^3+a_2x^2+a_1x+a_0$という形の式で定義される$\mathbb{C}^2$の部分集合 $E=\{(x,y)\in \mathbb{C}^2 \mid y^2=x^3+a_2x^2+a_1x+a_0\}$ のこととします. ただし,$y=0$として得られる$x$の方程式 $0=x^3+a_2x^2+a_1x+a_0$ が$\mathbb{C}$の範囲で重根を持たないという条件を課すことにします
雑感 Tensor の扱い自体は numpy や TensorFlow と似たような感じであり扱いやすい。自動微分の機能に関しては、TensorFlow がオンにするときに with tf.GradientTape() を使ってアクティベートするのに対し、Pytorch はデフォルトでオンであり、オフにするときに with torch.no_grad() で無効化する。 計算グラフは TensorFlow よりも Pytorch のほうが密接に Tensor に結びついていて、暗黙的にいろいろやってくれてしまう雰囲気を感じる。実装者が意識しなくても勝手にやってくれるという点では便利かもしれないが、逆に言えば意識してないことを勝手にやられる可能性があるので TensorFlow よりも挙動に注意を払わなければならない気がする。
どんな記事? 以下は"Inside Deep Learning"という本に載っているGANの訓練ループの一部です.(見やすいように一部編集しています) optimizerD = torch.optim.AdamW(D.parameters()) optimizerG = torch.optim.AdamW(G.parameters()) G_losses = [] D_losses = [] for epoch in tqdm(range(num_epochs)): for data, class_label in tqdm(train_loader, leave=False): real_data = data.to(device) y_real = torch.full((batch_size,1), real_label, dtype=torch.float32, device=de
Learn Get Started Run PyTorch locally or get started quickly with one of the supported cloud platforms Tutorials Whats new in PyTorch tutorials Learn the Basics Familiarize yourself with PyTorch concepts and modules PyTorch Recipes Bite-size, ready-to-deploy PyTorch code examples Intro to PyTorch - YouTube Series Master PyTorch basics with our engaging YouTube tutorial series
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く