並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 51件

新着順 人気順

"Neural Networks"の検索結果1 - 40 件 / 51件

  • 深層学習モデルの実装を爆速にするVSCodeの設定メモ - May the Neural Networks be with you

    こんにちは。@shunk031です。 新型コロナウイルスが猛威を奮っていますね。 不要不急の外出は控えるのが大切そうです。 こういう時は引きこもって論文を読むのが一番です。 今回はコードエディタであるVSCodeで、深層学習モデルの実装を爆速にするための設定についてメモします。 深層学習モデルの実装をする際にはリモート上にあるGPUを搭載したサーバで実装をしたりデバッグすることが非常に多いです。 VSCodeはこうしたリモートでのコード編集およびデバッグを簡単に行える仕組みを多数揃えています。 本記事では、深層学習モデルの実装に頻繁に利用されるPythonを対象に、以下の観点からモデルの実装を爆速にする設定や機能について紹介します: Pythonの開発環境の構築 リモートのGPUサーバに接続するための設定 深層学習モデルの実装・デバッグを簡単にする機能 おすすめのショートカットキー・拡張機

      深層学習モデルの実装を爆速にするVSCodeの設定メモ - May the Neural Networks be with you
    • ロボット工学や自動運転などで顕在化するAI課題を解決、MIT発「Liquid Neural Networks」とは何か - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

      現在の人工知能(AI)を取り巻く環境では、 大規模言語モデル(LLM)の話題から、ますます大規模なニューラルネットワークの開発競争が起きている。しかし、すべてのアプリケーションが、大規模なディープラーニングモデルの計算量とメモリの要求をできるわけではない。 このような環境の制約が、いくつかの興味深い研究の方向性につながっている。MIT(マサチューセッツ工科大学)の CSAL(コンピュータ科学・人工知能研究所)の研究者が開発した新しいタイプのディープラーニングアーキテクチャ「Liquid Neural Networks」は、特定の AI 問題に対して、コンパクトで適応性が高く、効率的なソリューションを提供する。これらのネットワークは、従来のディープラーニングモデルに内在する課題のいくつかに対処するように設計されている。 Liquid Neural Network は AI の新たなイノベーシ

        ロボット工学や自動運転などで顕在化するAI課題を解決、MIT発「Liquid Neural Networks」とは何か - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
      • Graph Neural Networksを完全に理解したい

        社内の輪講で発表した資料です。 Graph Neural NetworksについてSpectral MethodとSpatial Methodについて代表的な手法を簡単に紹介し、更にDeep Graph Library (DGL)を用いた具体的な実装方法を紹介しています。

          Graph Neural Networksを完全に理解したい
        • 最新の深層学習技術による古典くずし字認識の現状と今後の展望 - May the Neural Networks be with you

          こんにちは。@shunk031 です。 普段は最先端の技術が大好きなパソコンのオタクですが、京都へ旅行して古き良き日本の文化に感化されました。 この記事は 法政大応情 Advent Calendar 2020 21 日目の記事です。 From http://codh.rois.ac.jp/ 今回は日本古典籍の分類タスクについて取り組んでみようと考え、近年の日本古典籍における「くずし字認識」に着目して調査をしました *1。 日本古典籍といった古文書に対して、OCR 等の文字認識技術によって文字情報をデジタル化し、それらの情報をもとに解析を行う流れは現代では自然だと考えています。 しかしながら、一般的に OCR は難しく、また古文書を機械に解析させることはさらなる困難があるのは容易に想像できます。 くずし字認識に対して、近年の取り組みでは ROIS-DS 人文学オープンデータ協働センターが K

            最新の深層学習技術による古典くずし字認識の現状と今後の展望 - May the Neural Networks be with you
          • 先生の「まずは論文の骨子を箇条書きで書いてみて」に対応する: 論文執筆の第一歩 - May the Neural Networks be with you

            こんにちは @shunk031 です。 年末年始は国内学会の締め切りが多く、研究室内で初めて論文を書く人たちが増えてくる時期です。 本記事はそのような論文執筆が初めての弊研 (彌冨研究室) B4 や M1 に向けて書きましたが、一般的に論文の書き始めに通じるところがあると思います。 この記事は 法政大学 Advent Calendar 2021 22 日目の記事です。 adventar.org 骨子って、何?というか初めて論文書くんですがどうすれば、、、。イラストはうちの先生には似ていませんが、だいたいこんな感じで言ってきます。 弊研では恒例ですが、研究が進んできて結果がまとめられそうな段階になってくると 先生 に以下のようなことを言われます。 「まずは論文の骨子を箇条書きで書いてみて!」 本記事は「論文の骨子とはどのようなものか」「箇条書きで骨子を書く場合の注意点はなにか」に焦点を当てま

              先生の「まずは論文の骨子を箇条書きで書いてみて」に対応する: 論文執筆の第一歩 - May the Neural Networks be with you
            • Introducing Triton: Open-source GPU programming for neural networks

              Triton makes it possible to reach peak hardware performance with relatively little effort; for example, it can be used to write FP16 matrix multiplication kernels that match the performance of cuBLAS—something that many GPU programmers can’t do—in under 25 lines of code. Our researchers have already used it to produce kernels that are up to 2x more efficient than equivalent Torch implementations,

                Introducing Triton: Open-source GPU programming for neural networks
              • GitHub - Kayzaks/HackingNeuralNetworks: A small course on exploiting and defending neural networks

                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                  GitHub - Kayzaks/HackingNeuralNetworks: A small course on exploiting and defending neural networks
                • A Gentle Introduction to Graph Neural Networks

                  Neural networks have been adapted to leverage the structure and properties of graphs. We explore the components needed for building a graph neural network - and motivate the design choices behind them. Hover over a node in the diagram below to see how it accumulates information from nodes around it through the layers of the network. Authors Affiliations Benjamin Sanchez-Lengeling Google Research E

                    A Gentle Introduction to Graph Neural Networks
                  • 深層学習の不確実性 - Uncertainty in Deep Neural Networks -

                    Twitter: ottamm_190 追記 2022/4/24 speakerdeck版:https://speakerdeck.com/masatoto/shen-ceng-xue-xi-falsebu-que-shi-xing-uncertainty-in-deep-neural-networks コンパクト版:https://speakerdeck.com/masatoto/shen-ceng-xue-xi-niokerubu-que-shi-xing-ru-menRead less

                      深層学習の不確実性 - Uncertainty in Deep Neural Networks -
                    • Graph Neural Networks - An overview | AI Summer

                      Over the past decade, we’ve seen that Neural Networks can perform tremendously well in structured data like images and text. Most of the popular models like convolutional networks, recurrent, autoencoders work very well on data that have a tabular format like a matrix or a vector. But what about unstructured data? What about Graph data? Is there a model that can learn efficiently from them? Probab

                        Graph Neural Networks - An overview | AI Summer
                      • 『Deep Neural Networks for YouTube Recommendations』を紹介します - dely Tech Blog

                        www.youtube.com はじめまして。 dely, Inc. の @sakura です。 この記事は Google Products Advent Calendar 2019 - Adventar の20日目の記事です。 昨日は新坂さんのGoogle Homeの記事でした。Google Homeに関する様々な実体験が書かれており、とてもほっこりするエントリでした。 polasleep.hateblo.jp 本記事では、YouTubeのレコメンドの仕組みについて書かれている論文『Deep Neural Networks for YouTube Recommendations』を紹介します。 なぜ読んだのか 本論文について イントロダクション 1.スケールの問題 2.新鮮さの問題 3.ノイズの問題 わかったこと レコメンドシステムの2層のニューラルネットワーク 暗黙的フィードバック ア

                          『Deep Neural Networks for YouTube Recommendations』を紹介します - dely Tech Blog
                        • Introducing TensorFlow Graph Neural Networks

                          Posted by Sibon Li, Jan Pfeifer and Bryan Perozzi and Douglas Yarrington Today, we are excited to release TensorFlow Graph Neural Networks (GNNs), a library designed to make it easy to work with graph structured data using TensorFlow. We have used an earlier version of this library in production at Google in a variety of contexts (for example, spam and anomaly detection, traffic estimation, YouTub

                            Introducing TensorFlow Graph Neural Networks
                          • GitHub - Anjok07/ultimatevocalremovergui: GUI for a Vocal Remover that uses Deep Neural Networks.

                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                              GitHub - Anjok07/ultimatevocalremovergui: GUI for a Vocal Remover that uses Deep Neural Networks.
                            • A Sober Look at Bayesian Neural Networks

                              by Carles Gelada and Jacob Buckman WARNING: This is an old version of this blogpost, and if you are a Bayesian, it might make you angry. Click here for an updated post with the same content. Context: About a month ago Carles asserted on Twitter that Bayesian Neural Networks make no sense. This generated lots of good discussion, including a thorough response from Andrew Gordon Wilson defending BNNs

                                A Sober Look at Bayesian Neural Networks
                              • Transformers are Graph Neural Networks

                                My engineering friends often ask me: deep learning on graphs sounds great, but are there any real applications? While Graph Neural Networks are used in recommendation systems at Pinterest, Alibaba and Twitter, a more subtle success story is the Transformer architecture, which has taken the NLP world by storm. Through this post, I want to establish a link between Graph Neural Networks (GNNs) and Tr

                                  Transformers are Graph Neural Networks
                                • Annotated history of modern AI and deep neural networks

                                  For a while, DanNet enjoyed a monopoly. From 2011 to 2012 it won every contest it entered, winning four of them in a row (15 May 2011, 6 Aug 2011, 1 Mar 2012, 10 Sep 2012).[GPUCNN5] In particular, at IJCNN 2011 in Silicon Valley, DanNet blew away the competition and achieved the first superhuman visual pattern recognition[DAN1] in an international contest. DanNet was also the first deep CNN to win

                                    Annotated history of modern AI and deep neural networks
                                  • Neural Networks: Zero To Hero

                                    A course by Andrej Karpathy on building neural networks, from scratch, in code. We start with the basics of backpropagation and build up to modern deep neural networks, like GPT. In my opinion language models are an excellent place to learn deep learning, even if your intention is to eventually go to other areas like computer vision because most of what you learn will be immediately transferable.

                                    • CS 11-747: Neural Networks for NLP

                                      Feb 2, 2021 Introduction to Simple Neural Networks (2/2/2021) Feb 4, 2021 Language Modeling, Training Tricks (2/4/2021) Feb 9, 2021 How to Build a Neural Network Toolkit (2/9/2021) Feb 11, 2021 Efficiency Tricks for Neural Nets (2/11/2021) Feb 16, 2021 Recurrent Networks for Sentence or Language Modeling (2/16/2021) Feb 18, 2021 Conditioned Generation (2/18/2021) Feb 23, 2021 Break -- No Class! (2

                                      • GitHub - poloclub/cnn-explainer: Learning Convolutional Neural Networks with Interactive Visualization.

                                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                          GitHub - poloclub/cnn-explainer: Learning Convolutional Neural Networks with Interactive Visualization.
                                        • Applications of Deep Neural Networks with Keras

                                          Deep learning is a group of exciting new technologies for neural networks. Through a combination of advanced training techniques and neural network architectural components, it is now possible to create neural networks that can handle tabular data, images, text, and audio as both input and output. Deep learning allows a neural network to learn hierarchies of information in a way that is like the f

                                          • Multimodal neurons in artificial neural networks

                                            We’ve discovered neurons in CLIP that respond to the same concept whether presented literally, symbolically, or conceptually. This may explain CLIP’s accuracy in classifying surprising visual renditions of concepts, and is also an important step toward understanding the associations and biases that CLIP and similar models learn. Fifteen years ago, Quiroga et al.[^reference-1] discovered that the h

                                              Multimodal neurons in artificial neural networks
                                            • Graph Neural Networks のビジネス応用可能性
 heterogeneous graph と論文再現性について

                                              Graph Neural Networks のビジネス応用可能性
 heterogeneous graph と論文再現性について

                                                Graph Neural Networks のビジネス応用可能性
 heterogeneous graph と論文再現性について
                                              • Closed-form continuous-time neural networks - Nature Machine Intelligence

                                                Thank you for visiting nature.com. You are using a browser version with limited support for CSS. To obtain the best experience, we recommend you use a more up to date browser (or turn off compatibility mode in Internet Explorer). In the meantime, to ensure continued support, we are displaying the site without styles and JavaScript.

                                                  Closed-form continuous-time neural networks - Nature Machine Intelligence
                                                • Keras documentation: Traffic forecasting using graph neural networks and LSTM

                                                  ► Code examples / Timeseries / Traffic forecasting using graph neural networks and LSTM Traffic forecasting using graph neural networks and LSTM Author: Arash Khodadadi Date created: 2021/12/28 Last modified: 2023/11/22 Description: This example demonstrates how to do timeseries forecasting over graphs. View in Colab • GitHub source Introduction This example shows how to forecast traffic condition

                                                    Keras documentation: Traffic forecasting using graph neural networks and LSTM
                                                  • Physics-Informed Neural Networks (PINNs)を減衰振動の運動方程式に適用してみた! - Insight Edge Tech Blog

                                                    こんにちは!Insight EdgeのData Scientistの石倉です。私は以前、地球物理学を専攻していて偏微分方程式を扱っていたのですが、最近NeurIPSやその他学会などで見られるPhysics-informed neural networks(以下、PINNs)の"Physics"に思わずアンテナが反応してしまい、色々と文献を調査してみました。そこで今回は、簡単に解析解の分かる微分方程式を用いてPINNsをTensorflowで実装してみたのでご紹介したいと思います! Physics-informed neural networks とは 減衰振動 微分方程式 Finite difference method Data-driven neural networks Physics-informed neural networks まとめ FD vs. NeuralNetwork

                                                      Physics-Informed Neural Networks (PINNs)を減衰振動の運動方程式に適用してみた! - Insight Edge Tech Blog
                                                    • The mostly complete chart of Neural Networks, explained

                                                      The zoo of neural network types grows exponentially. One needs a map to navigate between many emerging architectures and approaches. Fortunately, Fjodor van Veen from Asimov institute compiled a wonderful cheatsheet on NN topologies. If you are not new to Machine Learning, you should have seen it before: In this story, I will go through every mentioned topology and try to explain how it works and

                                                        The mostly complete chart of Neural Networks, explained
                                                      • Domain Adversarial Neural Networksについて(前編)

                                                        はじめに 先日参加したKaggleのOpenVaccine: COVID-19 mRNA Vaccine Degradation Predictionコンペティションで自分が参加していたチームではDomain Adversarial Neural Networks (DANN)と呼ばれる手法を用いていました。 結果としては、CV, Public LB, Private LBのいずれにも効いていないことが判明したのですが、Kaggleで度々話題になるAdversarial Validationとも類似した面白い技術なので、改めて紹介するとともに本当に使える手法なのかを検証していきたいと思います。 本記事は二部構成(三部構成、2020/10/25更新)になっており、前編(この記事)ではDANNの紹介と、論文中でも紹介されているMNIST/MNISTMを用いて検証を行います。後編つづく中・後編で

                                                          Domain Adversarial Neural Networksについて(前編)
                                                        • 抽出的文書要約における hetero graph の応用 Heterogeneous Graph Neural Networks for Extractive Document Summarization

                                                          ACL 2020 に採択された Heterogeneous Graph Neural Networks for Extractive Document Summarization を読んでいます。

                                                            抽出的文書要約における hetero graph の応用 Heterogeneous Graph Neural Networks for Extractive Document Summarization
                                                          • コンピュータサイエンスのトップカンファレンスが示す再現性チェックリスト - May the Neural Networks be with you

                                                            こんにちは。@shunk031 です。機械学習モデルの実験をする際の乱数シード値は 19950815 を使っています。 この記事は 法政大応情 Advent Calendar 2020 10 日目の記事です。 再現性を担保する上で多様な視点のチェック項目が必要です*1 研究において、再現性は非常に重要なポイントの 1 つです。 特に最近は機械学習や深層学習の研究における再現性について議論されております。 こうした研究において再現性を高める上で、当たり前ですが次の 2 点が重要です: 再現可能な 実装 の公開 再現可能な 論文 の公開 再現可能な実装の公開 については、先日私が寄稿した pyenv と poetry による再現可能な実験環境構築 が助けになるかもしれません。 data.gunosy.io 本記事では 再現可能な論文の公開 に焦点を当てます。 近年のコンピュータサイエンス分野に

                                                              コンピュータサイエンスのトップカンファレンスが示す再現性チェックリスト - May the Neural Networks be with you
                                                            • Top Applications of Graph Neural Networks 2021

                                                              Chinese translation is available here. At the beginning of the year, I have a feeling that Graph Neural Nets (GNNs) became a buzzword. As a researcher in this field, I feel a little bit proud (at least not ashamed) to say that I work on this. It was not always the case: three years ago when I was talking to my peers, who got busy working on GANs and Transformers, the general…

                                                                Top Applications of Graph Neural Networks 2021
                                                              • えるエル on Twitter: "深層学習の応用上のあらゆる分野を豊富な図と実装コード付きで網羅した,500ページを超えるもの凄い書籍が公開されています "Applications of Deep Neural Networks"… https://t.co/Is16BnEnMA"

                                                                深層学習の応用上のあらゆる分野を豊富な図と実装コード付きで網羅した,500ページを超えるもの凄い書籍が公開されています "Applications of Deep Neural Networks"… https://t.co/Is16BnEnMA

                                                                  えるエル on Twitter: "深層学習の応用上のあらゆる分野を豊富な図と実装コード付きで網羅した,500ページを超えるもの凄い書籍が公開されています "Applications of Deep Neural Networks"… https://t.co/Is16BnEnMA"
                                                                • Equivariant Neural Networksの概論:群論を用いた深層学習の設計の進展 - Fire Engine

                                                                  最近、Equivariant Neural Networksというデータの対称性に着目した深層学習の設計の新しいパラダイムの存在を知り、非常に興味を持っている。Equivariant Neural Networksは、深層学習の更なる汎化性能の向上や学習の効率化、適用分野の拡大などを実現する可能性を秘めている。今回は、Equivariant Neural Networksとは何なのか、これまでの研究事例、どういう分野で応用できるのかなど、最近私が学んだことを概論的にまとめていく。 目次 Equivariant Neural Networksの概要 不変性と同変性 群論との関係 Geometric Deep Learningとの関係 CNNと同変性 様々なEquivariant Neural Networks Group Equivariant Convolution Networks (2

                                                                    Equivariant Neural Networksの概論:群論を用いた深層学習の設計の進展 - Fire Engine
                                                                  • Deep Neural Networks and Tabular Data: A Survey

                                                                    Heterogeneous tabular data are the most commonly used form of data and are essential for numerous critical and computationally demanding applications. On homogeneous data sets, deep neural networks have repeatedly shown excellent performance and have therefore been widely adopted. However, their adaptation to tabular data for inference or data generation tasks remains challenging. To facilitate fu

                                                                    • Techniques for training large neural networks

                                                                      An illustration of various parallelism strategies on a three-layer model. Each color refers to one layer and dashed lines separate different GPUs. Training a neural network is an iterative process. In every iteration, we do a pass forward through a model’s layers to compute an output for each training example in a batch of data. Then another pass proceeds backward through the layers, propagating h

                                                                        Techniques for training large neural networks
                                                                      • Neural Networks Emulate Any Guitar Pedal For $120

                                                                        It’s a well-established fact that a guitarist’s acumen can be accurately gauged by the size of their pedal board- the more stompboxes, the better the player. Why have one box that can do everything when you can have many that do just a few things? Jokes aside, the idea of replacing an entire pedal collection with a single box is nothing new. Your standard, old-school stompbox is an analog affair,

                                                                          Neural Networks Emulate Any Guitar Pedal For $120
                                                                        • Emergent linguistic structure in artificial neural networks trained by self-supervision | PNAS

                                                                          Emergent linguistic structure in artificial neural networks trained by self-supervision View ORCID ProfileChristopher D. Manning, Kevin Clark, View ORCID ProfileJohn Hewitt, Urvashi Khandelwal, and Omer Levy

                                                                            Emergent linguistic structure in artificial neural networks trained by self-supervision | PNAS
                                                                          • Speeding up neural networks using TensorNetwork in Keras

                                                                            Posted by Marina Munkhoeva, PhD student at Skolkovo Institute of Science and Technology and AI Resident at Alphabet's X, Chase Roberts, Research Engineer at Alphabet's X, and Stefan Leichenauer, Research Scientist at Alphabet's X Introduction In this post, we’re going to talk about TensorNetwork, and how it can be used to supercharge a feed-forward neural network in TensorFlow. TensorNetwork is an

                                                                              Speeding up neural networks using TensorNetwork in Keras
                                                                            • US10452978B2 - Attention-based sequence transduction neural networks - Google Patents

                                                                              US10452978B2 - Attention-based sequence transduction neural networks - Google Patents Attention-based sequence transduction neural networks Download PDF Info Publication number US10452978B2 US10452978B2 US16/021,971 US201816021971A US10452978B2 US 10452978 B2 US10452978 B2 US 10452978B2 US 201816021971 A US201816021971 A US 201816021971A US 10452978 B2 US10452978 B2 US 10452978B2 Authority US Unit

                                                                              • DeepMind Researchers Introduce Epistemic Neural Networks (ENNs) For Uncertainty Modeling In Deep Learning

                                                                                Deep learning algorithms are widely used in numerous AI applications because of their flexibility and computational scalability, making them suitable for complex applications. However, most deep learning methods today neglect epistemic uncertainty related to knowledge which is crucial for safe and fair AI. A new DeepMind study has provided a way for quantifying epistemic uncertainty, along with ne

                                                                                  DeepMind Researchers Introduce Epistemic Neural Networks (ENNs) For Uncertainty Modeling In Deep Learning
                                                                                • Neural Networks and the Chomsky Hierarchy

                                                                                  Reliable generalization lies at the heart of safe ML and AI. However, understanding when and how neural networks generalize remains one of the most important unsolved problems in the field. In this work, we conduct an extensive empirical study (20'910 models, 15 tasks) to investigate whether insights from the theory of computation can predict the limits of neural network generalization in practice