並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 58件

新着順 人気順

"Neural Networks"の検索結果1 - 40 件 / 58件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

"Neural Networks"に関するエントリは58件あります。 機械学習pythonPython などが関連タグです。 人気エントリには 『深層学習モデルの実装を爆速にするVSCodeの設定メモ - May the Neural Networks be with you』などがあります。
  • 深層学習モデルの実装を爆速にするVSCodeの設定メモ - May the Neural Networks be with you

    こんにちは。@shunk031です。 新型コロナウイルスが猛威を奮っていますね。 不要不急の外出は控えるのが大切そうです。 こういう時は引きこもって論文を読むのが一番です。 今回はコードエディタであるVSCodeで、深層学習モデルの実装を爆速にするための設定についてメモします。 深層学習モデルの実装をする際にはリモート上にあるGPUを搭載したサーバで実装をしたりデバッグすることが非常に多いです。 VSCodeはこうしたリモートでのコード編集およびデバッグを簡単に行える仕組みを多数揃えています。 本記事では、深層学習モデルの実装に頻繁に利用されるPythonを対象に、以下の観点からモデルの実装を爆速にする設定や機能について紹介します: Pythonの開発環境の構築 リモートのGPUサーバに接続するための設定 深層学習モデルの実装・デバッグを簡単にする機能 おすすめのショートカットキー・拡張機

      深層学習モデルの実装を爆速にするVSCodeの設定メモ - May the Neural Networks be with you
    • ロボット工学や自動運転などで顕在化するAI課題を解決、MIT発「Liquid Neural Networks」とは何か - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

      現在の人工知能(AI)を取り巻く環境では、 大規模言語モデル(LLM)の話題から、ますます大規模なニューラルネットワークの開発競争が起きている。しかし、すべてのアプリケーションが、大規模なディープラーニングモデルの計算量とメモリの要求をできるわけではない。 このような環境の制約が、いくつかの興味深い研究の方向性につながっている。MIT(マサチューセッツ工科大学)の CSAL(コンピュータ科学・人工知能研究所)の研究者が開発した新しいタイプのディープラーニングアーキテクチャ「Liquid Neural Networks」は、特定の AI 問題に対して、コンパクトで適応性が高く、効率的なソリューションを提供する。これらのネットワークは、従来のディープラーニングモデルに内在する課題のいくつかに対処するように設計されている。 Liquid Neural Network は AI の新たなイノベーシ

        ロボット工学や自動運転などで顕在化するAI課題を解決、MIT発「Liquid Neural Networks」とは何か - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
      • Graph Neural Networksを完全に理解したい

        社内の輪講で発表した資料です。 Graph Neural NetworksについてSpectral MethodとSpatial Methodについて代表的な手法を簡単に紹介し、更にDeep Graph Library (DGL)を用いた具体的な実装方法を紹介しています。

          Graph Neural Networksを完全に理解したい
        • 最新の深層学習技術による古典くずし字認識の現状と今後の展望 - May the Neural Networks be with you

          こんにちは。@shunk031 です。 普段は最先端の技術が大好きなパソコンのオタクですが、京都へ旅行して古き良き日本の文化に感化されました。 この記事は 法政大応情 Advent Calendar 2020 21 日目の記事です。 From http://codh.rois.ac.jp/ 今回は日本古典籍の分類タスクについて取り組んでみようと考え、近年の日本古典籍における「くずし字認識」に着目して調査をしました *1。 日本古典籍といった古文書に対して、OCR 等の文字認識技術によって文字情報をデジタル化し、それらの情報をもとに解析を行う流れは現代では自然だと考えています。 しかしながら、一般的に OCR は難しく、また古文書を機械に解析させることはさらなる困難があるのは容易に想像できます。 くずし字認識に対して、近年の取り組みでは ROIS-DS 人文学オープンデータ協働センターが K

            最新の深層学習技術による古典くずし字認識の現状と今後の展望 - May the Neural Networks be with you
          • 先生の「まずは論文の骨子を箇条書きで書いてみて」に対応する: 論文執筆の第一歩 - May the Neural Networks be with you

            こんにちは @shunk031 です。 年末年始は国内学会の締め切りが多く、研究室内で初めて論文を書く人たちが増えてくる時期です。 本記事はそのような論文執筆が初めての弊研 (彌冨研究室) B4 や M1 に向けて書きましたが、一般的に論文の書き始めに通じるところがあると思います。 この記事は 法政大学 Advent Calendar 2021 22 日目の記事です。 adventar.org 骨子って、何?というか初めて論文書くんですがどうすれば、、、。イラストはうちの先生には似ていませんが、だいたいこんな感じで言ってきます。 弊研では恒例ですが、研究が進んできて結果がまとめられそうな段階になってくると 先生 に以下のようなことを言われます。 「まずは論文の骨子を箇条書きで書いてみて!」 本記事は「論文の骨子とはどのようなものか」「箇条書きで骨子を書く場合の注意点はなにか」に焦点を当てま

              先生の「まずは論文の骨子を箇条書きで書いてみて」に対応する: 論文執筆の第一歩 - May the Neural Networks be with you
            • Introducing Triton: Open-source GPU programming for neural networks

              Triton makes it possible to reach peak hardware performance with relatively little effort; for example, it can be used to write FP16 matrix multiplication kernels that match the performance of cuBLAS—something that many GPU programmers can’t do—in under 25 lines of code. Our researchers have already used it to produce kernels that are up to 2x more efficient than equivalent Torch implementations,

                Introducing Triton: Open-source GPU programming for neural networks
              • GitHub - Kayzaks/HackingNeuralNetworks: A small course on exploiting and defending neural networks

                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                  GitHub - Kayzaks/HackingNeuralNetworks: A small course on exploiting and defending neural networks
                • Python vs Rust for Neural Networks | Nathan Goldbaum

                  In a previous post I introduced the MNIST dataset and the problem of classifying handwritten digits. In this post I’ll be using the code I wrote in that post to port a simple neural network implementation to rust. My goal is to explore performance and ergonomics for data science workflows in rust. The Python Implementation Chapter 1 of the book describes a very simple single-layer Neural Network t

                  • A Gentle Introduction to Graph Neural Networks

                    Neural networks have been adapted to leverage the structure and properties of graphs. We explore the components needed for building a graph neural network - and motivate the design choices behind them. Hover over a node in the diagram below to see how it accumulates information from nodes around it through the layers of the network. Authors Affiliations Benjamin Sanchez-Lengeling Google Research E

                      A Gentle Introduction to Graph Neural Networks
                    • 深層学習の不確実性 - Uncertainty in Deep Neural Networks -

                      Twitter: ottamm_190 追記 2022/4/24 speakerdeck版:https://speakerdeck.com/masatoto/shen-ceng-xue-xi-falsebu-que-shi-xing-uncertainty-in-deep-neural-networks コンパクト版:https://speakerdeck.com/masatoto/shen-ceng-xue-xi-niokerubu-que-shi-xing-ru-menRead less

                        深層学習の不確実性 - Uncertainty in Deep Neural Networks -
                      • Suggestions and techniques for building neural networks with Go

                        Goで単語をベクトル化するためのニューラルネットワーク「Word2Vec」 をスクラッチで構築した経験から、Goでニューラルネットワークを組む際のエッセンスについてお話しします。「Go+ニューラルネットワーク」と言う組み合わせはあまりイメージが無いかもしれませんが、仕組みと行列計算のクセを理解すれば難しくはありません。Goによる行列計算の現状と今後についてのお話はもちろん、Goでニューラルネットワークを組む際のアーキテクチャの考え方や、数値計算のテスト方法やモデルの保存方法などを紹介します。このトークで「Goでもデータサイエンスできそう!」と思ってもらうことが今回のトークのゴールです。

                          Suggestions and techniques for building neural networks with Go
                        • Graph Neural Networks - An overview | AI Summer

                          Over the past decade, we’ve seen that Neural Networks can perform tremendously well in structured data like images and text. Most of the popular models like convolutional networks, recurrent, autoencoders work very well on data that have a tabular format like a matrix or a vector. But what about unstructured data? What about Graph data? Is there a model that can learn efficiently from them? Probab

                            Graph Neural Networks - An overview | AI Summer
                          • 『Deep Neural Networks for YouTube Recommendations』を紹介します - dely Tech Blog

                            www.youtube.com はじめまして。 dely, Inc. の @sakura です。 この記事は Google Products Advent Calendar 2019 - Adventar の20日目の記事です。 昨日は新坂さんのGoogle Homeの記事でした。Google Homeに関する様々な実体験が書かれており、とてもほっこりするエントリでした。 polasleep.hateblo.jp 本記事では、YouTubeのレコメンドの仕組みについて書かれている論文『Deep Neural Networks for YouTube Recommendations』を紹介します。 なぜ読んだのか 本論文について イントロダクション 1.スケールの問題 2.新鮮さの問題 3.ノイズの問題 わかったこと レコメンドシステムの2層のニューラルネットワーク 暗黙的フィードバック ア

                              『Deep Neural Networks for YouTube Recommendations』を紹介します - dely Tech Blog
                            • Introducing TensorFlow Graph Neural Networks

                              Posted by Sibon Li, Jan Pfeifer and Bryan Perozzi and Douglas Yarrington Today, we are excited to release TensorFlow Graph Neural Networks (GNNs), a library designed to make it easy to work with graph structured data using TensorFlow. We have used an earlier version of this library in production at Google in a variety of contexts (for example, spam and anomaly detection, traffic estimation, YouTub

                                Introducing TensorFlow Graph Neural Networks
                              • GitHub - Anjok07/ultimatevocalremovergui: GUI for a Vocal Remover that uses Deep Neural Networks.

                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                  GitHub - Anjok07/ultimatevocalremovergui: GUI for a Vocal Remover that uses Deep Neural Networks.
                                • A Sober Look at Bayesian Neural Networks

                                  by Carles Gelada and Jacob Buckman WARNING: This is an old version of this blogpost, and if you are a Bayesian, it might make you angry. Click here for an updated post with the same content. Context: About a month ago Carles asserted on Twitter that Bayesian Neural Networks make no sense. This generated lots of good discussion, including a thorough response from Andrew Gordon Wilson defending BNNs

                                    A Sober Look at Bayesian Neural Networks
                                  • Transformers are Graph Neural Networks

                                    My engineering friends often ask me: deep learning on graphs sounds great, but are there any real applications? While Graph Neural Networks are used in recommendation systems at Pinterest, Alibaba and Twitter, a more subtle success story is the Transformer architecture, which has taken the NLP world by storm. Through this post, I want to establish a link between Graph Neural Networks (GNNs) and Tr

                                      Transformers are Graph Neural Networks
                                    • Neural Networks: Zero To Hero

                                      A course by Andrej Karpathy on building neural networks, from scratch, in code. We start with the basics of backpropagation and build up to modern deep neural networks, like GPT. In my opinion language models are an excellent place to learn deep learning, even if your intention is to eventually go to other areas like computer vision because most of what you learn will be immediately transferable.

                                      • CS 11-747: Neural Networks for NLP

                                        Feb 2, 2021 Introduction to Simple Neural Networks (2/2/2021) Feb 4, 2021 Language Modeling, Training Tricks (2/4/2021) Feb 9, 2021 How to Build a Neural Network Toolkit (2/9/2021) Feb 11, 2021 Efficiency Tricks for Neural Nets (2/11/2021) Feb 16, 2021 Recurrent Networks for Sentence or Language Modeling (2/16/2021) Feb 18, 2021 Conditioned Generation (2/18/2021) Feb 23, 2021 Break -- No Class! (2

                                        • Annotated history of modern AI and deep neural networks

                                          For a while, DanNet enjoyed a monopoly. From 2011 to 2012 it won every contest it entered, winning four of them in a row (15 May 2011, 6 Aug 2011, 1 Mar 2012, 10 Sep 2012).[GPUCNN5] In particular, at IJCNN 2011 in Silicon Valley, DanNet blew away the competition and achieved the first superhuman visual pattern recognition[DAN1] in an international contest. DanNet was also the first deep CNN to win

                                            Annotated history of modern AI and deep neural networks
                                          • GitHub - poloclub/cnn-explainer: Learning Convolutional Neural Networks with Interactive Visualization.

                                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                              GitHub - poloclub/cnn-explainer: Learning Convolutional Neural Networks with Interactive Visualization.
                                            • Applications of Deep Neural Networks with Keras

                                              Deep learning is a group of exciting new technologies for neural networks. Through a combination of advanced training techniques and neural network architectural components, it is now possible to create neural networks that can handle tabular data, images, text, and audio as both input and output. Deep learning allows a neural network to learn hierarchies of information in a way that is like the f

                                              • Multimodal neurons in artificial neural networks

                                                We’ve discovered neurons in CLIP that respond to the same concept whether presented literally, symbolically, or conceptually. This may explain CLIP’s accuracy in classifying surprising visual renditions of concepts, and is also an important step toward understanding the associations and biases that CLIP and similar models learn. Fifteen years ago, Quiroga et al.[^reference-1] discovered that the h

                                                  Multimodal neurons in artificial neural networks
                                                • Graph Neural Networks のビジネス応用可能性
 heterogeneous graph と論文再現性について

                                                  Graph Neural Networks のビジネス応用可能性
 heterogeneous graph と論文再現性について

                                                    Graph Neural Networks のビジネス応用可能性
 heterogeneous graph と論文再現性について
                                                  • Approximation and Non-parametric Estimation of ResNet-type Convolutional Neural Networks (ICML 2019)

                                                    Approximation and Non-parametric Estimation of ResNet-type Convolutional Neural Networks (ICML 2019)

                                                      Approximation and Non-parametric Estimation of ResNet-type Convolutional Neural Networks (ICML 2019)
                                                    • Keras documentation: Traffic forecasting using graph neural networks and LSTM

                                                      ► Code examples / Timeseries / Traffic forecasting using graph neural networks and LSTM Traffic forecasting using graph neural networks and LSTM Author: Arash Khodadadi Date created: 2021/12/28 Last modified: 2023/11/22 Description: This example demonstrates how to do timeseries forecasting over graphs. View in Colab • GitHub source Introduction This example shows how to forecast traffic condition

                                                        Keras documentation: Traffic forecasting using graph neural networks and LSTM
                                                      • Closed-form continuous-time neural networks - Nature Machine Intelligence

                                                        Thank you for visiting nature.com. You are using a browser version with limited support for CSS. To obtain the best experience, we recommend you use a more up to date browser (or turn off compatibility mode in Internet Explorer). In the meantime, to ensure continued support, we are displaying the site without styles and JavaScript.

                                                          Closed-form continuous-time neural networks - Nature Machine Intelligence
                                                        • Physics-Informed Neural Networks (PINNs)を減衰振動の運動方程式に適用してみた! - Insight Edge Tech Blog

                                                          こんにちは!Insight EdgeのData Scientistの石倉です。私は以前、地球物理学を専攻していて偏微分方程式を扱っていたのですが、最近NeurIPSやその他学会などで見られるPhysics-informed neural networks(以下、PINNs)の"Physics"に思わずアンテナが反応してしまい、色々と文献を調査してみました。そこで今回は、簡単に解析解の分かる微分方程式を用いてPINNsをTensorflowで実装してみたのでご紹介したいと思います! Physics-informed neural networks とは 減衰振動 微分方程式 Finite difference method Data-driven neural networks Physics-informed neural networks まとめ FD vs. NeuralNetwork

                                                            Physics-Informed Neural Networks (PINNs)を減衰振動の運動方程式に適用してみた! - Insight Edge Tech Blog
                                                          • The mostly complete chart of Neural Networks, explained

                                                            The zoo of neural network types grows exponentially. One needs a map to navigate between many emerging architectures and approaches. Fortunately, Fjodor van Veen from Asimov institute compiled a wonderful cheatsheet on NN topologies. If you are not new to Machine Learning, you should have seen it before:

                                                              The mostly complete chart of Neural Networks, explained
                                                            • 抽出的文書要約における hetero graph の応用 Heterogeneous Graph Neural Networks for Extractive Document Summarization

                                                              ACL 2020 に採択された Heterogeneous Graph Neural Networks for Extractive Document Summarization を読んでいます。

                                                                抽出的文書要約における hetero graph の応用 Heterogeneous Graph Neural Networks for Extractive Document Summarization
                                                              • Domain Adversarial Neural Networksについて(前編)

                                                                はじめに 先日参加したKaggleのOpenVaccine: COVID-19 mRNA Vaccine Degradation Predictionコンペティションで自分が参加していたチームではDomain Adversarial Neural Networks (DANN)と呼ばれる手法を用いていました。 結果としては、CV, Public LB, Private LBのいずれにも効いていないことが判明したのですが、Kaggleで度々話題になるAdversarial Validationとも類似した面白い技術なので、改めて紹介するとともに本当に使える手法なのかを検証していきたいと思います。 本記事は二部構成(三部構成、2020/10/25更新)になっており、前編(この記事)ではDANNの紹介と、論文中でも紹介されているMNIST/MNISTMを用いて検証を行います。後編つづく中・後編で

                                                                  Domain Adversarial Neural Networksについて(前編)
                                                                • Top Applications of Graph Neural Networks 2021

                                                                  Chinese translation is available here. At the beginning of the year, I have a feeling that Graph Neural Nets (GNNs) became a buzzword. As a researcher in this field, I feel a little bit proud (at least not ashamed) to say that I work on this. It was not always the case: three years ago when I was talking to my peers, who got busy working on GANs and Transformers, the general…

                                                                    Top Applications of Graph Neural Networks 2021
                                                                  • えるエル on Twitter: "深層学習の応用上のあらゆる分野を豊富な図と実装コード付きで網羅した,500ページを超えるもの凄い書籍が公開されています "Applications of Deep Neural Networks"… https://t.co/Is16BnEnMA"

                                                                    深層学習の応用上のあらゆる分野を豊富な図と実装コード付きで網羅した,500ページを超えるもの凄い書籍が公開されています "Applications of Deep Neural Networks"… https://t.co/Is16BnEnMA

                                                                      えるエル on Twitter: "深層学習の応用上のあらゆる分野を豊富な図と実装コード付きで網羅した,500ページを超えるもの凄い書籍が公開されています "Applications of Deep Neural Networks"… https://t.co/Is16BnEnMA"
                                                                    • Equivariant Neural Networksの概論:群論を用いた深層学習の設計の進展 - Fire Engine

                                                                      最近、Equivariant Neural Networksというデータの対称性に着目した深層学習の設計の新しいパラダイムの存在を知り、非常に興味を持っている。Equivariant Neural Networksは、深層学習の更なる汎化性能の向上や学習の効率化、適用分野の拡大などを実現する可能性を秘めている。今回は、Equivariant Neural Networksとは何なのか、これまでの研究事例、どういう分野で応用できるのかなど、最近私が学んだことを概論的にまとめていく。 目次 Equivariant Neural Networksの概要 不変性と同変性 群論との関係 Geometric Deep Learningとの関係 CNNと同変性 様々なEquivariant Neural Networks Group Equivariant Convolution Networks (2

                                                                        Equivariant Neural Networksの概論:群論を用いた深層学習の設計の進展 - Fire Engine
                                                                      • Deep Neural Networks and Tabular Data: A Survey

                                                                        Heterogeneous tabular data are the most commonly used form of data and are essential for numerous critical and computationally demanding applications. On homogeneous data sets, deep neural networks have repeatedly shown excellent performance and have therefore been widely adopted. However, their adaptation to tabular data for inference or data generation tasks remains challenging. To facilitate fu

                                                                        • Techniques for training large neural networks

                                                                          An illustration of various parallelism strategies on a three-layer model. Each color refers to one layer and dashed lines separate different GPUs. Training a neural network is an iterative process. In every iteration, we do a pass forward through a model’s layers to compute an output for each training example in a batch of data. Then another pass proceeds backward through the layers, propagating h

                                                                            Techniques for training large neural networks
                                                                          • Randomly Wired Neural Networks

                                                                            This blog post will briefly explain what Neural Architecture Search is and how it can help you achieve better modeling results with your dataset. Following is an argument for why you should ignore advanced algorithms and use a much simpler algorithm, randomly wired neural networks. This algorithm uses a random graph generation algorithm from graph theory and network science, fixing the same comput

                                                                              Randomly Wired Neural Networks
                                                                            • Neural Networks Emulate Any Guitar Pedal For $120

                                                                              It’s a well-established fact that a guitarist’s acumen can be accurately gauged by the size of their pedal board- the more stompboxes, the better the player. Why have one box that can do everything when you can have many that do just a few things? Jokes aside, the idea of replacing an entire pedal collection with a single box is nothing new. Your standard, old-school stompbox is an analog affair,

                                                                                Neural Networks Emulate Any Guitar Pedal For $120
                                                                              • コンピュータサイエンスのトップカンファレンスが示す再現性チェックリスト - May the Neural Networks be with you

                                                                                こんにちは。@shunk031 です。機械学習モデルの実験をする際の乱数シード値は 19950815 を使っています。 この記事は 法政大応情 Advent Calendar 2020 10 日目の記事です。 再現性を担保する上で多様な視点のチェック項目が必要です*1 研究において、再現性は非常に重要なポイントの 1 つです。 特に最近は機械学習や深層学習の研究における再現性について議論されております。 こうした研究において再現性を高める上で、当たり前ですが次の 2 点が重要です: 再現可能な 実装 の公開 再現可能な 論文 の公開 再現可能な実装の公開 については、先日私が寄稿した pyenv と poetry による再現可能な実験環境構築 が助けになるかもしれません。 data.gunosy.io 本記事では 再現可能な論文の公開 に焦点を当てます。 近年のコンピュータサイエンス分野に

                                                                                  コンピュータサイエンスのトップカンファレンスが示す再現性チェックリスト - May the Neural Networks be with you
                                                                                • Emergent linguistic structure in artificial neural networks trained by self-supervision | PNAS

                                                                                  Emergent linguistic structure in artificial neural networks trained by self-supervision View ORCID ProfileChristopher D. Manning, Kevin Clark, View ORCID ProfileJohn Hewitt, Urvashi Khandelwal, and Omer Levy

                                                                                    Emergent linguistic structure in artificial neural networks trained by self-supervision | PNAS

                                                                                  新着記事