並び順

ブックマーク数

期間指定

  • から
  • まで

121 - 160 件 / 541件

新着順 人気順

*algorithmの検索結果121 - 160 件 / 541件

  • AIの第一人者ルカン氏、現在のアプローチの多くは真の知能につながらないと批判

    「Facebook」「Instagram」「WhatsApp」を運営するMeta Platformsで人工知能(AI)担当のチーフサイエンティストを務めるYann LeCun氏は、この分野に携わる多くの人を困惑させることになりそうだ。 LeCun氏は6月、「Open Review」に投稿した論文で、機械に人間レベルの知能を持たせることが期待できると考えるアプローチについて概観を示した。 この論文で暗に主張しているのは、現在のAIに関する大規模なプロジェクトのほとんどは人間レベルという目標に決して到達できないという点だ。 LeCun氏は、9月に入って米ZDNetが実施した「Zoom」でのインタビューの際、現時点で最も成功しているディープラーニング(DL)の研究手法の多くを非常に懐疑的に見ていることを明らかにした。 コンピューター科学分野のノーベル賞に相当する「ACM A. M. チューリング

      AIの第一人者ルカン氏、現在のアプローチの多くは真の知能につながらないと批判
    • 時系列モデル(ARIMA/Prophet/NNなど)を統一的なAPIで扱えるPythonライブラリ「Darts」がかなり便利 - フリーランチ食べたい

      時系列モデルを扱う上でデファクトスタンダードになりそうなPythonライブラリが出てきました。 時系列モデルを扱うPythonライブラリは、 scikit-learn のようなデファクトスタンダードなものがありません。そのため時系列モデルを用いて実装を行うためには、様々なライブラリのAPIなどの仕様を理解しつつ、それに合わせてデータ整形を行い、評価する必要があり、これはなかなか辛い作業でした。 スイスの企業 Unit8 が今年(2020年)6月末に公開した Darts はまさにこういった課題を解決するライブラリです。時系列に関する様々なモデルを scikit-learn ベースのAPIで統一的に扱うことができます。 github.com Darts は現在、下記のモデルに対応しています。内側では statsmodels 、 Prophet(stan) 、 Pytorch などを使っていて、

        時系列モデル(ARIMA/Prophet/NNなど)を統一的なAPIで扱えるPythonライブラリ「Darts」がかなり便利 - フリーランチ食べたい
      • GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?

        GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニングに必要なデータの数やトレーニング中に使用するメモリの量も増加し、トレーニングのコストが大きく増加してしまいます。そんな中、メモリの消費量を激減させつつ少ないデータでトレーニングできる手法「QLoRA」が登場しました。 [2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs https://arxiv.org/abs/2305.14314 artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs https://github.com/art

          GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?
        • WebAssemblyでの機械学習モデルデプロイの動向

          本記事はMLOps Advent Calendar 2020の 2 日目の記事です。 WebAssembly(Wasm)は機械学習モデルをデプロイする新たな手段になりうるでしょうか。 この記事では、機械学習モデル(特に Deep Learning)を Wasm でデプロイする周辺技術の動向や内部の仕組みをざっくりと説明します。 Table of Contents tkat0 です。WebAssembly(Wasm)面白いですね。 私も最近はyewでフロントエンドを書いて遊んでいます。Rust で React っぽいことできるのは新鮮で面白いです。 Wasm は、なんとなく速い JavaScript?とか機械学習で何に役立つの?とか思ってる方も多いと思います。 しかし、Wasm はブラウザでの推論時に使えるだけでなく、機械学習モデルのサービングやエッジデバイスでの推論にも使えると知ったら驚き

            WebAssemblyでの機械学習モデルデプロイの動向
          • PyTorchチュートリアル(日本語訳版)

            [1] 本サイトでは、「PyTorch 公式チュートリアル(英語版 version 1.8.0)」を日本語に翻訳してお届けします。 [2] 公式チュートリアルは、①解説ページ、②解説ページと同じ内容のGoogle Colaboratoryファイル、の2つから構成されています。 両者は基本的には同じ内容です。本サイトでは 「Google Colaboratoryファイル」で、チュートリアルの日本語訳を用意しております(未完成分は順次公開いたします)。 [3] 本サイトのチュートリアルの閲覧および実行は、Google Colaboratory環境を前提とします。 (本サイトのライセンスはこちらとなります) [4] 本サイトに掲載している、日本語チュートリアルをまとめて配置したGitHubはこちらとなります。 [0] 目次(table of contents) 日本語解説へ [1] テンソル(T

              PyTorchチュートリアル(日本語訳版)
            • 【厳選】機械学習の学習におすすめのTwitterアカウント40選 - Qiita

              はじめに 最近、翻訳サービスをリリースしたりしてから、機械学習の勉強をどこでしたらいいのか聞かれることが増えました。 機械学習関連の知識は遷移が激しいので、書籍には限界があります。 ですので、その度に「twitterが一番勉強になる」と答えていました。 が、この回答は聞き手依存な無責任な回答な気もしたので、この際フォローすべき人をまとめておこうと思います。 時折機械学習系でない人も紛れているかもしれません。 とりあえず40アカウントおすすめするだけの記事なので、抜け漏れはあると思いますが、後日補完していこうと思います。 登場するアカウントには何の許可も取っていませんが、独断と偏見でアカウントの特徴をメモしていきます。 (メモとはいえ失礼のないよう書いたつもりです) 0. goto_yuta_ 私です。機械翻訳や、論文のまとめなどの話が多いです。自作の機械翻訳サービスの中身に触れたりします。

                【厳選】機械学習の学習におすすめのTwitterアカウント40選 - Qiita
              • [速報]AWS、JupyterLab IDEベースの新サービス「SageMaker Studio Lab」無料提供を発表、ブラウザで機械学習を学び試せる。AWS re:Invent 2021

                Amazon Web Services(AWS)は、機械学習の実行環境を提供する新サービス「SageMaker Studio Lab」を無料で提供すると、開催中のイベント「AWS re:Invent 2021」で発表しました。 SageMaker Studio Labは、機械学習の実行環境として広く使われているオープンソースのJupyterLab IDEをベースにした新サービスです。PythonやR言語などに対応しており、ターミナル機能やGitとの連携機能などを備えています。 AWSには、すでに「SageMaker Studio」がサービスとして存在していますが、今回発表された「SageMaker Studio Lab」は機械学習の教育を目的とし、機能の一部をサブセットとして取り出したものといえます。 インストールやセットアップなどは不要で、Webブラウザからすぐに利用可能な環境が立ち上が

                  [速報]AWS、JupyterLab IDEベースの新サービス「SageMaker Studio Lab」無料提供を発表、ブラウザで機械学習を学び試せる。AWS re:Invent 2021
                • DreamFusion: Text-to-3D using 2D Diffusion

                  Abstract Recent breakthroughs in text-to-image synthesis have been driven by diffusion models trained on billions of image-text pairs. Adapting this approach to 3D synthesis would require large-scale datasets of labeled 3D assets and efficient architectures for denoising 3D data, neither of which currently exist. In this work, we circumvent these limitations by using a pretrained 2D text-to-image

                    DreamFusion: Text-to-3D using 2D Diffusion
                  • 【自動運転】信号機認識に挑む / 走行画像15,000枚のアノテーションとYOLOXモデルによる深層学習実践

                    こんにちは。TURING株式会社でインターンをしている、東京大学学部3年の三輪と九州大学修士1年の岩政です。 TURINGは完全自動運転EVの開発・販売を目指すスタートアップです。私たちの所属する自動運転MLチームでは完全自動運転の実現のため、AIモデルの開発や走行データパイプラインの整備を行っています。 完全自動運転を目指すうえで避けて通れない課題の一つに信号機の認識があります。AIが信号機の表示を正しく理解することは、自動運転が手動運転よりも安全な運転を達成するために欠かせません。信号機を確実に認識したうえで、周囲の状況を総合的に判断して車体を制御し、安全かつ快適な走行を実現する必要があります。 TURINGでは信号機の認識に取り組むため、15,000枚規模のデータセットを準備し、高精度なモデルのための調査・研究を開始しました。この記事ではデータセットの内製とその背景にフォーカスしつつ

                      【自動運転】信号機認識に挑む / 走行画像15,000枚のアノテーションとYOLOXモデルによる深層学習実践
                    • (修正)機械学習デザインパターン(ML Design Patterns)の解説

                      データマイニングや機械学習をやるときによく問題となる「リーケージ」を防ぐ方法について論じた論文「Leakage in Data Mining: Formulation, Detecting, and Avoidance」(Kaufman, Shachar, et al., ACM Transactions on Knowledge Discovery from Data (TKDD) 6.4 (2012): 1-21.)を解説します。 主な内容は以下のとおりです。 ・過去に起きたリーケージの事例の紹介 ・リーケージを防ぐための2つの考え方 ・リーケージの発見 ・リーケージの修正

                        (修正)機械学習デザインパターン(ML Design Patterns)の解説
                      • (続)ファッションにおける類似商品検索アルゴリズムの性能評価 - DROBEプロダクト開発ブログ

                        概要 背景・目的 関連研究 提案手法 実験 アルゴリズムの説明 順位相関の確認 定量評価 定量評価の内訳 定性評価 おわりに 参考文献 DROBEで機械学習エンジニアをしております、藤崎です。 概要 ファッションアイテムを特徴づけるための情報として、画像とテキストがある。これらは異なる情報を含んでいると考えられる。 類似のファッションアイテムを検索する場面で、画像とテキストの情報を両方活用することで、検索の精度を向上させることができると推測される。 類似のファッションアイテムを検索するタスクで、両方の情報を活用した提案手法の性能を評価し、片方の情報だけを活用するよりも、大幅に性能が改善することを確認した。 背景・目的 この記事は以下の記事の続編です。 tech.drobe.co.jp 以前の記事で、私たちはプロのスタイリストが作成した評価データセットを用いて、複数のアルゴリズムを類似商品検

                          (続)ファッションにおける類似商品検索アルゴリズムの性能評価 - DROBEプロダクト開発ブログ
                        • Words2Emoji - Translate Words To Emojis

                          Looking for a way to add some fun to your texts? Just type in a word and get a suggested emoji that goes with it.

                          • 大規模言語モデル間の性能比較まとめ|mah_lab / 西見 公宏

                            StableLMのファインチューニングってできるのかな?と調べたところ、GitHubのIssueで「モデル自体の性能がまだ良くないから、ファインチューニングの段階ではないよ」というコメントがありまして。 シートの中身を見てみるlm-evalシートstablelm-base-alpha-7bは54行目にありまして、確かに他の言語モデルと比較するとまだまだな性能のようです。応援したいですね。 シートの列の意味それぞれの列の意味については推定ですが以下の通りです。 RAM 言語モデルのGPUメモリ消費量。 lambada(ppl) LAMBADAデータセットによる測定値。ロングレンジの言語理解能力をテストする(文章全体を読まないと答えられないタスクでの評価)。PPLはPerplexityという指標で、モデルの予測の不確かさを示す。PPLが低いほど、モデルの予測精度が高い。 lambada(acc

                              大規模言語モデル間の性能比較まとめ|mah_lab / 西見 公宏
                            • 会議中にスマホを触る政治家を機械学習と画像認識で検出

                              会議の最中であるにもかかわらず、政治家が集中せずに手遊びしていたり居眠りしていたりする様子が中継に映り込むことがあります。これを、中継映像から機械学習と画像認識を用いて自動的に検出し、TwitterとInstagramのアカウントで映像付きで報告する仕組みが運用されています。 The Flemish Scrollers, 2021-2022 – Dries Depoorter https://driesdepoorter.be/theflemishscrollers/ Machine Learning Detects Distracted Politicians | Hackaday https://hackaday.com/2022/01/17/machine-learning-detects-distracted-politicians/ ベルギー人アーティストのドリス・ディポーター氏

                                会議中にスマホを触る政治家を機械学習と画像認識で検出
                              • Teslaはカメラを使ってどのように世界を認識しているか

                                はじめに TURINGの井ノ上です。TURINGは「We Overtake Tesla」をミッションに、完全自動運転EVの開発・製造を行っています。TURINGはEnd-to-Endな深層学習モデルでLv5完全自動運転車の開発を目指しています。現在、TURINGではカメラセンサから得た画像を用いて車体の操作や経路選択、安全性の判断を行えるAIモデルの開発を行っています。(実際の車を動かす事例はこちらの記事やこちらの記事をご覧ください。) この記事では私達が目標としているTeslaの自動運転のAIモデルについて紹介します。 Teslaの自動運転 こちらは2022年に公開されたTeslaの自動運転をユーザーが使っている動画です。 車の中央にあるディスプレイにはAIが道路や車を認識してどういった経路を進むかを示しており、その情報をもとに自動運転している様子があります。Teslaの自動運転の能力の

                                  Teslaはカメラを使ってどのように世界を認識しているか
                                • 誰もdlshogiには敵わなくなって将棋AIの世界が終わってしまった件 | やねうら王 公式サイト

                                  いま大会上位に位置するDeep Learning系の将棋AIは、評価関数として画像認識などでよく使われているResNetを用いている。ResNetについては機械学習を齧っている人ならば誰でも知ってるぐらい有名だと思うので、詳しい説明は割愛する。(ググれば詳しい説明がいくらでも出てくる) 囲碁AIの世界では、このResNetのブロック数を大きくしていくのが一つの潮流としてある。ブロック数が多いと言うことは、より層の数が増え(よりdeepになり)、1局面の評価に、より時間を要するようになるということである。それと引き換えに評価精度がアップするから、トータルでは得をしていて、棋力が向上するというわけである。 ところが大きいブロック数になればなるほど学習に要する教師局面の数が増える。学習もブロック数に応じた時間を要するようになるから、そう簡単に大きくはできない。しかし囲碁AIの方は、中国テンセント

                                  • AWS Docs GPT

                                    AI-powered Search and Chat for AWS Documentation

                                      AWS Docs GPT
                                    • rinna、日本語に特化した「GPT-2」「BERT」事前学習モデルを無償公開 75ギガバイトのデータを最大45日間で学習 | Ledge.ai

                                      Top > 学術&研究 > rinna、日本語に特化した「GPT-2」「BERT」事前学習モデルを無償公開 75ギガバイトのデータを最大45日間で学習

                                        rinna、日本語に特化した「GPT-2」「BERT」事前学習モデルを無償公開 75ギガバイトのデータを最大45日間で学習 | Ledge.ai
                                      • ペパボ研究所による新卒エンジニア向け機械学習研修 - ペパボ研究所ブログ

                                        ペパボ研究所 研究員/プリンシパルエンジニアの三宅(@monochromegane)です。 ペパボ研究所では、新卒のエンジニア研修の一環として、2020年7月13日から5日間に渡って機械学習入門の研修を担当しました。 本エントリでは、研修内容をスライドと共に紹介します。 GMOペパボの新卒エンジニア研修における機械学習研修の位置付け GMOペパボの新卒エンジニア研修は、5月のGMOインターネットグループでの合同研修プログラム(GMO Tech Bootcamp)と、6〜7月のGMOペパボでの研修プログラムから構成されています。 6月以降の研修では、Webアプリケーション、フロントエンド、セキュリティ、コンテナとデプロイなど様々な技術要素についてプログラムが組まれており、今年から機械学習研修がこれに連なることになりました。 VP of Engineering 兼技術部長の @hsbt の言葉

                                          ペパボ研究所による新卒エンジニア向け機械学習研修 - ペパボ研究所ブログ
                                        • 大規模言語モデルの知識を補完するための Retriever の紹介 - ACES エンジニアブログ

                                          こんにちは、株式会社ACESでインターンをしている篠田 (@shino__c) と申します。普段は博士課程の学生としてNLPの研究をしています。 ここ数ヶ月で ChatGPT に加えて GPT-4 等の大規模言語モデル (LLM) が次々とリリースされていますね。 ChatGPT (gpt-3.5-turbo) はAPIの使用料が安いことから、多くの人が気軽にLLMを使用できるようになり、AI、特にNLPを売りにしている多くの企業は技術的にどうやって競争優位性を築けばいいのか模索しているのではないでしょうか。 その問いに対する1つの答えになりそうなものに、Retriever というものがあります。 例えば、社内にある外部には出せない文書を元に顧客からの質問に答える質問応答のサービスを作りたい場合、ChatGPT のような LLM の訓練にはそのようなデータは使われていないため、prompt

                                            大規模言語モデルの知識を補完するための Retriever の紹介 - ACES エンジニアブログ
                                          • マスターアルゴリズム ー 世界を再構築する「究極の機械学習」

                                            原著:ペドロ・ドミンゴス 翻訳:神嶌 敏弘 イラスト:六七質 出版社:講談社 発行日:2021-04-21 ISBN:978-4062192231 本書は,ペドロ・ドミンゴス著『The Master Algorithm』の翻訳書で,近年の人工知能技術の進展を支える機械学習についての解説書です.機械学習とは,作業手順を明示的に指示しなくても,それをデータから学ぶ能力を計算機に与える技術です.この機械学習について,計算機科学や統計学の高度な知識を前提とせずに,その内側に踏み込んで仕組みを明らかにし,この技術の可能性と課題を論じています. 出版社ホームページ 版元ドットコム Googleブックス ネット書店:Amazon 楽天ブックス honto 紀伊國屋書店 電子書籍:Amazon 楽天ブックス honto 紀伊國屋書店 Apple 読書ログ: 読書メーター(電子版) ブクログ(電子版) 図書

                                              マスターアルゴリズム ー 世界を再構築する「究極の機械学習」
                                            • t-SNE 解説 - Qiita

                                              Visualizing Data using t-SNE をまとめます。 t-SNE とは SNE (Stochastic Neighbor Embedding) t-SNE (t-Distributed Stochastic Neighbor Embedding) 大規模データへの適用 t-SNE の弱点 t-SNE とは t-SNE は、次元圧縮の手法で、特に可視化に用いることを意図しています。 データの局所的な構造をうまく捉えることができるだけでなく、さまざまなスケールのクラスタなど、大域的な構造も保った可視化ができる点が特徴です。 SNE (Stochastic Neighbor Embedding) 最初に、t-SNE の基となる手法である SNE (Stochastic Neighbor Embedding) を紹介します。 SNE では、元の空間での点同士の近さが、圧縮後の点

                                                t-SNE 解説 - Qiita
                                              • AI開発の新たなパラダイム「基盤モデル」とは

                                                さて、視覚・言語を扱う基盤モデルとしては、2021年の CLIP がブレイクスルーでした。CLIPはテキストと画像を同じ特徴空間に写像する2つのエンコーダからなります。CLIPを使うと、次のようにして任意の画像分類問題を追加の学習なしで解くことができます。まず、各候補クラスを文章の形式(例:「犬の写真」)にした後、テキストエンコーダに入力します。次に、分類したい画像を画像エンコーダに入力します。最後に、画像から得られたベクトルと候補クラスたちから得られた複数のベクトルとのコサイン類似度を計算し、最も類似度が高いクラスを出力結果とします。 CLIPによるゼロショット画像分類の方法。OpenAI Blogより引用 CLIPは画像とテキストというモードの異なる情報を意味的な近さによって結びつけることを可能にしました。CLIPを教師のようにして使うことで、テキストから画像を生成するモデルを訓練する

                                                  AI開発の新たなパラダイム「基盤モデル」とは
                                                • 機械学習/ディープラーニングが無料で学べる、米国有名大学の「オンライン講座/講義動画」

                                                  機械学習/ディープラーニングが無料で学べる、米国有名大学の「オンライン講座/講義動画」:AI・機械学習の独学リソース アメリカのスタンフォード大学/MIT/ハーバード大学/コロンビア大学/ニューヨーク大学といった有名大学の一部では機械学習や深層学習のオンライン講座/講義動画を無料で配信している。その概要と特長をまとめる。

                                                    機械学習/ディープラーニングが無料で学べる、米国有名大学の「オンライン講座/講義動画」
                                                  • Arxiv RAGによる論文サーベイの自動生成 | Shikoan's ML Blog

                                                    複数のLLM(GPT/Claude3)とArxivの検索APIをRAGで統合し、論文サーベイの自動生成を作りました。検索結果の前処理や、サーベイ特有のプロンプトエンジニアリングやソートが重要で、最適化手法として古くからある巡回セールスマン問題(TSP)が有効に機能しました。また、生成部分ではGPTよりClaude3の明確な有効性を確認できました。 できたもの Arxivの検索APIを使って検索拡張生成(RAG)したらサーベイを自動生成できた やっていること Arxivの検索ワードをGPT-4-Turboで生成 ArxivのAPIを叩いてヒューリスティックでフィルタリング OpenAIのEmbedding APIを叩く Embeddingに対して巡回セールスマン問題(TSP)を解いてソートをかける 論文の要旨をGPT-3.5-Turboで要約 ソートした要約結果をClaude3 Sonnet

                                                      Arxiv RAGによる論文サーベイの自動生成 | Shikoan's ML Blog
                                                    • What Is ChatGPT Doing … and Why Does It Work?

                                                      What Is ChatGPT Doing … and Why Does It Work? February 14, 2023 It’s Just Adding One Word at a Time That ChatGPT can automatically generate something that reads even superficially like human-written text is remarkable, and unexpected. But how does it do it? And why does it work? My purpose here is to give a rough outline of what’s going on inside ChatGPT—and then to explore why it is that it can d

                                                        What Is ChatGPT Doing … and Why Does It Work?
                                                      • GitHub の コード自動生成 AI「Copilot」の技術詳細を解説 【論文解説】

                                                          GitHub の コード自動生成 AI「Copilot」の技術詳細を解説 【論文解説】
                                                        • 【Python】東京23区の中古マンション販売価格予測をやってみた - Qiita

                                                          #ドライブ設定 PATH_GMOUNT='/content/gdrive' PATH_MYDRIVE=PATH_GMOUNT+'/My Drive' #GDriveマウント #以下を実行するとGoogleDriveへのマンウント許可を求められるので、許可する from google.colab import drive drive.mount(PATH_GMOUNT) !pip install japanize-matplotlib #Google colab上でグラフで日本語表示するためにインストール #必要なライブラリのインポート import pandas as pd import numpy as np from bs4 import BeautifulSoup import requests import re import time import matplotlib.pypl

                                                            【Python】東京23区の中古マンション販売価格予測をやってみた - Qiita
                                                          • LLMで自動運転車を動かしてみた話|aoshun7

                                                            こんにちは、自動運転EVをつくるTuring(チューリング)株式会社で共同創業者CTOをやっている青木俊介です。 先日Turingは噂のLLM(Large Language Model:大規模言語モデル)で自動運転車を動かすプロジェクトを完遂させました。 上の動画にもあるように、今回開発したデモではユーザ(乗客)が音声で指示を出すと、LLMが裏で動き、自動運転車がユーザの指示に従って動いてくれます。LLMで実際の自動車が動いたのは世界初な気がします。 もちろんこのシステムで公道を走るわけではないのですが、我々Turingの開発思想的には非常に重要なデモでした。 この記事では「なぜTuringがLLMで自動運転車を動かしたのか」「実際どんな風にLLMで自動運転車が動いているのか」「Turingの開発体制の今後」について書いていこうと思います。 1. LLMと自動運転とTuring「LLMで自

                                                              LLMで自動運転車を動かしてみた話|aoshun7
                                                            • いまさら勉強する人工知能|深津 貴之 (fladdict)

                                                              ・ネットを巡回して、いろいろなハックしてる人のブログや論文を100個ぐらい読む。 ・親切なPFNの人にお時間もらって、謎だった部分や、自分なりにたてた仮説のコンセプトをきいてもらう。 ・Udemyがちょうどセールをしてたので、AI系のクラスを3万円分購入(総額20万円相当)。2倍速でざっくり見る。 …だいたいこんな感じの3週間。数学が難しすぎて、わからないこともいっぱい。ただ頭のなかでe4eエンコーダやpix2pix的に、概念モデルのエンコーダーを作れば、数式なしでもいける感はあった。 総論としてはAIは面白いですね、ロケットサイエンスと別の方向性で「言語化されてない職人芸のアート領域」があり、ここを抑えることができれば、最先端の発見や成果は色々とうまってそうという印象を受けました。 とりあえずStyleGan2で基礎勉強をしながら、BigGan、VQGanとProblematic Dif

                                                                いまさら勉強する人工知能|深津 貴之 (fladdict)
                                                              • 速度の高みを目指す:高速な単語分割器 Vaporetto の技術解説 - LegalOn Technologies Engineering Blog

                                                                こんにちは。LegalForce Research でエンジニアをしている赤部 (@vbkaisetsu) です。 今回は、弊チームが開発した新しい高速な単語分割器 Vaporetto(ヴァポレット)の技術解説を行います。Vaporetto はプログラミング言語 Rust で開発されています。想定する読者は、 自然言語処理のアルゴリズムに興味がある人 Rust によるプログラミングに興味がある人 です。 単語分割器 Vaporetto はオープンソースソフトウェアであり、ソースコードは以下のリポジトリで公開しています。 https://github.com/legalforce-research/vaporetto Vaporetto という名前は、イタリアのヴェネツィアで運行されている水上バスから取りました。 ヴェネツィアの様子。写真右端の黄色いラインの入った建物がヴァポレットの乗り場。

                                                                  速度の高みを目指す:高速な単語分割器 Vaporetto の技術解説 - LegalOn Technologies Engineering Blog
                                                                • 機械学習を「社会実装」するということ / Social Implementation of Machine Learning

                                                                  機械学習を「社会実装」する際に待ち受けている罠と、その解決方法の考察です。 ※この資料は、東京大学グローバル消費インテリジェンス寄附講座(GCI)2020 Summerの講義で使用したものです。 https://gci.t.u-tokyo.ac.jp/gci-2020-summer/ ※2…

                                                                    機械学習を「社会実装」するということ / Social Implementation of Machine Learning
                                                                  • Elicit | The AI Research Assistant

                                                                    Automate time-consuming research tasks like summarizing papers, extracting data, and synthesizing your findings.

                                                                      Elicit | The AI Research Assistant
                                                                    • Kaggleランカーの9人に聞いた、2020年面白かったコンペ9選と論文9選 | 宙畑

                                                                      9名のKagglerの方にアンケートにご協力いただき、2020年に面白かったコンペと論文を教えていただきましたのでその結果を紹介します。 2020年も数多くのデータ解析コンペが開催され、興味深い論文が多く発表されました。 昨年公開した「Kaggle上位ランカーの5人に聞いた、2019年面白かったコンペ12選と論文7選」は現時点で20,000人を超える方にご覧いただき、Kaggleを始めとするデータ解析コンペへの関心が非常に高まっていると感じました。 そして本年も9名のKagglerの方にアンケートにご協力いただき、2020年に面白かったコンペと論文を教えていただきましたのでその結果を紹介します。 (1)回答いただいたKaggler9名のご紹介 まずは今回のアンケートに回答いただいたのは以下9名のKagglerの方です。 aryyyyyさま(@aryyyyy221) カレーちゃんさま(@cu

                                                                        Kaggleランカーの9人に聞いた、2020年面白かったコンペ9選と論文9選 | 宙畑
                                                                      • 機械学習/ディープラーニングの「数学」が学べるオススメ本

                                                                        機械学習やディープラーニングに必要な数学項目をピックアップし、そういった項目を教科書的~実践的にカバーしているオススメの「数学」本を紹介する。また中学~大学までの数学全体を学び直したい人向けの本も紹介。 連載目次 機械学習やディープラーニングを学んでいると、その内部の仕組みは計算式なので、やはりどこかしらで数式が出てくる。そこで数学の必要性を感じて本格的に学び始めるという人も少なくないだろう。 では、どのレベルから、どんな本で学べばよいのだろうか。これはケースバイケースで、あなたが大学生であれば大学レベルの本からスタートすればよいだろうが、大学から遠ざかって5年以上たつような社会人であれば、数学をもう少し基礎的なところから復習した方がいいかもしれない。 また、数学に10年以上のブランクがある場合、中学レベルの数学から部分的に記憶が欠落しているかもしれない。数学は積み上げ型の学問なので、一部

                                                                          機械学習/ディープラーニングの「数学」が学べるオススメ本
                                                                        • ごちきか

                                                                          ごちきか# NTTコミュニケーションズ イノベーションセンターでは、社会・産業DXのためのSmart World の一環として、時系列データ分析手法の研究開発、お客さまのデータ分析支援や社内データ分析人材育成を行っています。 ごちきか(gochikika) は、これら研究開発成果やデータ分析人材育成コンテンツをまとめたナレッジベースです。大別してメインコンテンツは以下の通りです。 分析: 主に製造業の時系列データを対象として、前処理からモデリングまで一連の基本的な分析手法をPythonコード付きで解説しています。 特集記事: 比較的新しめであったり難易度の高い手法や、私たちの取り組みを知ってもらうための学会発表資料が掲載されます。また一部未分類なコンテンツが格納されています。 私たちの研究開発成果は、同じくイノベーションセンターで開発しているノーコードAI開発ツールNode-AI に搭載さ

                                                                            ごちきか
                                                                          • 人工知能規制、資本主義批判、民主主義再考

                                                                            人工知能規制、資本主義批判、民主主義再考 2023.05.22 Updated by yomoyomo on May 22, 2023, 18:58 pm JST 先週、米上院の公聴会に召喚されたOpenAIのサム・アルトマンCEOが、「AIに規制は必要」と発言したことが話題になりました。ディープラーニング分野に多大な貢献をしたAI研究の第一人者であるジェフリー・ヒントンが、Googleを退社して「AIは人類の脅威になる」と警鐘を鳴らすのと合わせ、今のAIを巡る報道には不安をかきたてる浮足立った空気があります。 冷静に考えれば、AI開発を免許制にすべきという規制を求めるサム・アルトマンの発言は、オープンソースによるコモディティ化を牽制しながら、市場で優位性を確保したところで規制を求めるルールメイキング戦略の定石に沿ったもので、要は現状の優位性の定着が目的であり、驚くところはありません。 た

                                                                              人工知能規制、資本主義批判、民主主義再考
                                                                            • 機械学習でなんとかしようと安易に考えるな - Qiita

                                                                              世の中にはよい機械学習の結果が存在する。高い精度で推論(分類・検出)できるものがある。 だから、データの特性が、元々の想定から変わった時にも「機械学習だから、学習させればなんとかなるよね」と期待する人がいるかもしれない。 この文章は、そのような安易な考え方に立つことを戒めるために書く。 (もちろん、機械学習は今までになかった価値をいろんな分野にもたらす可能性が極めて高い。) (主張したいことは、 ビジネスとして見返りが期待できる内容の機械学習をすること。 100%の精度が期待できる機械学習は、そんなに多くない。それでも見返りが期待できる使い方をしてほしい。 1人のエンジニアに支援なしに丸投げするのではなく、チームとしての支援が有効であること。 最初の問題設定を疑ってかかること。手書き文字認識の強化で宅配便の伝票をなんとかするよりは、手書きを必要としない方がいい。 ) garbage in

                                                                                機械学習でなんとかしようと安易に考えるな - Qiita
                                                                              • 2021年05月時点で自分が実践している MLOps の情報収集方法

                                                                                2021-05-29 先日、同僚に「機械学習プロジェクトに興味があるんだけど、おすすめの資料があったら教えてほしい」と言われたので、Blog 記事に現時点でのおすすめの資料としてまとめておいたら、数年後見返したら面白そうだと思ったので記事として公開しておく。 おすすめの資料プロジェクトマネジメントや考え方、思想How Google does Machine Learningこれは機械学習を実応用する人たちにはぜひ見てほしいビデオ講義。前半が、機械学習プロジェクトの計画や、優先順位、よくあるアンチパターンについて GCP で機械学習について多く関わってきたエンジニアが解説してくれていて、非常に勉強になる。 感想記事リーン・スタートアップ ムダのない起業プロセスでイノベーションを生みだす顧客が求めるものを作ろう。機械学習にこだわったらまずだめなので… (詳しくは後述の Rules of ML

                                                                                  2021年05月時点で自分が実践している MLOps の情報収集方法
                                                                                • 1bit LLM の時代は来るのか,来ないのか,どっちなんだい?|情報処理学会・学会誌「情報処理」

                                                                                  徳永拓之(LeapMind(株)) 1bit LLMの時代が来る? 2024 年2 月,The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits¹⁾ というタイトルの論文がarXiv上で公開され,にわかに話題となりました.“1.58 Bits” という表現はあまりなじみがありませんが,log₂(3) = 1.58 . . . ということで,パラメーターを三値にした場合の情報量を示しているようです.この論文(以下b1.58 論文とする)は,同じ著者グループによる文献2)を少し拡張したもので,大規模言語モデル(LLM)の効率化についての研究です. 本稿の前半ではこれらの論文の主張を解説し,後半ではその主張の妥当性について検討します. なお,これらの2本の論文は,本稿執筆時点では,査読を経たものではありませんのでご注意くだ

                                                                                    1bit LLM の時代は来るのか,来ないのか,どっちなんだい?|情報処理学会・学会誌「情報処理」

                                                                                  新着記事