並び順

ブックマーク数

期間指定

  • から
  • まで

241 - 280 件 / 1365件

新着順 人気順

DeepLearningの検索結果241 - 280 件 / 1365件

  • 「IntelliCode」がさらに進化し、行全体を候補として提案。まるでAIとペアプロしているように

    マイクロソフトは、AIによるコーディング支援機能の「IntelliCode」がさらに進化し、コーディング中の行全体を提案できる能力を備えるようになったことを明らかにしました。 下記は「Re-imagining developer productivity with AI-assisted tools」から引用です。 IntelliCode now provides whole-line code completion suggestions mined from the collective intelligence of your trusted developer knowledge bases. This is like having an AI-developer pair-programming with you, providing meaningful, suggestion

      「IntelliCode」がさらに進化し、行全体を候補として提案。まるでAIとペアプロしているように
    • 機械学習の全体像をまとめてみた

      教師あり学習 概要 入力値から何かしらの予測をしたい場合を考えます. 予測する対象の正解データが事前に得られる場合、 入力値から正解データを出力するモデルを学習する手法を教師あり学習と言います. 主なタスク 何を入力して、何を出力するかでタスクが分類されます. 代表的なものに以下が挙げられます 時系列予測: 現在以前の時系列データ ⇒ 未来の時系列データ 画像分類: 画像 ⇒ ラベル 物体検出: 画像 ⇒ 物の位置と種類 セグメンテーション: 画像をピクセル単位で分割 文章分類: 文章 ⇒ ラベル 機械翻訳: ある言語の文章 ⇒ 別の言語の文章 時系列予測 現在以前のデータから将来のデータを予測します. 実用例 株価予測 災害予測 自動車の事故防止システム 主要なアルゴリズム 自己回帰モデル(AR・MA・ARMA・ARIMA) 時系列間の関係を数学的に定量化、モデル化する. 周期性のあるデ

        機械学習の全体像をまとめてみた
      • ChatGPT Prompt Engineering for Developers

        Learn prompt engineering best practices for application development Discover new ways to use LLMs, including how to build your own custom chatbot In ChatGPT Prompt Engineering for Developers, you will learn how to use a large language model (LLM) to quickly build new and powerful applications.  Using the OpenAI API, you’ll be able to quickly build capabilities that learn to innovate and create val

          ChatGPT Prompt Engineering for Developers
        • AIで「フェイクポルノ」作成初摘発 容疑で2人逮捕  :日本経済新聞

          著作権等のため、本文は表示できません。

            AIで「フェイクポルノ」作成初摘発 容疑で2人逮捕  :日本経済新聞
          • RAGの性能を改善するための8つの戦略 | Fintan

            近年、OpenAIのGPT-4やGoogleのGemini、MetaのLLaMAをはじめとする大規模言語モデル(Large Language Model:LLM)の能力が大幅に向上し、自然言語処理において優れた結果を収めています[1][2][3]。これらのLLMは、膨大な量のテキストデータで学習されており、さまざまな自然言語処理タスクにおいて、タスクに固有なデータを用いてモデルをファインチューニングすることなく、より正確で自然なテキスト生成や、複雑な質問への回答が可能となっています。 LLM-jp-eval[4]およびMT-bench-jp[5]を用いた日本語LLMの評価結果。Nejumi LLMリーダーボード Neoより取得。 大規模言語モデルは近年急速な進歩を遂げていますが、これらの進歩にもかかわらず、裏付けのない情報や矛盾した内容を生成する点においては依然として課題があります。たとえ

              RAGの性能を改善するための8つの戦略 | Fintan
            • DiffusionによるText2Imageの系譜と生成画像が動き出すまで

              2022年を境に爆発的な流行を見せはじめた AI 画像生成。コアとなる拡散モデルの基礎解説、研究領域で育てられた技術が一般層にまで羽撃いた変遷、その過程で生じた解決されるべき問題点、および日進月歩で増え続ける発展的な手法群について、網羅的に流れを追いかけるメタサーベイを作成しました。 明日にでも世界が一変しうる流動的な分野において、情報のまとめとは必然的に古くなっていくものです。そんな奔流の中にあっても、本資料が、これまでの歴史を俯瞰し、これからの成長を見据えるための礎として、幾許かでも皆様のお役に立てればと心より願い、ここに筆を置きます。

                DiffusionによるText2Imageの系譜と生成画像が動き出すまで
              • ChatGPTを使って論文の英文校正をする

                Chat GPT は、自然言語処理 (NLP) 技術を使用して、特定の入力に基づいてテキストを生成する言語モデルです。 今回はChat GPT を使用して英語の文章の修正をして、文章の質と明瞭さを向上させる方法を紹介します。 https://chat.openai.com/chat それでは、Chat GPT を使用して英語の編集と校正を行うための手順について説明しましょう。 まず下記のprompt(AIに出す指示のこと)をチャットボックスに入れ””内に校正したい文章を入れます。日本語を直接入れても英語が出てきますが、Google翻訳で英訳した文章を入れた方が洗練された英語になります。(ChatGPTは日本語の入力も受け付けますが英語での入力の方が圧倒的に正確な回答が得られるため) 下記のprompt(一部改変)の出典はこちらのAwesome ChatGPT Promptsです。他にも”a

                  ChatGPTを使って論文の英文校正をする
                • 生成AI技術が辿った濃い一ヶ月間

                  Stable Diffusionがオープンソースで公開されてちょうど1ヶ月が立ちました。OpenAIがDall-E2をリリースしたのが4月。こういう異次元なリソースを使ってモデルを作れるのはごく限られたプレーヤーだけと思い込んでいたものが、若干十数人のチームがMidjourneyをリリースしたのが7月。一連の騒ぎがここ半年程度の出来事で、1ヶ月前に深津さんも予見していた「世界変革」が目の前で怒涛の勢いで進行しています。 このブログも書いた瞬間に古くなるだと思うけど、この文化的特異点とも言える1ヶ月に起こったことを振り返ってみたいと思います。それにしても手書き文字の生成に感動していた2015年から比べるとずいぶん遠いところまで来ましたね。DataRobotでも「AIの民主化」を掲げて様々な企業のAI活用を推進していたけれど、今起こっている変化を見ているとそのスピード感に愕然とします。 少し宣

                    生成AI技術が辿った濃い一ヶ月間
                  • 高精度でテキスト分類を行えるAIの環境を用意しました【BERT】 - ニートの言葉

                    こんにちは、あんどう(@t_andou)です。 最近、自然言語処理のAIの一種であるBERTをよく触っています。 今回はBERTのソースを読まなくてもサクッと試せる環境を用意しましたので、メモとして残しておきます。 BERTとはどういうものか 画像引用:https://arxiv.org/pdf/1810.04805.pdf 凄くざっくりと説明すると、BERTとは2018年末にGoogleの人たちが開発した自然言語処理において汎用的に使えて精度の良いAIです。 自然言語処理において精度を測るためにいくつかのタスクがあるのですが、発表された時点ではダントツの成績でした。 仕組みなどの詳細については論文を読むか解説記事をググってください。 2019/09/22時点で既により精度の良い手法がどんどん発表されていますが、BERTの情報量と比べるとまだ少ないため、入門としてはBERTを触ってみるのが

                      高精度でテキスト分類を行えるAIの環境を用意しました【BERT】 - ニートの言葉
                    • ソニーによる世界最高の音源分離技術で実現した、ボーカルだけをキレイに抽出できるSoundmain Studioの新機能|DTMステーション

                      以前DTMステーションで紹介したことのある、ソニー・ミュージックエンタテインメントのプロジェクトSoundmain(サウンドメイン)。ここでは、ソニーグループが研究・開発する最新の音楽関連テクノロジーがいち早く機能として実装され、クリエイターが利用できるようになっているのですが、今回ボーカル抽出という新機能が追加されました。これは、ブラウザ上で使える音楽制作プラットフォームSoundmain内の音楽制作サービスSoundmain Studio上で使える機能で、音源からボーカルのみを抜き出し、手軽に高品質なボーカル音源を作成することができます。 つまり楽器などの演奏も消せるわけなのですが、驚くべきはその精度。ボーカル抽出といえば、さまざまなソフトで行うことが可能ですが、声がシュワシュワになってしまったり、オケが残ってしまったりすることがありますよね。それに対し、Soundmain Studi

                        ソニーによる世界最高の音源分離技術で実現した、ボーカルだけをキレイに抽出できるSoundmain Studioの新機能|DTMステーション
                      • Stable Diffusion Public Release — Stability AI

                        It is our pleasure to announce the public release of stable diffusion following our release for researchers [https://stability.ai/stablediffusion] Over the last few weeks, we all have been overwhelmed by the response and have been working hard to ensure a safe and ethical release, incorporating data from our beta model tests and community for the developers to act on. In cooperation with the tirel

                          Stable Diffusion Public Release — Stability AI
                        • やってみたら簡単!ディープラーニング・オセロを作って自分を負かすまで強くした話(その1) - Qiita

                          オセロのAIアルゴリズムをディープラーニングで作成し、私が勝てないぐらいまでには強くなった、という話です。 また私の場合は2ヶ月ぐらいかかってしまいましたが、実装自体はそんなに難しくなかったので、実装方法についても説明したいと思います。 この記事でわかることは、ディープラーニングでオセロのAIアルゴリズムを作る方法です。基本的な考え方は他のボードゲームも同じなので、流用できると思います。 対象読者は、TensorFlowなどディープラーニングのライブラリを使い始めて、MNISTの数字分類など基本的な処理はできたけれど、それ以外の問題だとやり方がわからない、というような方です。 きっかけ 私の所属するエンジニアと人生コミュニティで、リバーシチャレンジなるものが開催されたことがきっかけです。このコンテストは「リバーシならどこにこだわっても良い」というルールでした。 私は、ちょうど少しまえに「将

                            やってみたら簡単!ディープラーニング・オセロを作って自分を負かすまで強くした話(その1) - Qiita
                          • AIは表現のどこにいるのか | Domain

                            NovelAIを用いて出力した画像の枚数が気がつくと2万枚を超えていたので、振り返りがてら画像を見返していた。 黒に輝く#NovelAI #NovelAIDiffusion pic.twitter.com/TrB3FBYjXV — sabakichi|Domain ✍︎ (@knshtyk) October 19, 2022 自分でも驚いたのだが、サービスを触りはじめた10/4から10/24現在に至るまで、わずか20日間のうちに2万枚にもおよぶ「一定の表現能力を持った個別の画像」(これをイラストレーションと呼ぶべきか否かはさておき)が、たった一人の人間によって生成されたというのは脅威的なことだろう。人類の歴史を振り返っても類似の現象は見当たらないのではないか。 近い感性としては、やはり歴史的には写真技術とGenerative Art、デザインや設計に用いられているComputational

                              AIは表現のどこにいるのか | Domain
                            • ESET社員、生成AIで自社CEOの声を作って不正送金させる実験に成功

                              ESETは11月22日(現地時間)、「Your voice is my password – the risks of AI-driven voice cloning」において、生成AIにより合成した音声を悪用したソーシャルエンジニアリング攻撃の実験に成功したと伝えた。この実験では、従業員が自社の最高経営責任者(CEO: Chief Executive Officer)になりすまして、財務責任者から自分宛てに送金させることに成功しており、生成AIの危険性について注意喚起している。 Your voice is my password – the risks of AI-driven voice cloning これは事前にCEOの許可を得て行っ実験であり、ここで解説する手法をまねることは犯罪となる可能性があることに注意。この実験と同様の攻撃が今後増加する可能性があると懸念されており、企業や組

                                ESET社員、生成AIで自社CEOの声を作って不正送金させる実験に成功
                              • Stable Diffusionでmorphing - すぎゃーんメモ

                                #stablediffusion 完全に理解した pic.twitter.com/IR5yjnL07Y— すぎゃーん💯 (@sugyan) August 31, 2022 ということで少し触って遊んでみたのでメモ。 Stable Diffusion をザックリ理解 先月公開された Stable Diffusion。 stability.ai 高精度で美しい画像を出力できる高性能なモデルながら、Google Colab などでも手軽に動かせるし、 Apple silicon でもそれなりに動かせる、というのが魅力だ。 中身については 以下の記事の "How does Stable Diffusion work?" 以降のところが分かりやすい。 huggingface.co 図をそのまま引用させていただくと という仕組みになっていて、受け取る入力は "User Prompt" と "Late

                                  Stable Diffusionでmorphing - すぎゃーんメモ
                                • ディープラーニングの力で誰でもゆかりさんの声になれる声変換技術を作ってみた

                                  「誰でも」「高品質に」ゆかりさんの声になれる声変換技術を作りました。また一歩、結月ゆかりになるという夢に近づけた気がします。~Q&A~Q. 生放送で使える?A. 現状だと声変換に数十秒かかるので難しいです。生放送用途だとリアルタイムYukarinがおすすめです。sm35735482Q. ゆかりねっととの違いは?A. テキスト以外の情報も利用するので、笑ったり怒ったりできます。Q. 公開予定は?A. 声変換システムの配布予定はありませんが、技術解説はブログにて公開しています。また、声変換にご興味ありましたら、ツイッターなどでご連絡いただけるととても嬉しいです。-----------------------------------・ツイッターhttps://twitter.com/hiho_karuta・技術解説ブログhttps://blog.hiroshiba.jp/everybod

                                    ディープラーニングの力で誰でもゆかりさんの声になれる声変換技術を作ってみた
                                  • ディープラーニング(Deep Learning)の歴史を振り返る - 渋谷駅前で働くデータサイエンティストのブログ

                                    先日Quora日本語版でこんな回答を書いたのですが、ついでなので少し文脈情報を付け足してブログの方に再録することにしました。理由は単純で、このブログでディープラーニングの歴史についてまとめた記事を今まで書いてきたことがなく、そしてブログ記事にした方がより認識違いや調査不足などについての指摘をもらいやすいと思われたからです。ということで、以下の説明に関してツッコミがあれば是非コメント欄などにお寄せくださいm(_ _)m (A Neural Network Playground) ディープラーニングを語る上で、その前史であるパーセプトロン、そして(人工)ニューラルネットワークの話題は欠かせません。以下大まかに説明していきましょう。(※歴史解説中では敬称略、各種用語は原則カナ表記*1) パーセプトロンの登場 ミンスキーによる批判と第1の冬の時代 誤差逆伝播学習則と中間層を用いたニューラルネットワ

                                      ディープラーニング(Deep Learning)の歴史を振り返る - 渋谷駅前で働くデータサイエンティストのブログ
                                    • 「この虫の名は?」すぐ解決 20万匹の害虫画像を学習した、駆除を支える「クラウド×AI」がスゴい

                                      「この虫の名は?」すぐ解決 20万匹の害虫画像を学習した、駆除を支える「クラウド×AI」がスゴい(1/3 ページ) 大阪に拠点を置く、害虫駆除機器の専門商社「環境機器」が、害虫の画像を自動で取得し、名前を判定するサービス「Pest Vision」を開発。画像は、Amazon Web Services上に構築したAIを使って分析している。環境機器の担当者に、その仕組みと精度について聞いた。 「ショウジョウバエが5匹、ユスリカが30匹」──。害虫駆除業者は、害虫の発生経路などを突き止めるため、虫を捕まえて目視で数える作業を日々行っている。この負担を軽減するため、AI・IoT・クラウドの技術を駆使し、害虫の撮影や分類を自動で行うシステムを、害虫駆除用品の専門商社が外部ベンダーと協力して開発。2018年から提供している。分類の精度は職人を超えるという。 「害虫をカメラで撮影し、画像をクラウド上のス

                                        「この虫の名は?」すぐ解決 20万匹の害虫画像を学習した、駆除を支える「クラウド×AI」がスゴい
                                      • 文字を入力するだけで「萌え声」を簡単一発生成してくれる「Moe TTS」

                                        萌(も)え声を出したくても出せない人でも簡単に簡単に萌え声を生成できる「Moe TTS」が公開されていたので利用してみました。Moe TTSは機械学習を用いて実際のゲームソフトの音声等を合成しており、機械学習でアプリケーションを開発するコミュニティ「Hugging Face」内で公開されています。 Moe TTS - a Hugging Face Space by skytnt https://huggingface.co/spaces/skytnt/moe-tts Moe TTSにアクセスするとこんな感じの画面が表示されます。 そのまま上にスクロールすると文字の入力ボックスが現れます。デフォルトで「こんにちは。」と入力されていたので、今回はこれに続けて「今日も寒いですね。」と入力。そして、「Generate」をクリックします。 すると、ページ下部に再生ボタンが現れます。そのまま再生ボタン

                                          文字を入力するだけで「萌え声」を簡単一発生成してくれる「Moe TTS」
                                        • 「知的単純作業」を自動化する、地に足の着いた大規模言語モデル (LLM) の活用

                                          LayerX 部門執行役員・AI・LLM事業部長 中村龍矢 2024/5/8 生成AI Conf

                                            「知的単純作業」を自動化する、地に足の着いた大規模言語モデル (LLM) の活用
                                          • OpenAIが発見したScaling Lawの秘密 - ディープラーニングブログ

                                            OpenAIはGPT-3の次の研究を始めています. 世間がGPT-3のデモに湧き上がる中,OpenAIはScaling Lawに関する2本の論文をひっそりと公開しました. Scaling Lawを一言で説明するなら「Transformerの性能はたった3つの変数のべき乗則に支配されている」というものです. Scaling Lawはそれ単体だけなら興味深い話で終わるかもしれません.実際に英語圏でもあまり話題にあがっていません.しかし,この法則の本当の凄さに気づいている研究者もいて,なぜ話題にならないのか困惑しています. I am curious why people are not talking more about the OpenAI scaling law papers. For me, they seem very significant. What I heard so far:

                                              OpenAIが発見したScaling Lawの秘密 - ディープラーニングブログ
                                            • 速報:話題の 1ビットLLMとは何か?|寺田英雄(㈱オープンストリームCTO)

                                              2024-02-27にarXiv公開され,昨日(2024-02-28)あたりから日本のAI・LLM界隈でも大きな話題になっている、マイクロソフトの研究チームが発表した 1ビットLLMであるが、これは、かつてB-DCGAN(https://link.springer.com/chapter/10.1007/978-3-030-36708-4_5; arXiv:https://arxiv.org/abs/1803.10930 )という「1ビットGANのFPGA実装」を研究していた私としては非常に興味をそそられる内容なので、論文を読んでみた。今回は速報として、その内容のポイントを概説したい。 論文情報 Ma, S. et al. (2024) ‘The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits’, arXiv [c

                                                速報:話題の 1ビットLLMとは何か?|寺田英雄(㈱オープンストリームCTO)
                                              • 【AIのべりすとインタビュー】小説を書くAIをひとりで作った日本人がいるらしい | オモコロ

                                                それがこちら! 「AIのべりすと」というサービスです。 空欄にサンプルとなる文章を入れると、勝手に続きを生成してくれるというものらしいです。さっそくサンプルを入力してみましょう。 どうせAIが続きを書くなら適当でいいか……。 よしお伝説 俺の名前はライスボールよしお。 今日は待ちに待った「炊飯器ドッジボール」全国大会決勝の日だ。 炊飯器ドッジボールとは、ボールの代わりに炊飯器をぶつけあう危険きわまりないスポーツである。 俺はそのスポーツの関東代表エースなのだ。 「いよいよか……」 「よしお、お前も勝ち残っていたのか」 声をかけてきたのは、 ここまで書きました。無責任に書いたので炊飯器ドッジボールがなんなのかは私にもよくわかりません。 書けたら入力欄の下にある「続きの文を書く」を押します。しばらく待つと、続きが生成されます。 声をかけてきたのは、俺のライバルであり親友でもある男だった。 「お

                                                  【AIのべりすとインタビュー】小説を書くAIをひとりで作った日本人がいるらしい | オモコロ
                                                • 深層学習 DS-GA 1008 · 2020年度春学期 · ニューヨーク大学データ・サイエンス・センター

                                                  概要 この講義では、深層学習や表現学習の最新技術について、主に教師あり・教師なし深層学習、埋め込み手法、距離学習、畳み込み・再帰型ニューラルネットワークや、それらを用いたコンピュータビジョン、自然言語処理、音声認識などの応用技術を取り扱います。 この講義は「DS-GA 1001 Intro to Data Science」あるいは大学院レベルの機械学習科目をすでに履修していることを前提とします。 講義 凡例: 🖥 スライド, 📓 Jupyter notebook, 🎥 YouTubeビデオ. 週 形式 タイトル 資料

                                                  • ガートナー「先進テクノロジのハイプ・サイクル:2020年」を発表。ソーシャルディスタンス技術、説明可能なAI、などが過度な期待

                                                    ガートナー「先進テクノロジのハイプ・サイクル:2020年」を発表。ソーシャルディスタンス技術、説明可能なAI、などが過度な期待 米調査会社のガートナーは、「先進テクノロジのハイプ・サイクル:2020年」を発表しました。 ガートナーのハイプサイクルは、技術の登場から安定までを5つのステージに分けて説明したものです。5つのステージは、「黎明期」から始まり、「『過度な期待』のピーク期」「幻滅期」「啓蒙活動期」「生産性の安定期」まで。この途中で消えていく技術もあります。 2020年版では1700を超えるテクノロジを分析した上で30の先進テクノロジが提示されています。 ハイプサイクルの左からいくつか注目したいテクノロジを見ていくと、黎明期には「エッジにおける低コストのシングルボードコンピュータ」「双方向ブレイン・マシン・インターフェイス」「責任あるAI」「コンポーザブルエンタープライズ」などが並んで

                                                      ガートナー「先進テクノロジのハイプ・サイクル:2020年」を発表。ソーシャルディスタンス技術、説明可能なAI、などが過度な期待
                                                    • お絵かきAIを試してみて自分がAIと同じだと気がついた

                                                      最近のAIブームで、色々と得心が行った。私の行動はAIと同じだったんだと気づいたのだ。 自分は今まで生きてきておそらく全く思考というものを行っていないのだ。ただ今まで学習してきた何かしらの文書から得られた学習の結果としての何らかのあやふやなデータから、ただ周囲から与えられている入力に対して反射的に出力を行っているだけなのだ。 仮に、思考というものが存在するというのなら、それはおそらくNSFWフィルタのようなフィルタリング機構であって、それ以外は私の身体には実装されていない。普通は、実装されているのかもしれないが、少なくとも私には実装していない。 お絵かきAIに絵を描かせている人がつぶやいていた「AIはてっきり論理ばかりがわかって感情がわからないのかと思ったが、むしろ逆で感情ばかりわかって論理がわかっていない」という言葉が芯を得ていると深く感じた。本当に得心が行ったのだ。物理的な構成も論理的

                                                        お絵かきAIを試してみて自分がAIと同じだと気がついた
                                                      • LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti

                                                        もしあなたがLLMを使ったプロダクトを何かしら開発している、もしくは興味があるのなら、メモリを大量に積んだMac Studioの購入を検討すべきです。 対象読者NVIDIAが絶対にいいという人はこの記事の対象読者ではありません。また、用途によって、ローカルマシンによるローカルLLMが向いてる・向いてないは明確にあるので、向いてない用途にしか使わない人も対象読者ではありません。あしからず。 また、この記事は別にNVIDIAをdisる意図はありません。みんな違っていい。NVIDIAもいい選択肢ですが、Mac Studioも悪くないですよ、と言いたい。 結論LLMプロダクト開発において、今年はもはやローカルLLMを無視できない、してはいけない状況です。 LLMプロダクト開発をする会社の視点でいえば、是非とも80GB以上の十分なGPUメモリを積んだマシンを用意できるようなアジリティを持つのが望まし

                                                          LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti
                                                        • 平井大臣によるベンチャー企業参入指示の音声データ書き起こし

                                                          平井卓也デジタル改革担当大臣が、同郷で懇意にしている松尾豊教授の研究所から誕生したベンチャー企業の参入を指示したという文春の報道について、実際の音声データを書き起こしたので共有したい。 詳細は文春記事(https://bunshun.jp/articles/-/46212)を参照のこと。 平井大臣がNECに対して脅すよう指示したという報道について、6月11日に記者会見を開いており、こちらも書き起こしてある(anond:20210611202929)ので、振り返りとして参照されたい。 肝心の会社名は、音声が明瞭ではなくACESと言っているかはわからなかった。(エーエルエス、と言っているようにも聞こえる。大臣がはっきり会社名を覚えていなかったのかもしれない) 以下、文春の音声データ(https://www.youtube.com/watch?v=d0RlGPaaS5I)より書き起こし ----

                                                            平井大臣によるベンチャー企業参入指示の音声データ書き起こし
                                                          • 最強のツール「LangSmith」が登場した話【Python / LangChain】

                                                            【📩 仕事の相談はこちら 📩】 お仕事の相談のある方は、下記のフォームよりお気軽にご相談ください。 https://forms.gle/G5g1SJ7BBZw7oXYA7 もしもメールでの問い合わせの方がよろしければ、下記のメールアドレスへご連絡ください。 info*galirage.com(*を@に変えてご送付ください) 🎁 「生成AIの社内ガイドライン」PDFを『公式LINE』で配布中 🎁 「LINEで相談したい方」や「お問い合わせを検討中の方」は、公式LINEでご連絡いただけますと幸いです。 (期間限定で配信中なため、ご興味ある方は、今のうちに受け取りいただけたらと思います^^) https://lin.ee/3zRuqKe おまけ①:生成AIエンジニア塾 より専門的な「生成AIエンジニア人材」を目指しませんか? そんな方々に向けて、「生成AIエンジニア塾」というプログラムを

                                                              最強のツール「LangSmith」が登場した話【Python / LangChain】
                                                            • MinecraftをAIがプレイ、10分で「ダイヤモンドのツルハシ」を高速作成 米OpenAIが技術開発

                                                              Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米OpenAIの研究チームが開発した「Video PreTraining (VPT): Learning to Act by Watching Unlabeled Online Videos」は、人間がプレイするMinecraft(マインクラフト)の映像から複雑な動作を学習するモデルだ。学習したモデルは、熟練した人でも20分以上かかるダイヤモンドツールの作成を10分程度で成し遂げ、その有効性を示した。 人がプレイしたマインクラフトのプレイ動画がWeb上に多く存在する。今回のモデルはこの膨大な動画データで学習するわけだが、これら動画からは何が起きたかが分かるだけで、マウスの動きやキーの押し順

                                                                MinecraftをAIがプレイ、10分で「ダイヤモンドのツルハシ」を高速作成 米OpenAIが技術開発
                                                              • 数式を使わないTransformerの解説(前編) - conceptualization

                                                                2023/3/23 追記: こちら半年以上前に執筆したもので、その後私の理解も進んで内容的に更新したいところが結構あるため、近日中に非公開とさせていただき,更新後に再公開させていただくつもりです。現時点での本記事の内容は、大きく間違ってはいないけどちらほら微妙なところがあるという感じです。 (ざっくり理解するだけでも良いという人にはそれでも良いかもしれませんが、そういう方向けには 今執筆中のこちらの記事 をおすすめします。) −−−− 最近話題のmidjourneyやDALL-E、凄いですよね。中身はディープラーニング(DNN)のようです。DNNといっても色んな技術がありますが、それらにはTransformerという手法が使われています。本記事は、その手法がどんなものであるかを数式を使わずに説明してみよう、という主旨になります。 ※なお本記事は機械学習のプロの研究者ではない私の独自の解釈が

                                                                  数式を使わないTransformerの解説(前編) - conceptualization
                                                                • 長文要約生成API:朝日新聞社メディア研究開発センター 人工知能研究の取り組み

                                                                  概要 本APIは、入力された記事本文(最大2,000文字まで入力可能=製品版)を機械学習を用いて要約するものです。過去30年分の記事データを、ディープラーニングの機構を用いて学習させています。長文を要約するときにお役立てください。 本APIの機能は、 指定した長さごとに生成型要約 すべての文の長さを揃える すべての文を圧縮する 重要な文を抽出する 重要な文を抽出後圧縮して、指定した長さにする の5つです。より詳細はこちらに解説記事を載せています。 九州電力玄海原発3、4号機(佐賀県玄海町)の運転差し止めを住民らが求めた仮処分申し立ての即時抗告審で、福岡高裁(山之内紀行裁判長)は10日、住民側の抗告を棄却した。主な争点は、耐震設計の基になる基準地震動(想定される最大の揺れ)の合理性、原発周辺の火山の噴火リスク、配管の安全性の3点。 住民側は「基準地震動が過小評価されている」と主張。原子力規制

                                                                  • ディープラーニングの力で誰でもゆかりさんの声になれる声変換技術を作ってみた

                                                                    2年ほど前に、自分の声を結月ゆかりにする声質変換技術を作り、動画を投稿しました。この技術には利用者の音声データが大量に必要であるという欠点があり、ゆかりさんになりたいというみなさんの願いを叶えるのが難しい状態でした。そこで、この技術を利用者の音声データが不要になるように改良し、誰でも簡単に使えるようにしました。ここではその技術について解説します。 手法 音声を直接変換しようとすると、利用者の音声データが必要になってしまいます。そこで、音声を直接変換するのをやめて、①音声を構成する要素である音素と音高に分解し、②音素と音高を目標の声(ゆかりさん)に再合成することを考えました。 ①は、音素の抽出に音声認識とOpenJTalkとJuliusを、音高の抽出にWORLDを用いれば簡単に実現できます。そのため、②さえ実現できれば、利用者の声のデータを用意することなく、誰でもゆかりさんの声に変換すること

                                                                      ディープラーニングの力で誰でもゆかりさんの声になれる声変換技術を作ってみた
                                                                    • 人間が深層学習のAIを理解できないのには、理由がある:朝日新聞GLOBE+

                                                                      【特集】「『予測』という名の欲望」全記事はこちらから読めます ■人間にはAIの考えが分からない? ――ディープラーニングは、大量の「教師データ」を読み込み、入力する変数と、出力する変数との間の関係を見つけ出します。その関係が分かれば、新たなデータを入力したとき、出力が予測できるというわけですが、なぜ人間はそのプロセスを理解できないのでしょうか? おもにふたつの要因があります。質的なものと、量的なものです。量的な問題は、すごくシンプルです。ディープラーニングの内部で動くパラメータ(母数:システムの内部で動く情報)が多すぎるので、その大量・複雑なデータを人間の直感につなげることが難しい、という話です。最近は、多いものでは1億個を超えるパラメータから出力を予測します。じゃあ、その1億個をざっと人間が見てなにか分かるのかといえば、分からない。これが基本的に起こることです。 ――大量の変数という意味

                                                                        人間が深層学習のAIを理解できないのには、理由がある:朝日新聞GLOBE+
                                                                      • 機械翻訳に対する現時点(2022年8月)での私の認識

                                                                        字幕翻訳スクールがAI字幕翻訳ツールを開発したというニュース 数日前に字幕翻訳スクールがAI字幕翻訳ツールを開発したというニュースが流れ、翻訳者たちの間に衝撃が広がりました。これを受けて翻訳者の堂本秋次さんがYouTubeで緊急動画を配信され、それを見たローズ三浦さんの発案で堂本さん、ローズさん、私の3人で機械翻訳の現状についてライブ配信することになりました。当日の告知にもかかわらず30名以上に方々にライブでご視聴いただき、その場でコメントもたくさんいただき成功裡にイベントは終了しました。(3人のトークイベントの動画はこちら:https://www.youtube.com/watch?v=L09NEJLBNzU) 普段「機械翻訳についてどう思いますか」と聞かれるわりに回答にこれほど長い時間をいただけることはなかったので、司会の堂本さんが用意してくださったテーマでお2人と話すことで私自身とし

                                                                        • 『微分可能プログラミング』はどこから来たのか - bonotakeの日記

                                                                          はじめに(8/3追記) この記事を一旦書いたあと、重要な追加証言が得られたため、追記修正しています。結論もやや変わっていますが、現時点のほうがより正確です。 本編:ここから ディープラーニングが現在これだけ流行っている1つの要因は、TensorFlowやPyTorchなどのフレームワークが非常に便利だからです。ニューラルネットワークの設計、訓練、そして分類などの推論がフレームワークを使えばとても簡単に行なえます。 普通に使っている人達は、これらのフレームワークを『ツール』あるいは『ライブラリ』だとみなしていると思います。でも実際のところ、これらはプログラミング言語です。より正確に言えば、すべてのディープラーニングフレームワークはディープラーニング計算用DSL(Domain-Specific Language、ドメイン特化言語)と見なせます。このDSLは大抵、Pythonなど他の汎用言語への

                                                                            『微分可能プログラミング』はどこから来たのか - bonotakeの日記
                                                                          • 自然なブログを書いてしまうほど超高精度な言語モデル「GPT-3」はどのように言葉を紡いでいるのか?

                                                                            OpenAIが開発する「GPT-3」は、ほとんど違和感のないブログ記事を生成できてしまうほど高い精度を誇る言語モデルです。そのGPT-3がテキストを生成する仕組みについて、オンライン学習プラットフォーム「Udacity」でAIや機械学習関連の講座を持つJay Alammar氏が解説しています。 How GPT3 Works - Visualizations and Animations – Jay Alammar – Visualizing machine learning one concept at a time. https://jalammar.github.io/how-gpt3-works-visualizations-animations/ The Illustrated GPT-2 (Visualizing Transformer Language Models) – Ja

                                                                              自然なブログを書いてしまうほど超高精度な言語モデル「GPT-3」はどのように言葉を紡いでいるのか?
                                                                            • 日本の警察は、今年3月から防犯カメラやSNSの画像を顔認証システムで照合していた

                                                                              全国の警察で3月から民間の防犯カメラやSNSの画像を顔認証システムで照合していた......  (写真とは関連がありません) REUTERS/Thomas Peter <全国の警察で3月から民間の防犯カメラやSNSの画像を顔認証システムで照合していたことを共同通信が報じた......> 前々回の記事「日本の警察は世界でも類を見ない巨大な顔認証監視網を持つことになるのか?」では、顔認証システムの拡充が進んでいることと、警視庁がリアルタイムで民間の監視カメラを一元管理し、顔認証システムで識別するシステムを持っていることをご紹介し、今後さらに拡充されていく可能性を指摘した。 それを裏付けるように9月12日に共同通信が全国の警察で3月から民間の防犯カメラやSNSの画像を顔認証システムで照合していたことを報じた(47NEWS、2020年9月13日)。日本の先を行くアメリカで顔認証システムの利用の見直

                                                                                日本の警察は、今年3月から防犯カメラやSNSの画像を顔認証システムで照合していた
                                                                              • 失敗から学ぶ機械学習応用

                                                                                社内勉強会での発表資料です。 「失敗事例を通じて、機械学習の検討で抑えるべきポイントを学ぶ」をコンセプトに作成しました。AI・機械学習を検討する広くの方々に活用していただけると幸いです。 あとがきを下記に書きました。よければこちらもご参照ください。 https://qiita.com/bezilla/items/1e1abac767e10d0817d1

                                                                                  失敗から学ぶ機械学習応用
                                                                                • Stable Diffusion 2.0 Release

                                                                                  We are pleased to announce the open-source release of Stable Diffusion Version 2. The original Stable Diffusion V1 led by CompVis changed the nature of open source AI models and spawned hundreds of other models and innovations worldwide. It had one of the fastest climbs to 10K GitHub stars of any software, rocketing through 33K stars in less than two months. The dynamic team of Robin Rombach (Stab

                                                                                    Stable Diffusion 2.0 Release

                                                                                  新着記事