並び順

ブックマーク数

期間指定

  • から
  • まで

321 - 360 件 / 404件

新着順 人気順

deeplearningの検索結果321 - 360 件 / 404件

  • [速報]ChatGPTを組み込んだ「Microsoft 365 Copilot」は月額30ドルの追加料金で提供。マイクロソフトが発表。Inspire 2023

    [速報]ChatGPTを組み込んだ「Microsoft 365 Copilot」は月額30ドルの追加料金で提供。マイクロソフトが発表。Inspire 2023 マイクロソフトは、日本時間7月19日未明から開催中のパートナー向け年次イベント「Microsoft Inspire 2023」において、Microsoft 365にChatGPTベースのAI機能を組み込んだ「Microsoft 365 Copilot」を1ユーザー当たり月額30ドルの追加料金で提供することを発表しました。 2023年3月に行われたMicrosoft 365 Copilot発表時の様子。左はModern Work & Business Applications担当CVP Jared Spataro氏 Microsoft 365に自動生成機能などを追加 Microsoft 365 Copilotは、Outlookによる過

      [速報]ChatGPTを組み込んだ「Microsoft 365 Copilot」は月額30ドルの追加料金で提供。マイクロソフトが発表。Inspire 2023
    • ニューラルネットワークの中身を分割してAIの動作を分析・制御する試みが成功、ニューロン単位ではなく「特徴」単位にまとめるのがポイント

      GoogleやAmazonが投資するAIスタートアップのAnthropicの研究チームが、ニューラルネットワークがどのように言語や画像を扱っているのかを解き明かす研究において、個々のニューロンを「特徴」と呼ばれる単位にまとめることでニューラルネットワークの中身を解釈しやすくなるという研究結果を発表しました。 Anthropic \ Decomposing Language Models Into Understandable Components https://www.anthropic.com/index/decomposing-language-models-into-understandable-components 大規模言語モデルは多数のニューロンが接続されたニューラルネットワークで、ルールに基づいてプログラミングされるのではなく、多数のデータを元にトレーニングを行うことでタス

        ニューラルネットワークの中身を分割してAIの動作を分析・制御する試みが成功、ニューロン単位ではなく「特徴」単位にまとめるのがポイント
      • OpenAI、大規模言語モデルの数学能力を大きく向上させることに成功 | AIDB

        OpenAIは新しいフレームワーク「PRM」を発表しました。これは、大規模言語モデル(LLM)の数学能力を向上させるためのもので、AIが問題を解く際の誤りをプロセスベースで特定・修正する能力を強化します。このフレームワークで訓練した大規模言語モデルは、DeepMind社の作成した数学問題集(MTAHデータセット)において他のモデルを凌駕し最も優れたパフォーマンスを見せました。 また、この手法は数学だけでなく推論能力を必要とする広範な問題の解決にも応用できる可能性があり、注目を集めています。 参照論文情報 タイトル:Let’s Verify Step by Step 著者:Hunter Lightman, Vineet Kosaraju, Yura Burda, Harri Edwards, Bowen Baker, Teddy Lee, Jan Leike, John Schulman,

          OpenAI、大規模言語モデルの数学能力を大きく向上させることに成功 | AIDB
        • 機械学習と自動微分 (2023)

          「最適化法」第15回(ゲストトーク), 2023年1月20日, 同志社大学.

            機械学習と自動微分 (2023)
          • AIにおける「次元の呪い」解決へ、富士通研が機械学習の最有力学会で発表

            富士通研究所は2020年7月13日、ディープラーニング(深層学習)における教師なし学習の精度を大幅に向上できる人工知能(AI)技術「DeepTwin」を発表した。AI分野の長年の課題だった「次元の呪い」を、映像圧縮技術の知見を活用することで解決したとする。同社は論文を機械学習の最有力学会である「ICML 2020」で7月14日に発表する。 「次元の呪い」とは、データの次元(要素数)が大きくなると、そのデータを分析する際の計算量が指数関数的に増大する現象を指す。次元の呪いを回避するため、一般的に機械学習の高次元データは次元を減らす。 ただ従来の手法には、次元の削減に伴ってデータの分布や確率が不正確になる課題があり、それがAIの精度低下を招く一因になっていた。例えば分布や確率が実際と異なると、正常データを異常と誤判定してしまうような間違いを引き起こしてしまう。 富士通研究所は今回、ディープラー

              AIにおける「次元の呪い」解決へ、富士通研が機械学習の最有力学会で発表
            • 僕たちがグラフニューラルネットワークを学ぶ理由

              グラフニューラルネットワーク - Forkwell Library #50 https://forkwell.connpass.com/event/315577/ での講演スライドです。 サポートサイト:https://github.com/joisino/gnnbook グラフニューラルネットワーク(機械学習プロフェッショナルシリーズ)好評発売中!:https://www.amazon.co.jp/d/4065347823 連絡先: @joisino_ (Twitter) / https://joisino.net/

                僕たちがグラフニューラルネットワークを学ぶ理由
              • Interpretable Machine Learning

                Interpretable Machine Learning A Guide for Making Black Box Models Explainable. Christoph Molnar 2021-05-31 要約 機械学習は、製品や処理、研究を改善するための大きな可能性を秘めています。 しかし、コンピュータは通常、予測の説明をしません。これが機械学習を採用する障壁となっています。 本書は、機械学習モデルや、その判断を解釈可能なものにすることについて書かれています。 解釈可能性とは何かを説明した後、決定木、決定規則、線形回帰などの単純で解釈可能なモデルについて学びます。 その後の章では、特徴量の重要度 (feature importance)やALE(accumulated local effects)や、個々の予測を説明するLIMEやシャープレイ値のようなモデルに非依存な手法(mo

                • [輪講資料] LoRA: Low-Rank Adaptation of
 Large Language Models

                  パラメータを固定した事前学習済みモデルに対して、ごく少数のパラメータからなる低ランク行列を導入・学習することで、モデル全体のfine-tuningと同等の性能を発揮できる手法であるLoRAと、その論文について解説した資料です。 深層学習を用いた自然言語処理の歴史的な変遷と周辺技術から、LoRAが必要とされるに至った背景まで丁寧に解説します。

                    [輪講資料] LoRA: Low-Rank Adaptation of
 Large Language Models
                  • Google Cloud、ジェネレーティブ AI を 開発者、企業、政府に提供 | Google Cloud 公式ブログ

                    ※この投稿は米国時間 2023 年 3 月 14 日に、Google Cloud blog に投稿されたものの抄訳です。 ジェネレーティブ AI は、インタラクティブなマルチモーダル体験の新しい波の到来を告げるものであり、情報、ブランド、そして互いとの関わり方を変えるものです。Google Cloud は、AI に対する Google の数十年にわたる研究、革新、投資の力を活用し、企業や政府に対して、シンプルな自然言語のプロンプトからテキスト、画像、コード、動画、音声などを生成する機能を提供します。 この技術の可能性を実現することは、すべての開発者、企業、政府の手にこの技術が提供されることを意味します。これまで、組織がジェネレーティブ AI にアクセスすることは難しく、カスタマイズはおろか、時には信頼を損ないかねない不正確な情報が生成されることもありました。10 年前、企業や開発者が新しい

                      Google Cloud、ジェネレーティブ AI を 開発者、企業、政府に提供 | Google Cloud 公式ブログ
                    • 達人出版会

                      探検! Python Flask Robert Picard, 濱野 司(訳) BareMetalで遊ぶ Raspberry Pi 西永俊文 なるほどUnixプロセス ― Rubyで学ぶUnixの基礎 Jesse Storimer, 島田浩二(翻訳), 角谷信太郎(翻訳) 知る、読む、使う! オープンソースライセンス 可知豊 きつねさんでもわかるLLVM 柏木餅子, 風薬 R/RStudioでやさしく学ぶプログラミングとデータ分析 掌田津耶乃 データサイエンティストのための特徴量エンジニアリング Soledad Galli(著), 松田晃一(訳) 実践力をアップする Pythonによるアルゴリズムの教科書 クジラ飛行机 スッキリわかるサーブレット&JSP入門 第4版 国本 大悟(著), 株式会社フレアリンク(監修) 徹底攻略 基本情報技術者教科書 令和6年度 株式会社わくわくスタディワール

                        達人出版会
                      • RAGにおけるドキュメント検索精度向上について(概要編)

                        はじめまして。損害保険ジャパン株式会社 DX推進部の眞方です。普段はリードエンジニアとして、新しいサービスのアーキテクチャ検討からローンチまでの作業や、新規技術を用いたアプリのプロトタイプ実装などを行なっています。 弊社では、LLM(Large Language Models)を活用したアプリケーションの開発を積極的に検討し、既に社内でいくつかのプロトタイプをローンチしています。 本記事では、その最も一般的?なユースケースの一つとも言えるRAG(Retrieval Augmented Generative)の構築において、ドキュメント検索精度の向上にどのように取り組んだ内容の概要を紹介させていただきます。実際の詳細な手法および結果については、別記事(実践編)で解説予定です。 はじめに RAGとは? この記事を読まれている方の中にはご存知の方も多いでしょうが、RAGとはRetrieval A

                          RAGにおけるドキュメント検索精度向上について(概要編)
                        • データサイエンティスト職に未経験が転職活動した結果 - Qiita

                          去年、とある会社にデータサイエンティスト職として転職いたしました。 はやりのせいか、データサイエンティスト志望者と求人が増えている印象ではありましたが、噂も多いこの業界の転職事情について、実際はどんな状況であったのか、まとめをさせて頂きます。 自己紹介 大学・大学院では、バイオサイエンスを専攻。 植物、微生物を対象に、遺伝子発現解析や、化学分析(HPLC, GC-MS)、Rを使った統計・多変量解析を主に行っていました。 新卒で繊維系の製造企業に就職。1カ月間の研修後、配属ガチャにより子会社の品質保証部に配属され、約1年半所属しておりました。 品質保証部では、主に客先からのクレーム対応や客先向け書類の作成・整理の事務作業、工場側と設計開発との社内調整役など、製造部門のバックオフィス的な役回りで仕事を担当しておりました。 転職活動へのモチベーション ①製造部門のバックオフィス的な役回りが合わな

                            データサイエンティスト職に未経験が転職活動した結果 - Qiita
                          • DALL·E 2

                            DALL·E 2 is an AI system that can create realistic images and art from a description in natural language.

                              DALL·E 2
                            • Google、アプリ実行時に生成AIが適切なUIを構成し動的生成する「AI Generated UI」発表

                              Google、アプリ実行時に生成AIが適切なUIを構成し動的生成する「AI Generated UI」発表 基本的に、アプリケーションのユーザーインターエイス(UI)は開発時に設計され実装されて、その実装通りに実行時に表示されるものです。 しかしこのUIを開発時ではなく、アプリケーションの実行時に生成AIが適切に構成して動的に生成し表示する「AI Generated UI」という仕組みを、Googleがインドのバンガロールで行われたイベント「Google I/O Connect Bengaluru 2024」で発表しました。 現時点でAI Generated UIはFlutterフレームワークの上にアーリープレビューとして実装されており、ユーザーの意図に基づいてFlutterが動的にUIコンポーネントとレイアウトを構成し、ユーザーにパーソナライズされた最適なUIを表示すると説明されています

                                Google、アプリ実行時に生成AIが適切なUIを構成し動的生成する「AI Generated UI」発表
                              • 絵心がない線画を“いい感じの作品”に変える画像生成AI「Sketch-to-Image」 Googleなどが開発

                                Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 Google ResearchとイスラエルのTel Aviv Universityに所属する研究者らが発表した論文「Sketch-Guided Text-to-Image Diffusion Models」は、落書きのようにざっと描いた絵を入力テキストに従って詳細な画像を生成する深層学習モデルを提案した研究報告だ。手描きのスケッチを任意のテキストプロンプトによるスタイル制御で、自然な高精細画像に変換する。 大規模なテキストから画像への拡散モデルは、与えられたテキストプロンプトに従った前例のない品質の多様な画像の合成を可能にし、コンテンツの作成と編集のための刺激的なツールとなってきた。 しか

                                  絵心がない線画を“いい感じの作品”に変える画像生成AI「Sketch-to-Image」 Googleなどが開発
                                • 【終了しました】 『ゼロから作る Deep Learning ❸』公開レビューのお知らせ|斎藤 康毅(さいとう こうき)

                                  こんにちは、斎藤 康毅(さいとう こうき)といいます。ここ1年間はずっと本を書いていました。『ゼロから作る Deep Learning ❸ — フレームワーク編』という本です。最近ようやく、原稿を書き終わろうとしています。 この本は「ディープラーニングのフレームワークを作ろう」という本です(野心的にも、オリジナルの「フレームワーク」をゼロから作ります)。世界中を見回しても、ほとんど類書がないような本になっていると思います。これから先、できるかぎり良い本になるよう、最後の最後までブラッシュアップしていく予定です。 さて、今回も前作同様に「公開レビュー」を行います。興味のある方は、オンラインで原稿を読めるページを用意していますので、チェックしてみてください(無料です!)。問題に感じた箇所や改善すべきと思った点など、コメントいただけますと幸いです。どんなに小さな指摘や疑問でも構いませんので、気軽

                                    【終了しました】 『ゼロから作る Deep Learning ❸』公開レビューのお知らせ|斎藤 康毅(さいとう こうき)
                                  • ChatGPT の仕組みを理解する(前編) - ABEJA Tech Blog

                                    こんにちは!株式会社 ABEJA で ABEJA Platform 開発を行っている坂井(@Yagami360)です。世間では ChatGPT などの大規模言語モデル(LLM)による対話型 AI が盛り上がってますね。クオリティーも凄いし AI 業界以外でも盛り上がってると嬉しいですよね。この数年で一段と AI の社会実装が業界以外の人にも目に見える形で進んできたなあと実感しております。 自分は普段業務では ABEJA Platform という AI プロダクトやその周辺プロダクトのバックエンド開発とフロントエンド開発をやっているのですが、AI 業界所属していながら ChatGPT などの LLM 全然追いかけれていない状態になっちゃてて自責の念にかられているので、このブログ執筆という良い機会に ChatGPT の仕組みについて調べてみました。 本記事の対象読者としては、以下のようになりま

                                      ChatGPT の仕組みを理解する(前編) - ABEJA Tech Blog
                                    • PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021

                                      Preferred Networks(PFN)は深層学習などの最先端の技術を最短路で実用化することで、これまで解決が困難であった現実世界の課題解決を目指しています。コンピュータビジョン、自然言語処理、音声認識、ロボティクス、コンパイラ、分散処理、専用ハードウェア、バイオインフォマティクス、ケモインフォマティクスといった幅広い分野で研究開発を行っており、それを支えているのが Kubernetes を用いて構築しているオンプレミス/ベアメタルの GPU クラスタです。 本セッションでは、PFN が Kubernetes を用いてクラスタを運用するなかでどのような障害が起きるのかを紹介し、また障害対応をどのように自動化しているのかを具体的に使用/開発したソフトウェアを含めてご紹介します。また Kubernetes クラスタの管理、アップグレードの自動化にも取り組んでおり、それを実現する Clus

                                        PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
                                      • Introducing OpenAI Japan

                                        As we grow our operations internationally, we’re expanding into Asia with a new office in Tokyo, Japan. We are committed to collaborating with the Japanese government, local businesses, and research institutions to develop safe AI tools that serve Japan’s unique needs and to unlock new opportunities. We chose Tokyo as our first Asian office for its global leadership in technology, culture of servi

                                          Introducing OpenAI Japan
                                        • DockerでのディープラーニングGPU学習環境構築方法 - Qiita

                                          DockerでGPU学習環境構築 背景 ディープラーニングでローカルPCのGPUを使った学習環境を構築した経験のある人は、一度はNVIDIAのドライバやCUDA周りでハマった経験があるのではないでしょうか?そんなバッドノウハウ(怪文章?)をまとめたQiita記事(TensorFlowでGPU学習させるためにCUDA周りではまったときの対処法)に、なんとNVIDIAの中の人(@ksasaki さん)から「Dockerを使えば…人類は幸せになれる(超意訳)」とのコメントをいただきました! 喜び勇んで、NVIDIAのドライバをアップデートしたところ、そこには文鎮と化した起動しないLinuxマシンが…からあげのNVIDIAとの戦いは始まったばかりだ!(戦ってません) DockerでGPU学習環境構築するメリット うまく構築できればという前提で、以下のようなメリットがあります。 様々なフレームワーク

                                            DockerでのディープラーニングGPU学習環境構築方法 - Qiita
                                          • Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く?【2020年12月版】 - Qiita

                                            Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く?【2020年12月版】RaspberryPiTensorflowLitexnnpack 1. はじめに 今から半年前の2020年6月、ラズパイ4上でTensorFlow Liteを使った様々なAI認識アプリを動かしてみて、その動作速度をまとめました。 当時のTensorFlowはバージョン2.2でしたが、現在は 2.4(rc4) へと進んでいます。進化が極めて速いDeepLearningの世界において、この半年間でTensorFlow Liteはどう変化したでしょうか。もし「手持ちのアプリは何も変えてないのに、TensorFlow Liteを新しくするだけでめっちゃ速く動くようになったぜ」というのだと嬉しいですよね。 本記事では、前回計測に用いたアプリを再び最新版のTensorFlow Lite環

                                              Raspberry Pi4 単体で TensorFlow Lite はどれくらいの速度で動く?【2020年12月版】 - Qiita
                                            • 【文春オンライン「ChatGPTには逆立ちしてもできないことがある」平井鳥取県知事が誤解覚悟で「使用禁止」を訴えた真意】の記事を読んで|ppp

                                              【文春オンライン「ChatGPTには逆立ちしてもできないことがある」平井鳥取県知事が誤解覚悟で「使用禁止」を訴えた真意】の記事を読んで ■5/22追記 投稿したのは数日前なのに、なんだこれ? ちょっと怖い。 ■はじめに 日曜日、chatGPT-4(以下「GPT」)のプロンプトや拡張機能を色々と試していました。また、GoogleのBardも使えるようになっていたので、素人なりに試行錯誤していました。 朝から何時間も試行して疲れたので、ちょっと気分転換にTwitterの”おすすめ”に流れてくるツイートを漫然と見ていました。 すると、見出しの記事が流れてきました。別に私は鳥取県知事に対して好意も悪意もない・・・というか、あの時おすすめツイートが流れてこなければ、他組織の首長のインタビューを読むことは恐らくなかったでしょう。北海道知事や沖縄県知事が何をしようと関心ないし、それと同じ程度に関心ないも

                                                【文春オンライン「ChatGPTには逆立ちしてもできないことがある」平井鳥取県知事が誤解覚悟で「使用禁止」を訴えた真意】の記事を読んで|ppp
                                              • チャット機能を搭載した新しいBingが使えるようになったので早速試してみた|IT navi

                                                2023年2月8日未明にMicrosoftからチャット機能を搭載した検索エンジンの新しいBingが発表されました。すぐにBingのサイトからウェイティングリストに登録したところ、翌日(2月9日)、招待メールが届き、新しいサービスを利用できるようになりました。 1.新しいBingの機能や仕組みについての質問 最初は、こんな感じに始まります。 Bingのチャットモード画面 Bingが回答するのに検索が必要と判断した場合は、「'〇〇(検索ワード)'を検索しています」と表示されます。 回答の下に「詳細情報」として参照先のリンクが表示され、対応する箇所に脚注番号が表示されます。 回答中の点線の引かれた文章をクリックすると、対応する参照先のサイトが開きます。 さらに、今日の天気を聞いた場合は、(今回は表示させていませんが、)現在地の天気予報の情報が表示されます。 また、次のユーザーの質問候補も回答の下

                                                  チャット機能を搭載した新しいBingが使えるようになったので早速試してみた|IT navi
                                                • ファーストブクマカ少なすぎねえ?

                                                  体感10人くらいしかいねえぞ 俺の増田に関しては花の人、テディベアの人、オタマジャクシの人、ネコの人の4人体制つってもいい 増田ってけっこう知名度あるサービスなんじゃないのか? ネット見てたらたびたび目に入ってくるじゃん その有名サービスから、有名投稿を送り出す、いわば増田の柱がファーストブクマカじゃん それが10人くらいしかいないのってマジでなんなんだ あくまで裏方で、いくらバズ増田を世に送り出しても全然注目を浴びられないのがいけないのか? でもさあ!楽しいじゃねえかよファーストブクマ 自分のアイコンがついてさ、ブクマ数1でスタートした増田が300ブクマとかになってたら純粋に嬉しいじゃない 送り出す楽しみがあるじゃない 労力としてはタダみたいなもんだ コメントすらつけなくていいんだしよ おかしいだろこの寡占状態 もっと群雄割拠にならないのか?

                                                    ファーストブクマカ少なすぎねえ?
                                                  • 開発に使える?ChatGPTとプロンプトエンジニアリング - Qiita

                                                    こんにちは!逆瀬川 (@gyakuse) です! 今日は開発に使うときのプロンプトの例を紹介します。ただ、これは一例に過ぎず、もっと雑な表現や工夫されたプロンプトを使っても良いでしょう。大事なのは、どのように情報を与えるとうまくin-context learningしてくれそうか、ということを考えながらプロンプトを渡してあげることだと思います。 だいじなこと ChatGPTのGPT-4を使いましょう ChatGPTをそのまま使う場合、オプトアウト申請し、受理されたことを確認しましょう オプトアウトしていても他者に会話履歴が見える状態になる等のトラブルもあったため、API経由のほうが安全です 会社のプログラム等は情シス部門と連携を取り、会社のポリシーを検討をしましょう 実装を依頼するプロンプト 「行いたいこと」「処理の流れ」「参照ドキュメント」という順で書いてあげると良いです。 サンプルプロ

                                                      開発に使える?ChatGPTとプロンプトエンジニアリング - Qiita
                                                    • 機械学習で画像の高画質化を試みる(備忘録)- Python3 - Qiita

                                                      1.はじめに 最近、Twitterで「謎の技術で高画質化された画像」なるものがタイムラインにいくつか流れてきて興味が湧いたので、機械学習の勉強がてら画像の高画質化の方法を、僕のように「理屈無しで手っ取り早く機械学習に触れたい!」という人に向けて備忘録としてここに残しておくことにしました。 謎の技術でこれを高画質にするのは草 pic.twitter.com/HeBB7J8Q7D — koboのようなもの (@cinnamon_kobot) February 14, 2020 謎の解像度をあげる技術で僕らのぼっさんが高解像度に!!! pic.twitter.com/cjB0MM8Oqu — ろありす (@roaris) February 15, 2020 2.実行環境の構築 今回、この手の機械学習でよく用いられる「pix2pix」を使用しました。pix2pixはGANを用いた画像生成アルゴリズ

                                                        機械学習で画像の高画質化を試みる(備忘録)- Python3 - Qiita
                                                      • NVIDIA、1パッケージに2ダイの新型GPU「Blackwell」。AI性能は学習4倍、推論30倍に

                                                          NVIDIA、1パッケージに2ダイの新型GPU「Blackwell」。AI性能は学習4倍、推論30倍に
                                                        • 「AI安倍晋三」ネットで物議 合成音声のYouTube動画、“東京大学AI研究会”が公開

                                                          Twitterアカウント(@AIAbeShinzo)も開設しており、最初に投稿したツイートは26日正午時点で1万件以上リツイートされるなど関心を集めている。ユーザーからは「素晴らしい」や「ありがとう」など絶賛する声の他、「死者への冒涜ではないか」や「AIで美空ひばりの新曲作ったのと同じ感じがして複雑」など疑問を呈する声も見られる。 「東京大学AI研究会」とは何者か? 発起人である東京大学AI研究会のWebサイトによると、同研究会は東京大学教養学部・工学部有志と学生有志が2021年5月10日に設立。5月時点では「東大13名、京大10名、大阪大学6名、早稲田大学9名、慶応義塾大学1名、筑波大学1名、立命館大学3名」(原文ママ)の43人が在籍し、代表者は東京大学・教養学部・理科一類に所属しているという。 目的は「飛躍的・未到達領域のAI開発」としており、最新の活動記録として4月に「SOTA(特定

                                                            「AI安倍晋三」ネットで物議 合成音声のYouTube動画、“東京大学AI研究会”が公開
                                                          • 自動プロンプト最適化をやってみた - Algomatic Tech Blog

                                                            はじめまして!データサイエンティストの山内(@jof_5)です。 本記事では、日々、プロンプト開発されている皆様に向けて、プロンプトを効率的に開発する手法の一つである「自動プロンプト最適化」について記載いたします。 1. プロンプトエンジニアリングの必要性と課題 2. 自動プロンプト最適化について 2-0. 最適なプロンプトとは何か?☕ 2-1. 自動プロンプトの概要 2-2. 自動プロンプト最適化のアーキテクチャ ①Task Executor: LLMによるタスクの実行 ②Output Evaluator: 出力の評価 ③ Prompt Improver: 最適なプロンプトの生成 3. 実験結果と考察 3-1. 自動プロンプト最適化の有効性の検証 3-2. 最適化プロンプトの生成過程 3-3. 最適化されたプロンプトの特徴 3-4. プロンプト生成用LLM(Prompt Improver

                                                              自動プロンプト最適化をやってみた - Algomatic Tech Blog
                                                            • 「ChatGPTには一度言ったことを覚えていてほしい」 ベクターストアで社内向けChatGPTの頭をちょっと良くした話

                                                              「ChatGPT Meetup」は、プロンプティングからOpenAI API、さらには周辺のライブラリやHubのエコシステムまで広く活用の助けになる知見を共有し、みんなで手を動かして楽しむためのコミュニティです。1回目に登壇したのは、株式会社リンクアンドモチベーションの白田幹氏。社内向けのChatGPTを改善した時の開発について発表しました。 LLM推進担当の白田氏 白田幹氏:「Vector Storeを使って社内向けのChatGPTの頭を少しだけ良くした話」というところで、ちょっとお話できればと思っています。 はじめに、自己紹介をさせてください。株式会社リンクアンドモチベーションという会社におります、白田幹と申します。2020年新卒入社で、データサイエンティストとしてこれまで働いてきたのですが、「ChatGPT」の登場とともに今はLLM推進担当というところで、基本的には社内に向けてLLM

                                                                「ChatGPTには一度言ったことを覚えていてほしい」 ベクターストアで社内向けChatGPTの頭をちょっと良くした話
                                                              • DreamFusion: Text-to-3D using 2D Diffusion

                                                                Abstract Recent breakthroughs in text-to-image synthesis have been driven by diffusion models trained on billions of image-text pairs. Adapting this approach to 3D synthesis would require large-scale datasets of labeled 3D assets and efficient architectures for denoising 3D data, neither of which currently exist. In this work, we circumvent these limitations by using a pretrained 2D text-to-image

                                                                  DreamFusion: Text-to-3D using 2D Diffusion
                                                                • LLM Visualization

                                                                  A 3D animated visualization of an LLM with a walkthrough.

                                                                  • 何度でも言う。AI開発に「失敗したので諦めます」は絶対にない。

                                                                    俺は量子コンピュータを研究してたからわかる。 意味がわからないか? お前らはAI以外の科学研究分野になんて興味もないから知らないんだろうが、この業界には「もはやだれもできると信じてないけど、政治的にやり続けなければいけない研究」というものがある。 量子コンピュータがそうで、20年前には「無理。できない。ほぼ間違いなく」という答えが出てる。 それでもなぜ研究を辞められないか? 「ほぼ」でなく「絶対」でない限り、もし万が一にも億が一にも「敵対勢力」に先に開発されたら安全保障に重大なリスクが出るから、というだけの話だ。 かつての原爆や宇宙開発と同じだ。 違うのは、これらがある程度の結果にたどりつくことで開発競争にもケリがついたことと違って、量子コンピュータはどこまで行っても何にもならないから、ただ無駄に研究費を食うだけなこと。 成果が出ていると強弁するために、「量子超越性」などと20年前はなかっ

                                                                      何度でも言う。AI開発に「失敗したので諦めます」は絶対にない。
                                                                    • AI の時代を迎えるにあたって: 責任ある AI で未来の発展へ - News Center Japan

                                                                      すべての Microsoft 製品 Global Microsoft 365 Teams Copilot Windows Surface Xbox セール 法人向け サポート ソフトウェア Windows アプリ AI OneDrive Outlook Skype OneNote Microsoft Teams PC とデバイス Xbox を購入する アクセサリ VR & 複合現実 エンタメ Xbox Game Pass Ultimate Xbox Live Gold Xbox とゲーム PC ゲーム Windows ゲーム 映画とテレビ番組 法人向け Microsoft Cloud Microsoft Security Azure Dynamics 365 一般法人向け Microsoft 365 Microsoft Industry Microsoft Power Platform W

                                                                        AI の時代を迎えるにあたって: 責任ある AI で未来の発展へ - News Center Japan
                                                                      • Generative Models

                                                                        2024年6月13日に大阪大学大学院 情報科学研究科で行った「情報科学特別講義Ⅰ」の講義資料です。 https://www.ist.osaka-u.ac.jp/japanese/news/newsDetailNews.php?id=308

                                                                          Generative Models
                                                                        • 脳みそが固くなったおじさんSEが機械学習を勉強してみた - Qiita

                                                                          【はじめに】 本記事は 「機械学習をどう学んだか by 日経 xTECH ビジネスAI② Advent Calendar 2019」 の19日目になります。 おじさんSEの私がどうやって機械学習を勉強したかを記します。 きっかけは当時抱えていた分類課題において、「機械学習が使えるんじゃね?」というところから始まりました。 闇雲にやっていたので正直記憶は曖昧です。 経歴 プログラム歴は30年近くあります。 小学生の時に覚えたMS BASICから始まり、Z80アセンブラ、MC68000アセンブラ、FORTRAN、C(UNIX)、C++(Mac)、VB、Java(Android)、VB.NET、C#と触ってきました。 いろいろな言語に触れてきましたが、どれも極めるほどガッツリやっていたわけではありません。 機械学習に関しては20年以上前、いわゆる第二次AIブームの終わり頃に卒論のテーマでニューラ

                                                                            脳みそが固くなったおじさんSEが機械学習を勉強してみた - Qiita
                                                                          • 【保存版】環境構築不要!Google Colaboratoryで始める「ゼロから作るDeepLearning」 - Qiita

                                                                            【保存版】環境構築不要!Google Colaboratoryで始める「ゼロから作るDeepLearning」Python機械学習MachineLearningDeepLearning 「ゼロから作るDeepLearning」とは? DeepLearningの理論非常に丁寧に説明している良書です。ライブラリに頼らず理論を理解してゼロから実装するので、「DeepLearningの理論をしっかりと理解したい!」という人におすすめです。ですが、Pythonの文法の説明は少ないので、ある程度入門書などでPythonの基礎を習得していないと理論は理解できてもプログラムを理解するのは難しいかと思います。 以下から購入できます。 https://www.amazon.co.jp/dp/4873117585/ref=cm_sw_em_r_mt_dp_U_dEFvEb1FVX4AK プログラムをGoogle

                                                                              【保存版】環境構築不要!Google Colaboratoryで始める「ゼロから作るDeepLearning」 - Qiita
                                                                            • 【保存版】オープンデータ・データセット100選 -膨大なデータを活用しよう! | AI専門ニュースメディア AINOW

                                                                              最終更新日: 2020年3月4日 AIの高まりとともにデータの大切さが再認識される今、オープンにさまざまなデータが公開され、気軽に活用できるようになっています。 オープンデータの存在は、膨大なデータから学習を行う機械学習にとって不可欠で、構築したいAIに合わせてオープンデータを選択し、活用することが必要です。 一方、オープンデータのみでは競合優位性のあるAIは構築できません。マクロなオープンデータと、独自に収集したミクロなデータを組み合わせて、独自のAIを構築していくことが重要です。 オープンデータを活用したサービスを構築する際には、サービスのUX(ユーザー体験)を高め、いかにユニークなデータを取得できるかが勝負なのでオープンデータに頼りすぎないようにしましょう。 今回、オープンデータ・データセットを6カテゴリに分類し、100個選出しました。自身のサービスやAIの構築に活かせそうなデータを

                                                                                【保存版】オープンデータ・データセット100選 -膨大なデータを活用しよう! | AI専門ニュースメディア AINOW
                                                                              • 日本語OCRはなぜ難しい? NAVERのエンジニアが語る、テキスト検出における課題と解決策

                                                                                2019年11月20、21日の2日間、LINE株式会社が主催するエンジニア向け技術カンファレンス「LINE DEVELOPER DAY 2019」が開催されました。1日目は「Engineering」をテーマに、LINEの技術の深堀りを、2日目は「Production」をテーマに、Web開発技術やUI/UX、プロジェクトマネジメントなど、より実践的な内容についてたくさんのプレゼンテーションが行われました。「NAVER ClovaのOCR(光学的文字認識) 」に登壇したのはNAVER OCR Team AI ResearcherのHwalsuk Lee氏。深層学習を用いたOCR技術の仕組みについて語りました。講演資料はこちら LINEのOCR技術の仕組み Hwalsuk Lee氏:みなさま、こんにちは。Hwalsuk Leeと申します。NAVER Clova OCR Teamから参りました。今

                                                                                  日本語OCRはなぜ難しい? NAVERのエンジニアが語る、テキスト検出における課題と解決策
                                                                                • 自然言語処理の王様「BERT」の論文を徹底解説 - Qiita

                                                                                  オミータです。ツイッターで人工知能のことや他媒体で書いている記事など を紹介していますので、人工知能のことをもっと知りたい方などは気軽に@omiita_atiimoをフォローしてください! 2018年10月に登場して、自然言語処理でもとうとう人間を超える精度を叩き出した ことで大きな話題となったBERT。それ以降、XLNetやALBERT、DistillBERTなどBERTをベースにしたモデルが次々と登場してはSoTAを更新し続けています。その結果、GLUEベンチマークでは人間の能力が12位(2020年5月4日時点)に位置しています。BERTは登場してまだ1年半程度であるにもかかわらず、被引用数は2020年5月4日現在で4809 にも及びます。驚異的です。この記事ではそんなBERTの論文を徹底的に解説していきたいと思います。BERTの理解にはTransformer[Vaswani, A.

                                                                                    自然言語処理の王様「BERT」の論文を徹底解説 - Qiita