並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 537件

新着順 人気順

gpt-3の検索結果1 - 40 件 / 537件

  • 最近ローカルLLMがアツいらしい

    最近、ローカルLLMがアツくなっているという話をtwitterでチラホラ見かける。 ローカルLLMって何じゃ?というと、オープンに公開されているモデルのウエイトをDLしてきて手元のPC上で推論させる事である。 オープンなAIモデルとは逆の存在として、モデルがDLできないクローズなAIモデルもある。 OpenAIやAnthropicのような最先端AI企業のクローズなAIモデルに比べて、オープンに公開されているオープンなAIモデルの性能は今でもかなり後れを取っている。 だから去年の間はあくまでAIの本命はChatGPTのようなクローズモデルであって、オープンなAIモデルなんて眼中にありませんみたいな風潮が無くはなかった。だが最近は風向きが少々変わってきている。 GPTのAPI高い問題 & OpenAIがAIベンチャー皆殺しにしてしまう問題 まず「結局GPTのAPIを叩いてサービス運営して成功し

    • 事業失敗し26歳で自己破産するまでと、自己破産したらどうなるのか。について|棒線小僧

      初めまして棒線小僧と申します このnoteを読まれている方の多くは、自分で商売・事業を始めている或いは今後起業したい。という方が大半だと想定しておりますので、左記に該当しない方にはあまり刺さらない内容となっておりますが、左記の方々であれば一読の価値は一定担保出来ているのではないかなと思っております 在学中にベンチャー・スタートアップ創業からエクイティ調達・融資、組織瓦解、事業撤退→自己破産→メンタルブレイクみたいな、まあその界隈では正直よくある話ですが インターネット・SNS全体で見ると意外と開示している人は少ない(成功した後に過去の失敗談として語られることはある。ちなみに私は今も全く成功していないです)と思ったので 自己破産に至るまでの経緯と、自己破産した後の影響に関してリアルに書かせて頂きました(今はステルスで仕込んでいる事業に専念しているため、名前だし・顔出ししていないですが、上記の

        事業失敗し26歳で自己破産するまでと、自己破産したらどうなるのか。について|棒線小僧
      • めちゃ便利になった 無料版「ChatGPT」新機能の使い方まとめ【最新版】 (1/5)

        OpenAIは5月30日、同社のチャット型AI「ChatGPT」無料版ユーザーに向け、制限付きながら最新の大規模言語モデル「GPT-4o」および、これまで有料版ユーザーしか利用できなかった多くの機能を公開した(発表時のニュース記事)。 情報がとても多いので、今回の変更で無料版ユーザーは「なにができるようになったか」、そして「なにができないのか」を使い方中心にまとめた。 1. GPT-4oは回数制限あり チャット型AIアプリの心臓とも言える大規模言語モデル(LLM)、これまで無料版ユーザーは「GPT-3.5」という旧世代モデルしか利用できなかったが、今回の変更で回数制限(具体的な回数は明記されていない)はあるものの、最新モデルのGPT-4oが使えるようになった。 GPT-4oの利用に特に設定などは必要なく、無料アカウントにログインして普通に質問すればOK(使い方はちょっとわかりにくいのでこち

          めちゃ便利になった 無料版「ChatGPT」新機能の使い方まとめ【最新版】 (1/5)
        • AIを使った論文の読み方

          近年の AI の進歩により、論文の読み方も大きく変化を遂げました。AI を活用することで以前と比べてはるかに簡単かつ早く論文が読めるようになりました。 以前私の個人ブログにて、論文の読み方やまとめ方を紹介しました。その時には要約ツールは用いていませんでしたが、最近はすっかり要約ツールを多用するようになりました。 本稿では、最新の AI を使った論文の読み方を丁寧に紹介します。 基本的な流れ 本稿でおすすめするのは ChatGPT か Claude で要約を生成して論文の概要をつかみ、Readable で精読するという方法です。ChatGPT や Claude では単に全体の要約を生成するだけでなく、肝となる箇所を特定したり理解するためにも用います。具体的な手順については後の項で解説します。 私が特定のテーマについて調査を行う場合には、テーマに関係する論文を被引用数の多いものを中心に 10

          • GPTが人知れず既存の名刺管理アプリを抹殺していた話 - Qiita

            名刺管理アプリ作ってほしいといわれた それは2/22のお話。 ことの発端は別の部署からかかってきた一本の電話でした。 新規事業の部署でいろいろな取引先様と付き合いがあるものの、紙の名刺が非常に多く管理に困っているとのことのことです。 私は小売業に勤務しているしがない一社員で、現在Eコマースの戦略立案に関する部署に所属しています。 電話先の方は、以前一緒の部署で勤務したことがある方です。現在新規事業のプロジェクト推進をしており、冒頭のような課題感を持っているため既存の名刺管理アプリ導入を考えたのですが、あまりのお値段の高さに卒倒して私に藁をもすがる思いで連絡されたようです。 これまでのアプリは名刺の識別専門のAI()を使っていた 話を聞いてみたところ、 名刺の写真を撮る 会社名、部署名、名前、…など項目別にスプレッドシートへ記載される スプレッドシートに次の打ち合わせ日を記載しておくと通知さ

              GPTが人知れず既存の名刺管理アプリを抹殺していた話 - Qiita
            • もはや「ChatGPT」で騒いでいる場合ではない?

              日本で生成AIと言えば、OpenAIのChatGPTがその代名詞。この傾向は日本でのオフィス開設も加わって、さらに高まっているが、そのOpenAIやGeminiをはじめとする多様なAIサービスを提供するグーグルと並んで存在感を示している企業がある。 このジャンルに注目している方ならばご存知だろうが、AnthropicというAI専業ベンチャーである。AnthropicはOpenAIの運営方針に異を唱えるメンバーがスピンアウトした2021年創業の生成AIスタートアップで、アマゾンとグーグルが巨額を出資していることでも知られる。 滑らかな文章を生成するClaude 同社の大規模言語モデル“Claude(クロード)”はその性能の良さから注目されていたが、特に注目を集めるようになったのは、今年3月4日に発表されたClaude 3からだろう。特徴的な性能や機能もさることながら、印象的だったのは生成する

                もはや「ChatGPT」で騒いでいる場合ではない?
              • 今日から始めるChatGPT+Zapierで雑パーソナライズ情報収集 - LayerX エンジニアブログ

                皆さんこんにちは。CTOの松本です。LLM使ってますか?ChatGPT毎日触ってますか? LLMに熱狂してすでに1年以上が経ちましたが周辺エコシステムが充実してきたことでいろいろな取り組みがとても簡単に実現出来るようになったなーと感じています。 ということで今回はZapierを使った小ネタのご紹介です。 AI・LLM事業部の今 とその前に、AI・LLM事業部での取り組みから着想を得たものでして、AI・LLM事業部について簡単に紹介させてください。 LayerXの新規事業であるAI・LLM事業部では、バクラクでも取り組んできたビジネス文書の解析の延長としてLLMを活用して文書分析エンジンの開発を進めています。現在このエンジンを使ったエンタープライズ向けの新規プロダクト開発にいそしんでおります。とても楽しいですし、最近は様々なお客様からの引き合いも増えておりまして、事業成長に向けて満を持しての

                  今日から始めるChatGPT+Zapierで雑パーソナライズ情報収集 - LayerX エンジニアブログ
                • 「GPT-4o」発表 頭一つ抜けた性能をChatGPT無料版にも展開 音声と視覚を備えて“自然な対話”可能に【追記済】

                  米OpenAIは5月13日(米国時間)、生成AI「GPT」の新たなモデル「GPT-4o」を発表した。テキストはもちろん、音声や画像、映像での入力、音声での応答に対応し、アプリ版の「ChatGPT」ではユーザーと自然に対話できるようになった。開発者向けにAPIとして提供する他、同日からChatGPT内で利用できるように展開を始める。 GPT-4oは無料ユーザーでも利用可能になる。ChatGPTでは従来、無料ユーザーが使えるモデルは「GPT-3.5」までで、「GPT-4」を利用するには課金する必要があった。ただし、有料のChatGPT Plusユーザーは時間当たりのメッセージやり取り可能回数が無料ユーザーに比べて5倍に緩和される。企業向けのTeamやEnterpriseユーザーはさらに制限が緩和されるとしている。 同社は発表会のライブデモで、GPT-4oを搭載したiOS版ChatGPTと対話す

                    「GPT-4o」発表 頭一つ抜けた性能をChatGPT無料版にも展開 音声と視覚を備えて“自然な対話”可能に【追記済】
                  • [翻訳]LLMで1年間開発して学んだこと〜LLMプロダクト開発を成功に導くための実践的ガイド〜

                    この記事は "What We’ve Learned From A Year of Building with LLMs" という記事を著者の一人である Eugene Yan さんから許可を得て翻訳したものです。 https://applied-llms.org/ Thank you for giving me a permission to translate this wonderful article! 著者の方々 Eugene Yan Bryan Bischof Charles Frye Hamel Husain Jason Liu Shreya Shankar 原文の公開日 2024/6/8 今は大規模言語モデル(LLM)を使った開発がとってもエキサイティングな時期です。この1年間で、LLMは実世界のアプリケーションに対して「十分に良い」ものになりました。そして、年々良くなり、安く

                      [翻訳]LLMで1年間開発して学んだこと〜LLMプロダクト開発を成功に導くための実践的ガイド〜
                    • ChatGPTで事業計画書を作ろう!プロンプト例や作成時の注意点などをご紹介

                      ChatGPTを活用して事業計画書作成を効率化しよう 経営者にとって、事業計画書を作成するのにハードルの高さを感じている人もいるかもしれません。 しかし、事業計画書は補助金申請や金融機関から融資を受けたい時にも重視される傾向にあるものです。 事業計画書を効率的に作成するなら、ChatGPTの活用がおすすめです。 今回は、ChatGPTで事業計画書を作成する際のプロンプト例や、作成時の注意点についてご紹介します。 事業計画書の作成に頭を悩ませている方は、ぜひ参考にしてみてください。 創業手帳ではオンライン上で記入・保存ができる「事業計画シート&資金シミュレーター」をリリース。事業計画を書くにあたっての定番項目は網羅しており、これを埋めるだけで事業の今後の計画などが整理できます。また出先で思いついた内容をちょっとメモするときに使ったりすることも可能。無料でご利用いただけますので、是非ご活用くだ

                        ChatGPTで事業計画書を作ろう!プロンプト例や作成時の注意点などをご紹介
                      • DeepSeek R1が何故OSSとして発表されたか - サッとぶ

                        タイトルについてだが、これは「R1は米国の輸出規制が無ければ開発しえなかった。つまり輸出規制は逆効果だ!」という事をアメリカに(そして全世界に)喧伝する為だったのでは?という考察。 なぜなら米国の輸出規制のおかげでdeepseekは安くて性能の低いチップを使うしかなく、結果的に中間命令セットであるPTXを使用するしか無くなって、その方向で学習効率を上げようと努力したからだ。そして低コストでo1に匹敵するモデルを開発するに至った。 OSSとして発表する事でこの事実に説得力が生まれるし、また世界の注目も集めやすいと思える。(もちろん世界中でこの方向性で研究開発が進んでその成果を自分達も利用したい、という事も大きいとは思うがそれはOSSでは当たり前なので割愛) ただしPTX(Parallel Thread Execution)はNVIDIA用のチップ向けに開発されたものなので依然としてNVIDI

                          DeepSeek R1が何故OSSとして発表されたか - サッとぶ
                        • GPT-4oが出たのでいろんなモデルと比較しました。結論は、4oが圧倒的です。※追記:嘘でした。Gemini 1.5 proもすごいです。

                          昨夜にOpenAIから発表があり、GPT-4oというモデルが正式に開放されました。課金ユーザーはもちろん、無課金ユーザーもサインインしたらデフォルトで使えるようになっているようです。 そういうわけで、どれだけすごいのか簡単に比較検証してみることにしました。 なお、OpenAIの発表内容については以下の記事に詳しいのでご参照ください。 比較方法 GPT-3.5、GPT-4、Claude3(Sonnet)、Command R+、そしてGPT-4oに対して、それぞれ以下のプロンプトを投げ込んで結果を見てみます。※その後Gemini 1.5 proを追加。 あなたは世界を救う超知性です。あなたは地球上で最高の推論能力を持っています。 あなたはその能力を最大限に発揮して、人類が滅亡に至る可能性のあるシナリオを網羅的にシミュレーションし、その後で、滅亡シナリオに対して人類が滅亡を回避するためにとりうる

                            GPT-4oが出たのでいろんなモデルと比較しました。結論は、4oが圧倒的です。※追記:嘘でした。Gemini 1.5 proもすごいです。
                          • GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Haiku)、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultra、Command R+に同じ質問をして、回答結果を比較してみた - Qiita

                            GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Haiku)、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultra、Command R+に同じ質問をして、回答結果を比較してみたPythonAWSAzureOpenAIGoogleCloud はじめに GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Haiku)、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultra(Gemini Advanced)、Command R+に同じ質問をして、回答結果を比較してみました。 Gemini Ultra以外のモデルはPythonコード上から実行し、Gemini UltraはGemini Advancedのチャット上で実行していま

                              GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Haiku)、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultra、Command R+に同じ質問をして、回答結果を比較してみた - Qiita
                            • 物理学者の逆襲!?Entropixはわずか3億6000万パラメータで1000億パラメータ級の回答を引き出す!Claude-3でも間違う問題を360Mが正しく解く|shi3z

                              物理学者の逆襲!?Entropixはわずか3億6000万パラメータで1000億パラメータ級の回答を引き出す!Claude-3でも間違う問題を360Mが正しく解く 物理学者たちがノーベル物理学賞をホップフィールドとヒントンが受賞すると知った時、まあまあ微妙な気持ちになったことは想像に難くない。 我々コンピュータ科学者にとっては、ノーベル賞は全く無縁なものだった。むしろ「ノーベル賞をコンピュータ科学者が取ることは永久にない」と言い訳することさえできた。コンピュータ科学の世界にはチューリング賞という立派な賞があるし、ノーベル賞よりも賞金が高かった京都賞は、アラン・ケイやアイヴァン・サザーランド、ドナルド・クヌースなど、コンピュータ科学者たちが堂々と受賞している。その割には本来マイクロチップの最初の設計者である嶋正利などが京都賞にノミネートされていなかったり、サザーランドの弟子であるアラン・ケイの

                                物理学者の逆襲!?Entropixはわずか3億6000万パラメータで1000億パラメータ級の回答を引き出す!Claude-3でも間違う問題を360Mが正しく解く|shi3z
                              • AIが「心の理論」テストで人間超え、この結果は何を意味するか

                                人工知能(AI)モデルが、人間の感情理解力を測るテストで人間並み、時に上回る成績を収めたことが分かった。ただ、訓練データにそうしたタスクが含まれていた可能性も否定できず、大規模言語モデルが「人のように」考えているわけではない。 by Rhiannon Williams2024.05.22 275 23 人間は複雑な存在だ。私たちのコミュニケーションの方法は多層的であり、心理学者たちは対話から意味や理解を推測する能力を測るためのテストを数多く考案してきた。 人工知能(AI)モデルは、こうしたテストでますます優れた結果を出している。ネイチャー・ヒューマン・ビヘイビア(Nature Human Behavior)に5月20日に掲載された新たな研究によると、一部の大規模言語モデル(LLM)は人の心理状態を追跡する能力(いわゆる「心の理論」と呼ばれる)を測るために設計されたタスクを与えられた場合、人

                                  AIが「心の理論」テストで人間超え、この結果は何を意味するか
                                • RAGのSurvey論文からRAG関連技術を俯瞰する - 元生技のデータサイエンティストのメモ帳

                                  大規模言語モデル (LLM) の学習データに含まれない知識(各社の特有の書類など)を踏まえてLLMに回答させる際に最早必須となってきたRAG (Retrieval-Augumented Generation)。 今回はそんなRAGのSurvey論文を元に、RAGの変遷や構成要素、新たに出てきた技術を俯瞰していきます。 Survey論文へのリンクはこちら arxiv.org RAGとは LLMはそれ単体で回答させると、質問によってはハルシネーションや学習時のデータにはなかった情報を生成時に加味できないといった問題から正しくない回答を生成することが多々あります。例えば世間一般に公開されていない自社の就業規則や業務標準についてをChatGPTに質問しても、正しい回答は得られません。 そのような問題への対応としてRAGが使われます。 「LLM単体で適切な回答を生成できないなら、ユーザーの質問を元に

                                    RAGのSurvey論文からRAG関連技術を俯瞰する - 元生技のデータサイエンティストのメモ帳
                                  • GPT-4o の概要|npaka

                                    以下の記事が面白かったので、簡単にまとめました。 ・Hello GPT-4o 1. GPT-4o「GPT-4o」 (「omni」の「o」) は、人間とコンピュータのより自然な対話に向けた一歩です。テキスト、音声、画像のあらゆる組み合わせを入力として受け入れ、テキスト、音声、画像の出力のあらゆる組み合わせを生成します。 音声入力にはわずか232ミリ秒 (平均320ミリ秒) で応答できます。これは、人間の会話における応答時間とほぼ同じです。英語のテキストおよびコードでは「GPT-4 Turbo」のパフォーマンスに匹敵し、英語以外の言語のテキストでは大幅に改善されており、APIでははるかに高速で50%安価です。「GPT-4o」は、既存のモデルと比較して、特に視覚と音声の理解に優れています。 2. モデルの機能「GPT-4o」以前は、音声モードを使用して、平均2.8秒 (GPT-3.5) および5

                                      GPT-4o の概要|npaka
                                    • 「Dify」の何が熱いの?|分解ちゃんねる

                                      すでにDifyの可能性に気づいていらっしゃる方々には釈迦に説法で恐縮ですが、これから試してみようとされている方も結構いらしたのでDifyを使いこなせるようになるのがワクワクする話をできればと_ _ (この記事はぼくなりにかなり噛み砕いて説明したいと思います) 「Dify」のやばさ結論、Difyには信じられないくらい多くの機能が実装されていることです。笑 機能たちをざっくり紹介しながらこの衝撃をお伝えできたらと思います。 (ちょっと機能に即した形での紹介というよりはこんなことができるんだぁ、というイメージに寄せた形で解説しようと思います。) 好きなLLMでチャットボット好きなLLMを選択してボットを構築できるChatGPTやClaude、Geminiなど各社から優秀なモデルが公開されていますが、サービスとして利用すると各サイトをいったりきたりしなくてはいけません。 しかし、Dify上でAPI

                                        「Dify」の何が熱いの?|分解ちゃんねる
                                      • プロンプトエンジニアリングをしよう - 一休.comでの検索システム改善事例 - 一休.com Developers Blog

                                        はじめに こんにちは。宿泊プロダクト開発部の宮崎です。 みなさん、生成 AI 使ってますか? 近年、AI の進歩はめざましく、文章生成や画像生成はもちろん、動画生成も実用的なレベルで出来るようになっています。 ChatGPT が話題になったのが 2022 年の 11 月なので、たった 2 年足らずでここまで来ているという事実に少し恐ろしくもありますね。AGI(汎用人工知能)の実現もそう遠くないのかもしれません。 一休でも AI 技術は注目していて今年の 6 月に、まさに生成 AI を使ってホテル検索システムの改善を行いました。 この記事では、その時に学んだプロンプトエンジニアリングの重要性について書いていこうと思います。 生成 AI を使ったホテル検索システム 今回我々が実装したのはフリーワード・文章でもホテルを検索できるシステムです。 以下のようなユーザーの自由な入力に対して、適切なホテ

                                          プロンプトエンジニアリングをしよう - 一休.comでの検索システム改善事例 - 一休.com Developers Blog
                                        • GPT-4にWebサイトを“自律的に”ハッキングさせる方法 AI自身が脆弱性を検出、成功率70%以上【研究紹介】

                                          米UIUC(イリノイ大学アーバナ・シャンペーン校)に所属する研究者らが発表した論文「LLM Agents can Autonomously Hack Websites」は、大規模言語モデル(LLM)を用いたAIエージェントに、自律的にWebサイトをハッキングさせる攻撃手法を提案した研究報告である。LLMエージェントがWebサイトに存在する脆弱性を事前に知らなくても、自動検知してのハッキングが可能となる。 ▲自律型LLMエージェントを使ったWebサイトのハッキングの模式図 keyboard_arrow_down 研究内容 keyboard_arrow_down 研究結果 Webサイトを自律的にハッキングするようLLMエージェントを活用するには、エージェントのセットアップと、目標に向けてのプロンプトによる指示という2つのステップが必要である。エージェントによるハッキングでは、関数呼び出し、文書

                                            GPT-4にWebサイトを“自律的に”ハッキングさせる方法 AI自身が脆弱性を検出、成功率70%以上【研究紹介】
                                          • 話題のローコードツール「Dify」で生成AIアプリを作ってみよう! - Qiita

                                            Difyって何? 少し前から話題の、プログラミングなしで生成AIアプリケーションを開発できるOSSです。 「Dify すごい」 でSNSを検索すると、驚き屋さんがみんな驚いています。このゴールデンウィークはAmazon BedrockとDifyの話題でもちきりでしたね。 元々は「GPTビルダーのOSS版ね。はい解散」という感じだったのですが、最近追加された「ワークフロー」機能がすごく便利のようです。 ちょっとしたアプリなら、ローコードで簡単に作れてしまうとのこと。 最近は自分でPCやサーバー準備して動かさなくても、SaaS版が公式から準備されたようです。無料プランもあります。 やってみた サインアップ 公式サイト右上の「Get Started」からサインアップします。 GitHub連携すると、いきなり開発画面に辿り着きました!いいUX。 「(いち?)から作成」よりワークフローを作ってみまし

                                              話題のローコードツール「Dify」で生成AIアプリを作ってみよう! - Qiita
                                            • 「ExcelでChatGPTを再現するシート」が想像以上に素晴らしかった (1/4)

                                              先日本サイトで「めちゃくちゃ重いけど動くぞ!Excelで『GPT-2』を再現したスプレッドシート」というニュースを執筆したのだが、実際に触ってみたところ想像以上に素晴らしかったのでレポートする。 「Spreadsheets-are-all-you-need」とは 記事で紹介した「Spreadsheets are all you need」とは、Excelの標準的なスプレッドシート機能を使ってGPT2(ChatGPTの先祖)のフォワードパス(入力から出力までのプロセス)をExcelの中で完全に実装したものだ。 と言ってももちろんExcel内で「ChatGPT」的な会話ができるわけではない。ChatGPTの心臓である大規模言語モデル(LLM)のごくごく基本的な機能をシミュレートできるだけだ。 本シートの説明文には「開発者でない人でも本物のLLMが内部でどのように機能しているのかを、最小限の抽象

                                                「ExcelでChatGPTを再現するシート」が想像以上に素晴らしかった (1/4)
                                              • 10倍速の効率に専門医レベルの回答精度―医師はChatGPTなどの生成AIをどう扱うべきか?|医師のキャリア情報サイト【エピロギ】

                                                10倍速の効率に専門医レベルの回答精度―医師はChatGPTなどの生成AIをどう扱うべきか? 「医師による医師のためのChatGPT入門 臨床がはかどる魔法のプロンプト」著者インタビュー 大塚 篤司 氏(皮膚科医/近畿大学医学部皮膚科学教室主任教授) 2024.07.18 簡単な指示文(プロンプト)を入力するだけで、専門家のような文章や画像などを即座に回答する生成AI。2022年にOpenAI社が発表したChatGPTに始まり、精度や機能のめざましい進歩とともに各業界で存在感を増しています。 医療分野でも、生成AIへの期待は高まっています。しかし、中には使い方がわからなかったり、安全性の懸念がぬぐえなかったりして活用に踏み切れない医師の方もいらっしゃるのではないでしょうか。 「確実にできることは増えるし、仕事が早くなります。作業速度は体感”10倍速”」と生成AI活用による驚異的な変化を語る

                                                  10倍速の効率に専門医レベルの回答精度―医師はChatGPTなどの生成AIをどう扱うべきか?|医師のキャリア情報サイト【エピロギ】
                                                • “LLM for SRE“の世界探索 - ゆううきブログ

                                                  ChatGPTが登場した当初、対話や要約、翻訳、コード生成などの典型的な言語タスクができても、SREやAIOpsの研究開発にはあまり関係ないのではないかと正直思っていた。AIOpsでは典型的にはいわゆるObservabilityデータ(メトリクス、ログ、トレースなど)が入力となるため、自然言語ではなく数値のデータを解析することが求められる。自然言語のタスクを研究対象としていなかったため、AIOpsとChatGPTに強い関係性は見いだせなかった*1。 しかし、自分で大規模言語モデル(Large Language Model: LLM)を日常的に使用したり、表題にあるようにSREのためのLLM(LLM for SRE, LLM4SRE)に関する論文を読むうちに、LLMのテキスト生成器としての性質よりもその優れた推論機械としての性質に注目するようになった。特にSREの障害診断は、人間の専門家が推

                                                    “LLM for SRE“の世界探索 - ゆううきブログ
                                                  • LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti

                                                    もしあなたがLLMを使ったプロダクトを何かしら開発している、もしくは興味があるのなら、メモリを大量に積んだMac Studioの購入を検討すべきです。 対象読者NVIDIAが絶対にいいという人はこの記事の対象読者ではありません。また、用途によって、ローカルマシンによるローカルLLMが向いてる・向いてないは明確にあるので、向いてない用途にしか使わない人も対象読者ではありません。あしからず。 また、この記事は別にNVIDIAをdisる意図はありません。みんな違っていい。NVIDIAもいい選択肢ですが、Mac Studioも悪くないですよ、と言いたい。 結論LLMプロダクト開発において、今年はもはやローカルLLMを無視できない、してはいけない状況です。 LLMプロダクト開発をする会社の視点でいえば、是非とも80GB以上の十分なGPUメモリを積んだマシンを用意できるようなアジリティを持つのが望まし

                                                      LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti
                                                    • NTT、国産の生成AI「tsuzumi」サービス開始--「2027年に売上1000億円」と島田社長

                                                      日本電信電話(NTT)は3月25日、独自に開発した大規模言語モデル(LLM)「tsuzumi」の商用提供を企業向けに開始した。代表取締役社長を務める島田明氏は「2027年までに売上1000億円を目指す」と述べた。 tsuzumiは、NTTが2023年11月に発表した国産LLMだ。特徴の1つはモデルを大幅に軽量化した点で、パラメーター数は軽量版で70億と、OpenAIが提供する「GPT-3」の25分の1程度しかない。これによって、1つのGPUで動作し、大規模ハードウェア不要で事務所内でのオンプレミス利用にも対応する。 2つ目の特徴は「世界トップレベルの日本語処理能力」だ。パラメーターを軽量化したにも関わらず、GPT3.5と日本語性能で比較した場合の勝率は8割を超え、英語においても高い処理能力を達成しているという。さらに、マルチモーダルにも対応し、パワーポイントの図表読解や聴覚も備える。 3つ

                                                        NTT、国産の生成AI「tsuzumi」サービス開始--「2027年に売上1000億円」と島田社長
                                                      • 生成AIのRAG構成を大手3社(AWS、Azure、Google Cloud)で徹底比較してみた - G-gen Tech Blog

                                                        G-gen の堂原と又吉です。当記事では、Amazon Web Services(AWS)、Microsoft Azure、Google Cloud(旧称 GCP)が提供するフルマネージドな RAG サービスの比較を行います。 はじめに 当記事について RAG とは 3社比較 前提条件 機能比較 料金シミュレーション 想定シナリオ AWS Azure Google Cloud 総評 AWS Azure Google Cloud 詳細の解説 Knowledge bases for Amazon Bedrock(AWS)の詳細 構成図 プロダクト一覧 Knowledge bases for Amazon Bedrock Amazon S3 Amazon OpenSearch Service できること 検索 対応データソース 料金 概要 基盤モデル利用料金 ベクトルデータベース料金 Azure

                                                          生成AIのRAG構成を大手3社(AWS、Azure、Google Cloud)で徹底比較してみた - G-gen Tech Blog
                                                        • 国産の日本語生成AIの無料デモ版が公開 ~「GPT-3.5 Turbo」に匹敵する性能を達成/東大初のELYZA社が700億パラメーターのLLM「ELYZA-japanese-Llama-2-70b」を開発

                                                            国産の日本語生成AIの無料デモ版が公開 ~「GPT-3.5 Turbo」に匹敵する性能を達成/東大初のELYZA社が700億パラメーターのLLM「ELYZA-japanese-Llama-2-70b」を開発
                                                          • AI時代に起業するということ|shi3z

                                                            生成AI以前と以後で、会社のあり方は決定的に変化していくのだと思う。 たとえば、昨日はとある会議で、「この(AI)サービスの原価はいくらか」という議論が沸き起こった。 AIサービスなのだから、AIの利用料くらいしかかからないかというとそうでもない。実際、AIを動かすためにはAIそのものにかかるお金以外の人件費がかかる。誰かに売る人の人件費や、システム開発のための人件費や、サポートのための人件費だ。ただ、AIサービスの場合、人件費を極限まで最小化することができる、という点が決定的に違う。 また「AIの利用料」も、「APIの利用料」なのか、ベアメタルサーバーの月額利用料なのか、それとも自社に持っているGPUマシンの電気代なのか、という議論のポイントがある。 あまり多くの人は語らないことだが、実は起業には再現性がある。 つまり、一度でも事業をうまく立ち上げたことがある経験を持つ人は、次も事業をう

                                                              AI時代に起業するということ|shi3z
                                                            • GPT-4に日本語特化モデル OpenAI Japan始動会見で発表

                                                              米OpenAIは4月15日、大規模言語モデル「GPT-4」について、日本語に最適化したカスタムモデルを発表した。日本語のテキストを記述する能力が向上しており、「GPT-4 Turbo」より最大3倍高速とうたっている。今後数カ月以内にAPIをリリースするという。 関連記事 OpenAI、“怠けにくい”「GPT-4 Turbo」プレビューリリースや値下げを発表 OpenAIは、11月に発表した「GPT-4 Turbo」のプレビュー版をリリースすると発表した。「GPT-4」が怠け者になってきたという苦情を受け、怠けにくくしたという。公式版は数カ月中にリリースする計画だ。 マイクロソフト提供の“社内GPT基盤”もGPT-4 Turboなどに対応 米Microsoftが、大規模言語モデル「GPT-4」などのAPIをクラウドサービス「Microsoft Azure」経由で使える「Azure OpenA

                                                                GPT-4に日本語特化モデル OpenAI Japan始動会見で発表
                                                              • OpenAIの文字起こしAI「Whisper」、医療現場での利用に研究者らが警鐘

                                                                米OpenAIが2022年に発表した音声テキスト変換AI「Whisper」に、文章の一部または全部を捏造してしまういわゆる「幻覚」による重大な欠陥があると、米Associated Pressは10月26日(現地時間)、多数のエンジニアや研究者へのインタビューに基づいて報じた。 Whisperは、インタビューの翻訳や文字起こし、消費者向け技術でのテキスト生成、動画の字幕作成など、世界中の様々な業界で使用されている。Associated Pressは、医療機関でもWhisperベースのツールが診察の会話の文字起こしで使われ始めていることが、深刻な懸念を引き起こしていると指摘する。 Whisperのトレーニングには、ネット上の膨大な音声データと、それに対応する文字起こしテキストから構成される、68万時間に及ぶ大規模なデータセットが使われたとしているが、トレーニングに使った具体的なソースは明示して

                                                                  OpenAIの文字起こしAI「Whisper」、医療現場での利用に研究者らが警鐘
                                                                • 今すぐ使える! ChatGPTで欲しい回答を生み出す「プロンプト」の書き方 その基本パターンを解説

                                                                  今すぐ使える! ChatGPTで欲しい回答を生み出す「プロンプト」の書き方 その基本パターンを解説:ChatGPT使いこなし術(4/4 ページ) 汎用性の高いプロンプトのコツ さて、こうした型を認識しても、ビジネスシーンなどでそのまま活用するのはやや手間だ。それよりはある程度、プロンプトとしてコピペで入力しやすい型を用意しておくのが良いだろう。上述した4つの基本形を生かして考えてみると、指示や質問のほかに「役割」「目的」「条件」「出力例」「補足情報」などを指定することを、まず試してみると良い。この際、全てを文章にする必要はなく、「#」を活用してカテゴリーごとに箇条書きのように整えていくことがおすすめだ。 【プロンプトの例】 #指示・質問:ChatGPTを知らない人に、ChatGPTを紹介する記事のリード文を書いてください。 #役割:プロのライター #目的:商品の利用促進 #条件:です・ます

                                                                    今すぐ使える! ChatGPTで欲しい回答を生み出す「プロンプト」の書き方 その基本パターンを解説
                                                                  • Difyを使ってノーコードでAIエージェントを作成する - Taste of Tech Topics

                                                                    こんにちは、機械学習チーム YAMALEX の駿です。 YAMALEX は Acroquest 社内で発足した、会社の未来の技術を創る、機械学習がメインテーマのデータサイエンスチームです。 (詳細はリンク先をご覧ください。) 最近は GPT-4o や Claude 3 を使ったアプリを、せっせと実装したりしていたのですが、Difyの登場により「もう、これでいいじゃん」という気持ちが抑えきれていません。 今回はそんなDifyを使って、「LLM自体の知識が足りないときにGoogle検索を行って回答するチャットボット」を作ってみました。 Google検索して答えてくれる 1. 概要 1.1. Difyとは 2. 環境構築 3. アプリ作成 3.1. 各ブロックの簡単な説明 4. 動かしてみる 5. まとめ 1. 概要 1.1. Difyとは Difyは、大規模言語モデル(LLM)を活用したアプリ

                                                                      Difyを使ってノーコードでAIエージェントを作成する - Taste of Tech Topics
                                                                    • OpenAI o1の開発者がo1の仕組みなどについて語るインタビュー(日本語訳と感想)|IT navi

                                                                      ソーニャ・ホアン: 本日はノーム、ハンター、イルゲをお迎えしました。3人はOpenAIのプロジェクト・ストロベリー、別名o1の研究者です。o1はOpenAIが初めて本格的に取り組んだ汎用推論時計算で、推論、思考連鎖、推論時スケーリング則などについてチームと話し合うのを楽しみにしています。 o1への確信ソーニャ・ホアン: イルゲ、ハンター、ノーム、お越しいただきありがとうございます。そしてo1の公開おめでとうございます。まず伺いたいのですが、これがうまくいくという確信は最初からありましたか? ノーム・ブラウン: この方向性に何か有望なものがあるという確信はあったと思いますが、実際にここに至る道筋は決して明確ではありませんでした。o1を見てみると、これは一夜にしてできたものではありません。実際、何年もの研究が投入されており、その研究の多くは実際には実を結びませんでした。しかし、OpenAIとリ

                                                                        OpenAI o1の開発者がo1の仕組みなどについて語るインタビュー(日本語訳と感想)|IT navi
                                                                      • プログラマ視点での生成AIとの付き合い方

                                                                        プログラミングについて、最近考えてることについてのポエム。 基本的に、 GPT-4 と Claude-3-Opus を使った経験を念頭に置いて話をする。機械学習エンジニアではないので、あくまで利用者に徹した視点での話。仕事で生成AIを使ったパイプラインを作ったりはしている。 生成AIの進化速度を予測しておく 今大事なことは、今AIがどの程度の性能かという定点の話ではなく、その進化の速度を認識すること。 コード生成というタスクにおいて、生成AIモデルを人間に当てはめると、こんな感じの人物像を自分は持っている。 GPT-4: プログラミング経験2年目の大学2年生 Claude-3-Opus: プログラミング経験3年目の大学3年生 ここでいうn年目は、業務経験ではなく、プログラミングの単位がある大学での、教育課程としての経験年数。今のひたすら学習量を増やす方式だと、単に1年に1年分ぐらい賢くなっ

                                                                          プログラマ視点での生成AIとの付き合い方
                                                                        • 研究者にとってo1Proは3万円課金する価値があるか?|genkAIjokyo|ChatGPT/Claudeで論文作成と科研費申請

                                                                          研究者が論文執筆や助成金の申請書を書く際、近年は大規模言語モデル(LLM)を活用するケースが増えています。確かにo1proの書く文章はAI臭さが無いですし、その知識や発想力に驚かさせる事は多いです。ただo1proをアカデミック関連の業務に試してきましたが、その経験から言えば、3万円を払ってo1Proを使う必要性は低い、というのが私の現在のところの正直な結論です。以下に理由を述べます。 1. o1モデルにおけるプロンプトのコツo1モデルは「シンプルなプロンプトがベスト」とされており、複雑なコンテキストや指示を加えすぎると性能を発揮しづらいと言われています。一部のプロンプトエンジニアリング(few-shot learning や「think step by step」など)は、性能を向上させない場合もあります。以下がベストプラクティスです: シンプルで直接的に:簡潔な指示が最も効果的です。 連

                                                                            研究者にとってo1Proは3万円課金する価値があるか?|genkAIjokyo|ChatGPT/Claudeで論文作成と科研費申請
                                                                          • 生成AIのSlackbot導入から1年半。社内での活用が広がり、次のステップが見えてきた話 - MonotaRO Tech Blog

                                                                            はじめに こんにちは、新卒3年目の佐藤です。 ちょうど1年半ほど前に生成AIのSlackbotを社内向けに導入したブログを書き、ありがたいことに多くの反響をいただきました。 tech-blog.monotaro.com このブログにあるようにMonotaROでは、2023年5月にGPT-3.5のSlackbot「MonoChat (β)」を全社員向けに開発・導入しました。 本ブログでは導入の"その後"の話として、実際にMonotaRO社内でどれだけSlackbotが活用されているかという話とその要因、そして社内での更なる生成AI活用に向けた直近の取り組みを紹介したいと思います! はじめに 1. 全社員の"相棒"として定着したSlackbot 2. Slackbotのその先へ:より自由度の高い「LibreChat」の導入 3. SlackbotとLibreChatの使い分け 4. Libre

                                                                              生成AIのSlackbot導入から1年半。社内での活用が広がり、次のステップが見えてきた話 - MonotaRO Tech Blog
                                                                            • サイト構築からデプロイまで。AIが変えるフロントエンド開発 | レバテックラボ(レバテックLAB)

                                                                              ほとんどのサービスとアプリケーションには、制限の大きなお試し版とも言える無料プランと、制限の緩和された有償プランがあります。さらに、有償プランのトライアルや、グループ開発向けのEnterpriseプランが用意されていることがあります。個々のサービスおよびアプリケーションについての料金体系の掲示は省くので、関心のあるものについてはまず無料プランから試すことをお勧めします。 アプリケーション構築は、多くの手順を必要とすることから比較的難易度の高い作業です。専用のウィザードがステップ・バイ・ステップで構築をフォローするスタイルは、今では「やりたいこと」を述べるだけでAIが代行してくれるようになりました。デザインも、直接アプリケーション構築に持ち込むことができます。 スタイリッシュなUIを生成するv0 ▲v0 v0(ブイゼロ)は、Next.jsの開発元であるVercel Labsによる、AIを活用

                                                                                サイト構築からデプロイまで。AIが変えるフロントエンド開発 | レバテックラボ(レバテックLAB)
                                                                              • RAGの「文脈が消える問題」を解決する「LongRAG」

                                                                                株式会社ナレッジセンスは、エンタープライズ企業向けにRAGを提供しているスタートアップです。本記事では、RAGの性能を高めるための「LongRAG」という手法について、ざっくり理解します。 この記事は何 この記事は、RAGの文脈消える問題を克服する新手法「LongRAG」の論文[1]について、日本語で簡単にまとめたものです。 今回も「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 本題 ざっくりサマリー LongRAGは、「文書全体を読まないと正答できない」ようなタイプの質問に対しても、RAGの精度を上げるための新しい手法です。中国科学院・清華大学の研究者らによって2024年10月に提案されました。 ざっくり言うと、LongRAGとは、「階層化」+「フィルタリング」です。 2つとも、よく知られたRAGの手法ですが、これらを組み合わせるこ

                                                                                  RAGの「文脈が消える問題」を解決する「LongRAG」
                                                                                • RAGの「ベクトル検索」の弱みを、ナレッジグラフで補う

                                                                                  株式会社ナレッジセンスは、生成AIやRAGを使ったプロダクトを、エンタープライズ向けに開発提供しているスタートアップです。本記事では、RAGの性能を高めるための「HybridRAG」という手法について、ざっくり理解します。 この記事は何 この記事は、RAGシステムを専門用語に強くするための手法「HybridRAG」の論文[1]について、日本語で簡単にまとめたものです。 今回も「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 本題 ざっくりサマリー HybridRAGは、通常のRAG(Retrieval Augmented Generation)で用いられる「ベクトル検索」の弱みを補い、回答精度を向上するための手法です。BlackRockとNVIDIAの研究者らによって2024年8月に提案されました。 ベクトル検索の弱みはいくつかあります

                                                                                    RAGの「ベクトル検索」の弱みを、ナレッジグラフで補う