並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 30 件 / 30件

新着順 人気順

gpt-3の検索結果1 - 30 件 / 30件

  • プロンプトエンジニアリングをしよう - 一休.comでの検索システム改善事例 - 一休.com Developers Blog

    はじめに こんにちは。宿泊プロダクト開発部の宮崎です。 みなさん、生成 AI 使ってますか? 近年、AI の進歩はめざましく、文章生成や画像生成はもちろん、動画生成も実用的なレベルで出来るようになっています。 ChatGPT が話題になったのが 2022 年の 11 月なので、たった 2 年足らずでここまで来ているという事実に少し恐ろしくもありますね。AGI(汎用人工知能)の実現もそう遠くないのかもしれません。 一休でも AI 技術は注目していて今年の 6 月に、まさに生成 AI を使ってホテル検索システムの改善を行いました。 この記事では、その時に学んだプロンプトエンジニアリングの重要性について書いていこうと思います。 生成 AI を使ったホテル検索システム 今回我々が実装したのはフリーワード・文章でもホテルを検索できるシステムです。 以下のようなユーザーの自由な入力に対して、適切なホテ

      プロンプトエンジニアリングをしよう - 一休.comでの検索システム改善事例 - 一休.com Developers Blog
    • 富士通、大規模言語モデル「Takane」提供開始 「世界一の日本語性能を持つ」とうたう

      富士通は9月30日、カナダのAIスタートアップ企業Cohereと共同開発した大規模言語モデル(LLM)「Takane」の提供を始めた。富士通のAIサービス「Fujitsu Kozuchi」を通じて提供。同社はこのLLMについて「世界一の日本語性能を持つ」とうたっている。 Takaneは、CohereのLLM「Command R+」をベースに、日本語に特化させるための追加学習とファインチューニングを行ったAIモデル。日本語の性能評価指標「JGLUE」で世界最高記録を達成したことから、富士通は「世界一の日本語性能を持つ」と説明。また、プライベートな環境でセキュアに利用できるのも特徴に挙げている。 富士通は日本語に特化したLLMの必要性について「日本語は文字種の混在や主語の省略、敬語表現など、特有の難しさがあり、汎用LLMの出力精度には課題がある」と説明。言葉の間違いが大きな問題になったり、損害

        富士通、大規模言語モデル「Takane」提供開始 「世界一の日本語性能を持つ」とうたう
      • なぜ研究者はローカルPCでAIを実行する必要があるのか?

        高度な生成AIは動作に相応の機器を必要とするため、一般的なユーザーが高度な生成AIを使うためにはネットに接続して利用するしかありません。一方で、高度なAIをローカルで実行できるような試みが行われ、実際にローカルで動作する高度なAIもいくつか存在します。AIをローカルで動作させることの利点について、科学誌Natureが利用者の声をいくつか紹介しました。 Forget ChatGPT: why researchers now run small AIs on their laptops https://www.nature.com/articles/d41586-024-02998-y 免疫系タンパク質の構造のデータベース「histo.fyi」を運営するクリス・ソープ氏はAIをノートPCで動作させています。ソープ氏は以前にChatGPTの有料版を試したそうですが、高価で出力が適切でないと感じた

          なぜ研究者はローカルPCでAIを実行する必要があるのか?
        • Cursor の無料版を使い続ける場合の設定 - Qiita

          Cursor の Pro 版でサポートされる AI 機能は非常に強力であり、無料版と比較して多くのメリットがあります。しかし、個人開発者や学生など予算に限りがある人にとっては、Pro 版の利用は難しい場合があります。 本記事では、Cursor の無料版で Gemini や GitHub Copilot を設定することで、Pro の使用感に近付ける方法を紹介します。 Gemini は無料枠があります。 GitHub Copilot は基本的に有料ですが、学生・教職員や OSS 開発者への免除があるため、無料で利用できる場合があります。 概要 単純に VS Code を Cursor の無料版に置き換えた場合、差分としてよく使う機能は以下の通りです。 AI Chat でのメンション:Codebase (RAG)、Git、ファイル指定 RAG を別途構築する手間がないのは便利です。 Git 機能

            Cursor の無料版を使い続ける場合の設定 - Qiita
          • Gemini Advancedを1ヶ月間使ってみた感想 - laiso

            これまでメインで使うAIチャットをChatGPT Plus、Claude Proと順番に乗り換えてきました。なので今月はGoogleのGemini Advancedを1ヶ月間使ってみたので、その感想を書いてみます。 gemini.google Gemini Advancedの特徴 Gemini Advancedにすると現最上位モデルのGemini 1.5 Proが使えます。Gemini 1.5 Proは、Googleによると既存のモデルよりコーディング、論理的推論、ニュアンスの異なる指示に従うことなどの複雑なタスクを処理する能力が大幅に向上しているとされています。また100万トークンのコンテキスト・ウィンドウ(Large Context Window)で長文が読解できます*1。 無償版は画像のみアップロード可能ですが、Gemini AdvancedではテキストやPDFも対応しています。コン

              Gemini Advancedを1ヶ月間使ってみた感想 - laiso
            • 生成AIを活用したシステム開発の現状と展望

              Copyright (c) The Japan Research Institute, Limited 生成AIを活用したシステム開発 の現状と展望 - 生成AI時代を見据えたシステム開発に向けて - 株式会社日本総合研究所 先端技術ラボ 2024年09月30日 <本資料に関するお問い合わせ> 伊藤蓮(ito.ren@jri.co.jp) 近藤浩史(kondo.hirofumi@jri.co.jp) 本資料は、作成日時点で弊社が一般に信頼できると思われる資料に基づいて作成されたものですが、情報の正確性・完全性を弊社で保証するもので はありません。また、本資料の情報の内容は、経済情勢等の変化により変更されることがありますので、ご了承ください。本資料の情報に起因して閲覧者 及び第三者に損害が発生した場合でも、執筆者、執筆取材先及び弊社は一切責任を負わないものとします。本資料の著作権は株式会社日

              • Tanuki-8BとOllamaとDifyを使って日本語ローカルRAG構築

                RAGの概要とその問題点 本記事では東京大学の松尾・岩澤研究室が開発したLLM、Tanuki-8Bを使って実用的なRAGシステムを気軽に構築する方法について解説します。最初に、RAGについてご存じない方に向けて少し説明します。 RAGは、簡単に説明すると外部知識(ナレッジ)をもとにLLMに回答させる技術です。特徴として、LLMが学習していないような知識に関してLLMに回答させることができます。回答も、外部知識を元とするため、事実に基づかない回答の生成(ハルシネーション)を減らす効果も期待できるため、ChatGPTをはじめとした大規模言語モデル(LLM)のユースケースとして、よく話題になっています。 具体例としては、会社の製品情報をナレッジとすることで、カスタマーサポートのチャットボットを作ったり、社内のノウハウやガイドをナレッジとすることで、社内サポートのチャットボットを作ることができます

                  Tanuki-8BとOllamaとDifyを使って日本語ローカルRAG構築
                • 自宅のPCでLLMが動く! オープンソースの視点からひも解く生成AIの現在と未来

                  プライベート・ビジネスを問わず活用が進む生成AI。そんな生成AIの進化を支えるのが、OSSだ。AIシステムを支えるコアソフトウェアのLangChainやvLLMは、代表例の1つ。しかも最近は生成AI自体がOSSとして提供されており、ローカルでLLMを実行できるところまできている。本セッションでは、レッドハットでスペシャリストソリューションアーキテクトを務める石川純平氏がOSS視点で生成AIの今とこれからを語った。 オープン/クローズドで読み解くLLMの現在 生成AI活用が広がる中で、LLM(大規模言語モデル)事情も変化していると語るのは、レッドハットのスペシャリストソリューションアーキテクト、石川純平氏だ。 レッドハット株式会社 テクニカルセールス本部 スペシャリストソリューションアーキテクト 石川 純平氏 LLMは大きく、クローズドLLMとオープンLLMに分けることができる。クローズドL

                    自宅のPCでLLMが動く! オープンソースの視点からひも解く生成AIの現在と未来
                  • “学習データも全てオープン”なLLM、NIIが公開 GPT-3級モデルのプレビュー版

                    国立情報学研究所(NII)は9月17日、パラメータ数約1720億の大規模言語モデル(LLM)のプレビュー版「LLM-jp-3 172B beta1」を公開した。NIIが開発するLLMは、データをフルスクラッチで学習しており、AIモデルの他に学習データもオープンになっているのが特徴。プレビュー版モデルは、学習データの約3分の1までを学習した段階のものになる。 今回公開したLLMのパラメータ数は約1720億で、米OpenAIのLLM「GPT-3」と同程度の規模。ベースモデルは米MetaのLLM「LlaMA-2」を使った。 学習用データには、約2.1兆トークン(おおよそ単語数の意)のデータを用意。そのうち日本語は約5920億トークンで「WebアーカイブCommon Crawl(CC)全量から抽出・フィルタリングした日本語テキスト」「国立国会図書館インターネット資料収集保存事業(WARP)で収集さ

                      “学習データも全てオープン”なLLM、NIIが公開 GPT-3級モデルのプレビュー版
                    • たった20億パラメータでGPT-3.5超え Google、オープンなAIモデル「Gemma 2 2B」日本語版を公開

                      Google日本法人は10月3日、大規模言語モデル(LLM)「Gemma 2 2B」の日本語版を公開した。Gemma 2 2Bは、米GoogleのLLM「Gemini」と同じ技術を活用した軽量版LLM「Gemma」シリーズの最新版。今回公開したのは、Gemma 2 2Bを日本語でファインチューニングしたモデルで、利用規約の下、モデルの変更や配布などもできるとしている。

                        たった20億パラメータでGPT-3.5超え Google、オープンなAIモデル「Gemma 2 2B」日本語版を公開
                      • Gemma Developer Day in Tokyo に参加した記録 | ho.lc

                        Gemmaの情報をキャッチアップする目的で Google 主催の Gemma Developer Day in Tokyo に参加した。Google CEO である Sundar Pichai の登場や、日本語向けGemma2モデルの新発表というサプライズも含め、参加者からはたくさんの様々な種類の刺激をいただきました。メモしていた内容をちょっと整理して公開します。 What’s new in Gemma 2¶ 最初の発表は Google DeepMind の Product Management Director である Tris Warkentin から Gemma2 の紹介。そして日本語版 Gemma 2 2B モデルの新発表。これに加えGemma関連のコミュニティコンペティションを立ち上げることの新発表。 今回発表された日本語版Gemma2 2Bモデルは、彼らの実験において 日本語の

                          Gemma Developer Day in Tokyo に参加した記録 | ho.lc
                        • グーグル「Gemma」は何がすごい?試してわかる小型言語モデルで「GPT-3.5超え」の実力

                          オープンソース言語モデルや小型言語モデル(SLM)の精度は従来、それほど高いものではなく、実際に活用することは難しかった。しかし、現在はローカル環境でも十分に利用できる小型モデルが続々登場しており、その様相は大きく変わってきている。グーグルが7月末にリリースした「Gemma 2」は、その好例といえるだろう。20億パラメータという非常に小さなモデルでありながら、GPT-3.5を超えるパフォーマンスを示したのだ。さらに、グーグルは「日本語版 Gemma 2 2B」を発表、髙い日本語性能を発揮したという。パラメータ数に関わらず、Gemma 2が高いパフォーマンスを発揮できる理由はどこにあるのか、その理由を探りつつ、実際にローカル環境で動作させる方法と必要なマシンスペックについてもわかりやすく解説する。

                            グーグル「Gemma」は何がすごい?試してわかる小型言語モデルで「GPT-3.5超え」の実力
                          • Googleが大規模言語モデル「Gemma 2」のコンパクトバージョン「Gemma 2 2B」の日本語版をリリース

                            Googleが開発したオープンかつ商用利用可能な大規模言語モデル「Gemma 2」のパラメーターをコンパクトにした「Gemma 2 2B」の日本語版が、2024年10月3日にリリースされました。 日本語版 Gemma 2 2B を公開 https://blog.google/intl/ja-jp/company-news/technology/gemma-2-2b/ Googleは2024年2月、マルチモーダルAIのGeminiよりも軽量であり、オープンソースで商用利用も可能な大規模言語モデル「Gemma」をリリースしました。そして5月にはGemmaの強化版である「Gemma 2」も発表しました。 Googleがオープンソースのビジュアル言語モデル「PaliGemma」を公開&Llama 3と同等性能の大規模言語モデル「Gemma 2」を発表 - GIGAZINE Gemma 2のパラメー

                              Googleが大規模言語モデル「Gemma 2」のコンパクトバージョン「Gemma 2 2B」の日本語版をリリース
                            • 日本語版 Gemma 2 2B を公開

                              Google は、AI をあらゆる人にとって役立つものにすることを目指し、開発者コミュニティが独自の言語や文化に合わせて AI を活用し実装できることを目指しています。その一環として、今年の I/O では、インドの開発者が Gemma をファイン チューニングして、12 のインド言語でテキストを理解し生成することに成功した Navarasa (英語) プロジェクトを紹介しました。 これは、Gemma が言語や文化の違いを乗り越えて、さまざまな状況に対応できる可能性を示しています。このプロジェクトを含めて、Gemma の言語機能をさらに強化し、世界中の開発者に提供できるよう取り組んでいます。 本日、東京で開催された Gemma Developer Day で、日本語版 Gemma 2 2B を公開しました。Gemma 2 と比較して、優れた文章力や指示内容を的確に理解し反映する能力など、全体

                                日本語版 Gemma 2 2B を公開
                              • 大規模言語モデルの研究動向の調査:時系列データ分析とData-centric AIの視点から

                                カテゴリー DX (2) 一般 (59) 研究会 (6) 働き方 (4) 技術 (353) Edge AI (2) Edge Computing (13) Erlang (1) FIWARE (2) Fog Computing (10) Infiniband (31) Internet of Things (32) Key Value Store (17) Linux (3) Linux KVM (10) Machine Learning (6) RealTime Web (14) SRE (3) Webサービス (42) インフラ (8) コンテナ (4) ストレージ (93) データセンター (7) データベース (47) データ流通 (6) テレプレゼンス (2) ネットワーク (215) 仮想化 (111) 災害コミュニケーション (26) 空間情報 (30) 量子コンピューティン

                                  大規模言語モデルの研究動向の調査:時系列データ分析とData-centric AIの視点から
                                • ChatGPTでExcelのマクロを作成してみよう(ITmedia Mobile) - Yahoo!ニュース

                                  「『Sheet1の全てのセルにおいて、現状入力されている関数や計算式を削除し、代わりにその関数や計算式によって表示されていた出力結果の数値を入力しなおす』というExcelマクロを作成してください」に対するChatGPTの出力例 Excelには、複数の処理を自動化するための「マクロ」という機能が備わっている。マクロを活用すれば、手作業では時間がかかる処理を、コンピュータに自動で実行させることが可能だ。 【画像で見る】「このマクロの実装方法を教えてください」に対するChatGPTの出力例 これには、大きく分けて「(1)プログラミングを必要としない『マクロの記録』」というアプローチと、「(2)VBA(Visual Basic for Applications)を使ったプログラムを作成する」というアプローチがあるが、入門者が後者に手を出すことは難しかった。一方で、ChatGPTを活用すれば、このV

                                    ChatGPTでExcelのマクロを作成してみよう(ITmedia Mobile) - Yahoo!ニュース
                                  • Google、ハルシネーションに対応する初のオープンモデル「DataGemma」を発表

                                    CC Dash AI Chat サービス CChat 個人向け・法人向け生成AI研修 広告チェックAI 【VOC.AI】AIエージェント 生成AIエンゲージメント・フィット&ギャップ分析 “新規事業開発”特化の生成AIコンサル×受託開発サービス 【EpicAI】法人向けAIコンサルティング/オーダーメイドAI開発 “DX現役”が登壇するDX・AI研修サービス SAIL TDSEの生成AI活用支援サービス データ分析/AI開発/コンサルティング CAIWA Service Viii(カイワサービスヴィー) AIRクエスト VectorFlux for Sales NetBot for 顧客サポート定額制AIチャットボット NetBot for マッチングAIチャットボット imprai(インプライ) 生成AI導入支援 導入・活用サポートまで充実した法人向けChatGPT|NewtonX Ve

                                      Google、ハルシネーションに対応する初のオープンモデル「DataGemma」を発表
                                    • LangChain v0.3 クイックスタートガイド - Python版|npaka

                                      Python版の「LangChain」のクイックスタートガイドをまとめました。 ・langchain 0.3.0 1. LangChain「LangChain」は、「大規模言語モデル」 (LLM : Large language models) と連携するアプリの開発を支援するライブラリです。 「LLM」という革新的テクノロジーによって、開発者は今まで不可能だったことが可能になりました。しかし、「LLM」を単独で使用するだけでは、真に強力なアプリケーションを作成するのに不十分です。真の力は、それを他の 計算 や 知識 と組み合わせた時にもたらされます。「LangChain」は、そのようなアプリケーションの開発をサポートします。 3. LangChain のモジュール「LangChain」は、言語モデル アプリケーションの構築に使用できる多くのモジュールを提供します。モジュールを組み合わせて

                                        LangChain v0.3 クイックスタートガイド - Python版|npaka
                                      • 直近のAI技術動向まとめ - イッサPのつぶやき

                                        <PR> たった30日で月5万円の副収入!初心者向けSNSせどり完全ガイド | イッサP | Brain Brain副業マスターガイド | イッサP | Brain 【0から始める】ChatGPTを活用した自動化ビジネス構築法 | イッサP | Brain 目次 OpenAI、リアルタイム会話機能を提供する「Realtime API」を発表 Microsoft、Windows 11とCopilotにAI新機能を搭載 動画生成AI「Pika 1.5」のリリース Googleの「NotebookLM」がYouTube動画や音声ファイルに対応 Metaがスマートグラス「Ray-Ban Meta」に搭載するAI機能をアップデート OpenAI、約9800億円の資金調達を実施 OpenAIのCTOミラ・ムラティ氏が辞任 まとめ AIの進化は驚異的な速さで進んでおり、毎週新しい発表やアップデートが行わ

                                          直近のAI技術動向まとめ - イッサPのつぶやき
                                        • LLM-jp-3 1.8B・3.7B・13B の公開 | 国立情報学研究所 大規模言語モデル研究開発センター

                                          大規模言語モデル研究開発センター(LLMC)ではオープンかつ日本語に強いGPT-3級大規模言語モデル「LLM-jp-3 172B」の開発を進めています。 このたび、LLM-jp-3 172B の事前学習に使用しているコーパスで学習した 1.8B、3.7B、13B の各モデルを公開いたしました。また、インストラクションチューニングを施したモデルも同時に公開しています。 各モデルは日本語・英語・ソースコードを重点的に学習しています。特にLLM-jp-3 13B は、4月に公開した LLM-jp-13B v2.0 と比較して大幅に性能が向上しており、日本語MT-Benchの平均スコアが 3.67 から 6.47 へと改善されています。 これらのモデルは、Apache License 2.0 のもとで提供されています。データや学習過程まで含めて完全にオープンなモデルとして、アプリケーションへの応用

                                          • EndouMadoka/AITuberStudio · Hugging Face

                                            AITuber Studio AITuber Studioは、AIを活用したバーチャルYouTuber(VTuber)の制作と配信を支援するアプリケーションです。 主な機能 リアルタイムの音声認識と応答生成 複数のAIモデル(GPT-3.5、GPT-4、Claude、Llama2など)をサポート Live2Dモデルを使用したキャラクターの表示と制御 テキスト読み上げ(TTS)機能 YouTubeライブチャットとの連携 小説モードとゲームモードの搭載 セットアップ 必要なPythonパッケージをインストールします: pip install -r requirements.txt 必要なモデルファイルをダウンロードし、model_assetsフォルダに配置します。 promptフォルダ内のai.txtとai-first.txtファイルを編集して、AIの性格や初期メッセージをカスタマイズします。

                                              EndouMadoka/AITuberStudio · Hugging Face
                                            • ポルノやカンニングツールの温床? GPT Storeの監視体制に疑問符

                                              ポルノやカンニングツールの温床? GPT Storeの監視体制に疑問符2024.09.17 15:0016,199 Todd Feathers - Gizmodo US [原文] ( そうこ ) OpenAIが提供するAIモデルを活用したカスタマイズGPTのプラットフォームです。開設から約9カ月、米Gizmodoが独自にストアの様子を探ってみました。 ポリシー違反のGPTが大量にGPT Storeで提供されているアプリの中には、AI生成ポルノ、カンニングツール、医療や法律に関する不適切なアドバイスなど、OpenAIのポリシーに反するものも多くありました。 これらの違反GPTは、簡単に見つけることができてしまいます。調査した9月2日時点では、プラットフォーム上でプロモーションされていた少なくとも3つが、GPT Storeの規約に反するアプリでした。 また、「NSFW(Not Safe For

                                                ポルノやカンニングツールの温床? GPT Storeの監視体制に疑問符
                                              • 【Transformer】LLM(Large Language Model)のパラメータ数の概算法 - あつまれ統計の森

                                                昨今LLM(Large Language Model)が大きな注目を集める一方で、パラメータ数がどのように決まるかについて抑えておくと理解に役立ちます。そこで当記事ではLLMの主要モジュールであるTransformerに用いられるパラメータの概算法について取りまとめを行いました。 Transformerの論文や筆者作成の『直感的に理解するTransformer』の内容などを元に取りまとめを行いました。 ・用語/公式解説 https://www.hello-statisticians.com/explain-terms ・Transformer論文 ・直感的に理解するTransformer(運営者作成) パラメータ数の概算 パラメータ数の単位 LLM(Large Language Model)関連の論文ではパラメータ数はMillionを表すMやBillionを表すBで略記されるので注意が必要

                                                  【Transformer】LLM(Large Language Model)のパラメータ数の概算法 - あつまれ統計の森
                                                • 論理性能強化のOpenAI o1が登場 学習から推論へトレンドが変わる? - FIRE: 投資でセミリタイアする九条日記

                                                  本日早朝、OpenAIは、GPT-4oに次ぐモデル「OpenAI o1」のpreview版をリリースしました。論理的な推論が大幅に強化されていて、特に数学などの問題において博士課程の学生に匹敵するとしています。 数学オリンピックの予選問題を83%正答 思考の連鎖 凄まじい利用制限 使ってみると 推論の演算能力競争に入るか 数学オリンピックの予選問題を83%正答 数学などの難問、論理的な思考を必要とする問題について、大きく性能が向上したのがo1の特徴です。これまでの最新モデルであるGPT-4oは、数学オリンピックの予選問題について13%しか正答できませんでしたが、o1は83%を解き、上位11%に相当したといいます。 思考の連鎖 o1は一体何が違うのでしょうか。o1を使ってみるとすぐに分かるのが、プロンプトを入力したあと「思考している」ということです。 youtu.be まるで人間のような表現

                                                    論理性能強化のOpenAI o1が登場 学習から推論へトレンドが変わる? - FIRE: 投資でセミリタイアする九条日記
                                                  • AIリライトツールの革命:時間とコストを劇的に削減する最新テクノロジー

                                                    文章作成の効率を飛躍的に向上させるAIリライトツール。その驚くべき機能と利点について、詳しく解説します。 >>>AIリライトツール ブレインライターの詳細はこちら<<< AIリライトツールが変える文章作成の未来 AIリライトツールは、文章作成の世界に革命をもたらしています。その驚くべき機能と利点を見ていきましょう。 驚異的な時間短縮:数分で高品質な文章を生成 コスト削減:外注費用を大幅カット 24時間稼働:締め切りに追われる心配なし SEO対策:検索エンジン最適化を自動で実現 品質の一貫性:疲れを知らないAIが安定した品質を提供 多言語対応:グローバル展開も容易に プラグイアリズム回避:オリジナリティの高い文章を生成 ユーザーフレンドリー:専門知識不要で誰でも簡単に使用可能 カスタマイズ性:ブランドの声を反映した文章作成が可能 AIリライトツールは、文章作成の効率を劇的に向上させる革新的な

                                                      AIリライトツールの革命:時間とコストを劇的に削減する最新テクノロジー
                                                    • gemma-2-2b-jpn-it を試す|ぬこぬこ

                                                      tl;drGemma 2 2B の日本語版が発表されたよ Google Colab と macOS で試したよ macOS では transformers と MLX で試したよ 2B にしてはかなり日本語が流暢で、ローカル LLM の進展をすごく感じるよ Gemma 2 2B JPN とは Gemma-2-JPN は日本語に特化した Gemma 2 の事後学習モデル。英語と同様の性能。使用例として挙げられているものは、詩の作成や翻訳、コード生成など。モデルの訓練には TPU を用いており、JAX、ML Pathways を使用したよう。モデルの性能評価は GPT-3.5 と LLM as a Judge で比較。一般的なベンチマークというより、日本語で聞いたら日本語で答えるという RLHF をしているらしい(Gemma Developer イベントで話していた記憶より)。 試したくてうず

                                                        gemma-2-2b-jpn-it を試す|ぬこぬこ
                                                      • 約1720億パラメータ(GPT-3級)の大規模言語モデルのフルスクラッチ学習を行い、プレビュー版「LLM-jp-3 172B beta1」を公開~学習データを含めすべてオープンにしたモデルとしては世界最大〜 - 国立情報学研究所 / National Institute of Informatics

                                                        2024/09/17 約1720億パラメータ(GPT-3級)の大規模言語モデルのフルスクラッチ学習を行い、プレビュー版「LLM-jp-3 172B beta1」を公開 ~学習データを含めすべてオープンにしたモデルとしては世界最大〜 大学共同利用機関法人 情報・システム研究機構 国立情報学研究所 (NIIエヌアイアイ、所長:黒橋くろはし 禎夫さだお、東京都千代田区) の大規模言語モデル研究開発センター(LLMC)は、主宰するLLM勉強会(LLM-jp)の成果として、これまでのデータ活用社会創成プラットフォームmdx(*1)での130億パラメータ・モデルの学習、国立研究開発法人産業技術総合研究所の第2回大規模言語モデル構築支援プログラムによるAI橋渡しクラウド(ABCI)での1750億パラメータ・モデルの学習トライアルの成果を踏まえ、パラメータ数(*2)約1720億(GPT-3級)の大規模言語

                                                          約1720億パラメータ(GPT-3級)の大規模言語モデルのフルスクラッチ学習を行い、プレビュー版「LLM-jp-3 172B beta1」を公開~学習データを含めすべてオープンにしたモデルとしては世界最大〜 - 国立情報学研究所 / National Institute of Informatics
                                                        • 最新ベンチマークで判明、Claude3.5 Sonnetがトップも、オープンソースモデルが怒涛の追い上げ 大きく変化するAIモデルのランドスケープ | AMP[アンプ] - ビジネスインスピレーションメディア

                                                          最新ベンチマーク、「Hallucination Index」 1年ほど前まで、大規模言語モデル(LLM)は、いわゆるクローズドソースモデル、特にGPT-4が圧倒的な性能を誇っており、さまざまなベンチマーク/リーダーボードにおいて、トップを独占する状態が続いていた。 しかし現在、その状況は大きく変わりつつある。競合クローズドソースモデルの追い上げに加え、オープンソースモデルの躍進により、多極化が進んでいるのだ。開発者やユーザーにとってGPT-4以外の選択肢が大幅に増えたことを意味しており、AIアプリケーションの最適化や低コスト化が一層進む可能性が高まっている。 この状況を如実に示すベンチマークの1つがAIスタートアップGalileoの「Hallucination Index」の最新版だ。Galileoは22の主要な大規模言語モデルを対象に、不正確な情報を生成する傾向(ハルシネーション)を評価

                                                            最新ベンチマークで判明、Claude3.5 Sonnetがトップも、オープンソースモデルが怒涛の追い上げ 大きく変化するAIモデルのランドスケープ | AMP[アンプ] - ビジネスインスピレーションメディア
                                                          • ChatGPTに「Excel」の使い方を教えてもらおう

                                                            ChatGPTを使えば、Microsoftが提供する表計算ソフト「Excel」の使い方の幅を広げられる。本記事では、関数をキーワードにしつつ、ChatGPTを使ったExcelの活用術について3つのヒントを紹介したい。 (1)使えそうな「関数」を探す Excelでは、例えば指定のセルの合計値を計算するような「関数」がもともと用意されており、関数を指定することで素早い計算処理が行える。こうした関数は覚えておくと便利だが、その数が多いため、慣れていないユーザーにとっては全体を把握しておくのは難しい。 そこで、ChatGPTに想定の目的を伝えた上で用途に使える関数を尋ねると、簡単な使い方とともに関数の例が表示される。必要に応じた関数を探すテクニックとして活用してみよう。 例えば、GPT-3.5を選択した状態で、プロンプトにて「売上管理に使えるExcelの関数を教えて」と送信した場合、(1)SUM関

                                                              ChatGPTに「Excel」の使い方を教えてもらおう
                                                            • ソニーとラズパイ共同開発のAIカメラが発売 Raspberry Piの全モデルに対応

                                                              ソニー子会社でイメージセンサー事業などを手掛けるソニーセミコンダクタソリューションズ(SSS)は9月30日、英Raspberry Pi財団と共同開発したAIカメラを発売すると発表した。財団の手掛けるシングルボードコンピュータ「Raspberry Pi」に対応し、画像データを活用したエッジAIソリューションの開発を効率化できるという。希望小売価格(税別)は70米ドル(約9900円)。 搭載するのは、チップ上で画像のAI処理ができるSSSのイメージセンサー「IMX500」。有効約1230万画素で、AIに特化した信号処理を担うプロセッサと、AIモデルを書き込めるメモリを備えている。一般的に画像データを活用したAIソリューションを開発するには、GPUなどカメラ以外のモジュールが必要になるが、IMX500単体でAI処理を実行できるため、カメラとRaspberry Piのみで開発ができるという。 「R

                                                                ソニーとラズパイ共同開発のAIカメラが発売 Raspberry Piの全モデルに対応
                                                              1