並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 240 件 / 356件

新着順 人気順

LLMの検索結果201 - 240 件 / 356件

  • 他人の顔でYouTuber? 写真内の顔を思うように動かして話をさせるAI「LivePortrait」を動画生成AI「KLING」開発元が発表など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge

    さて、この1週間の気になる生成AI技術をピックアップして解説する「生成AIウィークリー」(第54回)では、KLINGを開発した快手が、画像内のキャラクターの顔を自在に動かす技術「LivePortrait」を発表しました。従来の類似技術と異なり、顔の表情や頭部の動きの1フレームを12.8ミリ秒で生成できる高速さが特徴です。動きの精度も高く、調和のとれた合成映像を生成します。 生成AI論文ピックアップ 静止画内の顔の表情や頭部をリアルに動かすAI「LivePortrait」、1フレーム0.01秒で動作を生成 “10億の人格”を活用して大規模合成データを生成する手法をテンセントが開発 ナレッジグラフを用いて回答精度を向上させる、マイクロソフト開発のLLM拡張技術「GraphRAG」がGitHubに登場 プロンプトの複雑さに応じ、強いLLMか弱いLLMかを自動選択するモデル「RouteLLM」 ソ

      他人の顔でYouTuber? 写真内の顔を思うように動かして話をさせるAI「LivePortrait」を動画生成AI「KLING」開発元が発表など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge
    • GraphRAGの簡易検証 ~Azure Document Intelligence, Neo4jを用いて~ - Qiita

      GraphRAGの簡易検証 ~Azure Document Intelligence, Neo4jを用いて~rag事前学習生成AILLMDocumentIntelligence はじめに 本記事の背景 Retrieval-Augmented Generation(RAG)は、クエリに基づいた情報検索を行い、その結果を基に回答を生成する技術です。これは大規模言語モデル(LLM)の活用法の一つであり、新しい知識や企業文書などに対しても効果的に利用できます。しかし、RAGにはいくつかの課題があり、特に情報の関連付けや意味的理解の不足が精度の低下につながることがあります。 通常のRAGは、主にベクトル類似性を利用して情報を検索します。これは、情報断片の表面的な類似性を評価するものであり、深く複雑な関連性を捉えることが難しいです。また、ベクトル化された情報は独立したエンティティとして扱われるため、文

        GraphRAGの簡易検証 ~Azure Document Intelligence, Neo4jを用いて~ - Qiita
      • 「GPT-4」超えを達成した国産日本語LLM、AIスタートアップのELYZAが開発・公開/グローバルモデル以外の新たな選択肢に期待

          「GPT-4」超えを達成した国産日本語LLM、AIスタートアップのELYZAが開発・公開/グローバルモデル以外の新たな選択肢に期待
        • 生成AI向け機械学習クラスタ 構築のレシピ 北海道石狩編

          Cloud Native Days Summer 2024での発表のスライドです。 概要 LLMを含む生成AIモデル学習の競争が激化しており、高い計算能力を持つクラスタを早く構築し使い勝手よく提供することがより重要になっています。生成AIのモデル学習向けにさらな…

            生成AI向け機械学習クラスタ 構築のレシピ 北海道石狩編
          • クラウドで動く生成AIアプリ、MicrosoftとGoogleが合計6種類もの開発ツール

            大手プラットフォーマーが2024年5月から6月にかけて発表した生成AI(人工知能)に関する施策を比較しながら紹介する本特集。第3回は米Microsoft(マイクロソフト)と米Google(グーグル)が発表した、クラウドで稼働する生成AIに関する取り組みを紹介しよう。 本特集の第1回、第2回で取り上げたように、大手プラットフォーマーは生成AIの新しい選択肢として「オンデバイス」に力を入れ始めている。クラウドで推論を行うクラウドLLM(大規模言語モデル)ではなく、スマートフォンやパソコンなどのデバイス上で稼働するオンデバイスSLM(小規模言語モデル)を使う。 もっともオンデバイスSLMは、クラウドLLMを単純に置き換える存在にはならない。オンデバイスSLMはプロンプトを入力してから結果が表示されるまでのレイテンシー(遅延)が低い一方、モデルのパラメーター数が少ないため、性能ではクラウドLLMに

              クラウドで動く生成AIアプリ、MicrosoftとGoogleが合計6種類もの開発ツール
            • Gemma 2 is now available to researchers and developers

                Gemma 2 is now available to researchers and developers
              • 【セッションレポート】イノベーションを実現する AWS の生成 AI サービス(AA-01) #AWSSummit | DevelopersIO

                はじめに AWS Summit Japan 2024 に参加しました。 「イノベーションを実現する AWS の生成 AI サービス」のセッションレポートです。 セッション概要 スタートアップから大企業まで、あらゆる規模の組織が生成 AI を導入し始めています。この新しいテクノロジーを活用し、プロトタイプ、デモからスタートし、イノベーションを加速して実際の生産性向上につなげたいと考えています。エンタープライズグレードのセキュリティとプライバシー、大手 AI 企業が提供する高性能な基盤モデルの選択肢、データ主導のアプローチ、最も高性能で低コストのインフラストラクチャを備えた AWS は、生成 AI によるイノベーションを実現しています。このセッションでは、Amazon Bedrock や Amazon Q などの新しい生成 AI サービスが、従業員の生産性向上、顧客エンゲージメントの改善、新し

                  【セッションレポート】イノベーションを実現する AWS の生成 AI サービス(AA-01) #AWSSummit | DevelopersIO
                • LayerXにおける金融デジタル化の現在地|Matsumoto Yuki

                  こんにちは、CTOの松本です。Apple Vision Proの到着を心待ちにしている毎日です。 ところで今日は、バクラクの話ではなくFintech事業について書いてみようかなと思い筆を執りました。入社から3年ほど管掌取締役として関わっているFintech事業ですが、その中で見えてきたことをエンジニアの視点でお伝えさせてください。 ちなみにFintech事業とは、三井物産様始めとしたアセットマネジメント領域のプロフェッショナルとLayerXの合弁会社で取り組んでいる三井物産デジタル・アセットマネジメント(MDM)を指します。 会社紹介資料より金融という領域の変化の難しさとインパクトMDMでは、「眠れる銭をActivateする」というミッションの元で、金融事業をデジタルで根っこから作り直してみるというチャレンジをしています。MDMの取り組みをわかりやすく書くと、不動産やその他魅力的な資産を探

                    LayerXにおける金融デジタル化の現在地|Matsumoto Yuki
                  • llama.ttf

                    llama.ttf is a font file which is also a large language model and an inference engine for that model. Ehm, what? llama.ttf is a font file which is also a large language model and an inference engine for that model. Why? How? The font shaping engine HarfBuzz, used in applications such as Firefox and Chrome, comes with a Wasm shaper allowing arbitrary code to be used to "shape" text. In particular,

                      llama.ttf
                    • Google翻訳、新たに110言語をサポート LLM「PaLM 2」の貢献で倍増

                      米Googleは6月27日(現地時間)、2007年から提供している自動翻訳サービス「Google翻訳」で、新たに110言語をサポートしたと発表した。LLMの「PaLM 2」を使った。これで対応言語数は243になった。 新言語の話者は6億1400万人以上であり、これは世界人の約8%に当たる。新言語の約4分の1はアフリカの言語だ。 話者が多いがこれまでサポートしてこなかった広東語も追加された。サポートが難しかったのは、書き言葉が北京語と重複することが多く、学習用データを見つけにくかったためとGoogleは説明した。 「言語には、地域的な変種、方言、異なるスペリングの基準など、膨大なバリエーションがある。また、多くの言語には標準的な形式がないため、“正しい”変種を選ぶことは不可能」とGoogle。Google翻訳ではオンラインでよく使われている変種に最も近いテキストを生成するが、そこには他の変種

                        Google翻訳、新たに110言語をサポート LLM「PaLM 2」の貢献で倍増
                      • OpenAI、GPT-4のエラーを指摘するGPT-4ベースの「CriticGPT」リリース

                        米OpenAIは6月27日(現地時間)、ChatGPTなどのLLMの出力の誤りを検出するためのGPT-4ベースのモデル「CriticGPT」を発表した。 人間によるAIトレーニングの際に、ChatGPTの回答の誤りを指摘することで、トレーニングの精度向上を支援する。 ChatGPTは、RLHF(人間からのフィードバックによる強化学習)と呼ばれる手法を用いて、人間との対話に適したモデルへと調整されている。RLHFでは、人間のAIトレーナーがChatGPTの異なる回答を比較評価し、その結果を学習にフィードバックする。だが、モデルの推論能力や挙動が高度化するにつれ、ChatGPTの誤りはより微妙化し、AIトレーナーにとって誤りを発見することが困難になっている。これはRLHFの根本的な限界であり、モデルが人間の能力を超えていくにつれて、モデルの調整はますます困難になる可能性がある。 CriticG

                          OpenAI、GPT-4のエラーを指摘するGPT-4ベースの「CriticGPT」リリース
                        • "ちゃんと成果を出す"ためのChatGPT活用術!──業務効率化の実例と現状の課題

                          ChatGPTのリリースから1年以上経過した現在も、大規模言語モデル(LLM)の能力を活用し、自社やユーザー向けに価値を提供できている人や企業はごく一部に限られている。このセッションでは、株式会社セクションナイン代表取締役CTOでありChatGPT Community(JP)主宰の吉田 真吾氏、ネクストスキル合同会社の大嶋 勇樹氏、株式会社Pictoriaの阿部 由延(サルドラ)氏、合同会社HOHOの波々伯部 潤氏、ZEN Architectsの三宅 和之氏が登壇。ChatGPTから実際に成果を出しているパイオニアとも呼ぶべき5名が、自身の経験や具体的な取り組み、今後の展望について語り合った。 ChatGPTがもたらす業務効率化の実例 まずは冒頭、「ChatGPTによって効率化が進んでいるのは、どのような業務分野や産業分野か」との問いが司会者によって投げかけられた。 「ChatGPTをコン

                            "ちゃんと成果を出す"ためのChatGPT活用術!──業務効率化の実例と現状の課題
                          • 生成AIの自動サイバー攻撃 成功率9割の脅威

                            イリノイ大学の研究チームは生成AI(GPT-4)を利用したサイバー攻撃の実験結果を公開した。攻撃の成功率を高める方法も分かった。 生成AIを使ったサイバー攻撃が急速に強力になっている。初期にはフィッシングメールの作成やマルウェアのコード作成などに利用されていたが、さらに危険な段階に進んだ。 公開されている脆弱(ぜいじゃく)性情報を利用して、自動的に攻撃を仕掛ける能力を得たからだ。イリノイ大学の研究チームは複数の大規模言語モデル(LLM:Language Model)について攻撃能力を調査した。 それによれば、複数の脆弱性を複数のLLMに与えたところ、OpenAIの「GPT-4」はそのうち約9割を悪用できた。 生成AIを使った攻撃はなぜ危険なのか サイバー攻撃に生成AIを使う動きが広がるとどのような危険性があるのだろうか。 イリノイ大学アーバナ・シャンペーン校の研究チームによれば、LLMを利

                              生成AIの自動サイバー攻撃 成功率9割の脅威
                            • Gemini Advancedでデータ分析をやってみた - GMOインターネットグループ グループ研究開発本部

                              TL;DR Geminiの有料プランGemini Advancedでは、5/14から100万トークンもの入力に対応したGemini 1.5 Proを提供開始、更に5/21からスプレッドシートをアップロードしてのデータ分析や可視化が可能になりました。これはPythonのコードを生成して実行するする機能です。 データ分析の性能としてはGemini AdvancedはChatGPT-4oとほぼ同等の性能でどんぐりの背比べ甲乙が付け難いです。Geminiの場合、Google Sheetsなどと連携でき、データの取り込みやエクスポートが容易です。一方のChatGPTは、可視化したグラフがより見やすい印象です。 しかし、Gemini AdvancedもChatGPT-4oも指示が曖昧では適切な集計ができないなど、データサイエンティストの視点から見ると、生成AIに任せきりでは不安な点が多く見受けられます

                                Gemini Advancedでデータ分析をやってみた - GMOインターネットグループ グループ研究開発本部
                              • Google、オープンな生成AIモデル「Gemma 2」リリース 270億パラメータモデル追加

                                米GoogleのGoogle DeepMindは6月27日(現地時間)、Google I/Oで予告した、軽量ながらも最先端の性能を持つオープン言語モデル「Gemma 2」を発表した。 2月に発表した「Gemma」は20億パラメータと70億パラメータの2サイズでの展開だったが、Gemma 2は90億パラメータと270億パラメータの2サイズ。 270億パラメータ版は、「そのサイズクラスで最高の性能を発揮し、2倍以上の規模のモデルに匹敵する性能を実現」するという。90億パラメータ版でも、米Metaの「Llama 3」の80億パラメータ版などを上回る性能を示すとしている。 Google Cloud TPU、NVIDIA A100、NVIDIA H100などの上で、完全精度で効率的に推論を実行できるように設計されており、高性能を維持しながらコストを大幅に削減できるという。高性能なゲーミングPCからク

                                  Google、オープンな生成AIモデル「Gemma 2」リリース 270億パラメータモデル追加
                                • NTTデータ、国産LLM「tsuzumi」を「Microsoft Azure」で提供

                                  印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます NTTデータは6月27日、NTTが開発する大規模言語モデル(LLM)「tsuzumi」を「Microsoft Azure」で11月以降に提供すると発表した。「Azure AI Studio」を利用してtsuzumiのチューニングやビジネスアプリケーション開発が可能になるとしている。 tsuzumiは、NTT研究所が40年以上にわたって蓄積した自然言語処理技術をベースに開発され、高性能ながらパラメーターサイズが6億~70億と海外のLLMより軽量な点が特徴。少ないリソースでチューニングが行え、企業や組織の業界、業務に特化型した生成AIとして利用することもできる。 tsuzumiの商用提供は3月に始まっているが、ユーザー側でtsuzumiを利

                                    NTTデータ、国産LLM「tsuzumi」を「Microsoft Azure」で提供
                                  • インテル「Gaudi 3」はAIでトップクラスの性能/コストを実現。拡張性と柔軟性で大規模クラスタと開発環境を強力に支援 [Sponsored]

                                      インテル「Gaudi 3」はAIでトップクラスの性能/コストを実現。拡張性と柔軟性で大規模クラスタと開発環境を強力に支援 [Sponsored]
                                    • BitTransformer界隈に激震!ついに使える乗算フリーLLMが登場!?|shi3z

                                      今年の3月ごろに話題になって、それから僕も実験してみたけどさっぱり学習できないBitTransformerに変わり、新たにMutmulFreeTransformerというものが出てきたようだと、NOGUCHI, Shojiさんが教えてくれたので試してみた LLM 1Bパラメータで行列計算を完全に排除できた(らしい)。メモリ消費量を学習時10倍、推論時61%Max削減(らしい)。https://t.co/tB3x1kmo4Fhttps://t.co/pb0YgAKSpw HFにモデルがアップロードされているので試してみよう。 学習は8x H100で370M:5h、1.3B: 84h、2.7B: 173hらしく1x 4090は厳しい — NOGUCHI, Shoji (@noguchis) June 26, 2024 ただ、2.7Bモデルが量子化なしで4090で推論できてるとしたらそれだけです

                                        BitTransformer界隈に激震!ついに使える乗算フリーLLMが登場!?|shi3z
                                      • アマゾン、RAGを実装したAIの性能を比較する新しいベンチマークを提案

                                        Tiernan Ray (Special to ZDNET.com) 翻訳校正: 佐藤卓 吉武稔夫 (ガリレオ) 2024-07-02 09:38 2024年は、企業で生成人工知能(AI)の活用が飛躍的に進む年になると、多くの観測筋が予測している。考えられる可能性の1つが、検索拡張生成(RAG)と呼ばれる手法の採用だ。RAGを利用すると、AIの大規模言語モデル(LLM)を、企業のファイルなど、組織の独自コンテンツが含まれるデータベースに接続できる。 ただし、RAGはまだ新しい技術で、落とし穴もある。 そのため、AmazonのAWSの研究者たちは新しい論文の中で、RAGが組織の独自コンテンツに関する質問にどれほど正しく回答できるかをテストする一連のベンチマークの策定を提案している。 この論文は、ウィーンで現地時間7月21日から27日まで開催されるAIカンファレンス「The Forty-fir

                                          アマゾン、RAGを実装したAIの性能を比較する新しいベンチマークを提案
                                        • Unlocking the power of unstructured data with RAG

                                          Whether they’re building a new product or improving a process or feature, developers and IT leaders need data and insights to make informed decisions. When it comes to software development, this data exists in two ways: unstructured and structured. While structured data follows a specific and predefined format, unstructured data—like email, an audio or visual file, code comment, or commit message—

                                            Unlocking the power of unstructured data with RAG
                                          • プロ作成モデルに匹敵する写真1枚→3Dモデル生成「Unique3D」、アーティストが丁寧に作ったようなポリゴンメッシュ生成「MeshAnything」など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                                            2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 AnthropicがClaudeファミリーの新モデル「Claude 3.5 Sonnet」をリリースしました。このモデルは、各種ベンチマークで同ファミリーの旧最上位モデルClaude 3 OpusやOpenAIのGPT-4を上回る性能を示しています。ユーザーの間でも様々な使用事例が共有され、その高性能ぶりが話題となっています。 一方、GoogleやNVIDIAから資金調達を受けているAIベンチャー「Runway」は、新しい動画生成AIモデル「Gen-3 Alpha」を発表しました。前モデルGen-2と比較して、忠実度、一貫性、モーションの面で大幅な改善が見られるとのことです。公開されているサンプル動画からも、その高精度が確認できます。 国内では、カ

                                              プロ作成モデルに匹敵する写真1枚→3Dモデル生成「Unique3D」、アーティストが丁寧に作ったようなポリゴンメッシュ生成「MeshAnything」など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                                            • JavaScriptのライブラリ「Polyfill.io」にマルウェア混入 10万以上のWebサイトに影響

                                              セキュリティ企業Sansecは2024年6月25日(現地時間)、JavaScriptのライブラリ「Polyfill.io」にマルウェアが混入していたと報じた。混入したマルウェアは10万以上のWebサイトに影響を与えたとされている。 Polyfill.jsは古いWebブラウザをサポートするためのライブラリであり、「JSTOR」や「Intuit」「World Economic Forum」など多くのWebサイトで利用されている。2024年2月に中国企業が「cdn.polyfill.io」ドメインと「GitHub」アカウントを購入した後、マルウェアが埋め込まれたコードが配布されるようになったという。 中国企業によるPolyfill.ioの買収とマルウェアの混入 Sansecの分析によると、サイバー攻撃者が「Google Analytics」ドメインを偽造し、モバイルユーザーをスポーツベッティング

                                                JavaScriptのライブラリ「Polyfill.io」にマルウェア混入 10万以上のWebサイトに影響
                                              • GPT、Geminiだけじゃない 押さえておきたい「主要LLM」8選はこれだ

                                                関連キーワード 人工知能 | Google | チャットbot | Facebook | Microsoft(マイクロソフト) 人工知能(AI)技術の進化に伴い、大規模言語モデル(LLM)は多様化の時代を迎えている。LLMは自然言語処理において飛躍的な性能向上を遂げるだけでなく、オープンソース化や軽量化をはじめとする多様な進化を見せている。 注目に値するLLMはOpenAIの「GPT」や、Googleの「Gemini」だけではない。どのようなLLMが登場しているのか。前編に続き、主要LLM19種のうち12~19個目を紹介する。 GPTやGeminiだけじゃない 押さえておきたい「主要LLM」8選 併せて読みたいお薦め記事 連載:代表的なLLM19選を徹底解説 前編:BERT、GeminiからGPT-3.5、GPT-4oまで「主要LLM11種」の特徴は? 中編:LLMの徹底理解に欠かせない「

                                                  GPT、Geminiだけじゃない 押さえておきたい「主要LLM」8選はこれだ
                                                • わざと誤答させて出力品質を上げる? 最新のプロンプトエンジニアリングとは

                                                  この連載について AIやデータ分析の分野では、毎日のように新しい技術やサービスが登場している。その中にはビジネスに役立つものも、根底をひっくり返すほどのものも存在する。本連載では、ITサービス企業・日本TCSの「AIラボ」で所長を務める三澤瑠花氏が、データ分析や生成AIの分野で注目されている最新論文や企業発表をビジネス視点から紹介する。 大規模言語モデル(LLM)の性能向上のため、プロンプトエンジニアリングのアプローチが続々提案されています。カーネギーメロン大学とDeepMindの研究チームは、あえてLLMにミスさせて最終的により良い回答を出力させる手法「Learning Principles」(LEAP)を提案しました。 上海科技大学の研究チームは、大規模で高性能なLLMが小規模なLLMをサポートする「RoT」(Reflection on search Trees)」という手法を提案しま

                                                    わざと誤答させて出力品質を上げる? 最新のプロンプトエンジニアリングとは
                                                  • AIを搭載した中国の次世代「セックスロボット」が市場を席巻する未来はすぐそこかもしれない

                                                    彼女の代わりに音声メッセージや自撮りを送ってくれるチャットAIなど、チャットボットとの交流を楽しめるサービスが増えてきましたが、こうしたAIとのふれあいはあくまでプラトニックな関係でした。そんなチャットAIを搭載することで、物理的かつインタラクティブな交流ができるセックスロボットの開発を、中国企業が進めています。 China’s next-gen sexbots powered by AI are about to hit the shelves | South China Morning Post https://www.scmp.com/news/china/science/article/3266964/chinas-next-gen-sexbots-powered-ai-are-about-hit-shelves セックスロボットに組み込む大規模言語モデル(LLM)のトレーニングを

                                                      AIを搭載した中国の次世代「セックスロボット」が市場を席巻する未来はすぐそこかもしれない
                                                    • イライザ、日本語特化AIモデル開発 性能「GPT-4」超え - 日本経済新聞

                                                      生成AI(人工知能)スタートアップのELYZA(イライザ、東京・文京)は26日、日本語の性能に特化した最新の大規模言語モデル(LLM)を開発したと発表した。米オープンAIの「GPT-4」を上回る性能といい、推論能力に優れる。文章の抽出や要約などに活用でき、外部企業に技術提供する。イライザは2018年にAI研究で著名な東京大学・松尾豊教授の研究室から発足した。4月にKDDIの傘下に入ったことで知

                                                        イライザ、日本語特化AIモデル開発 性能「GPT-4」超え - 日本経済新聞
                                                      • 「アップルの生成AI」がほかとは違う理由

                                                        スマートフォン、タブレット、パソコンとユーザーの距離を縮め、生産性を大幅に高める絶妙の仕掛け。 アップルが何年も前から機械学習や深層学習のエンジニアを多数雇用していたことは周知の事実だが、これまでその成果は各製品の限られた機能でしか確認することはできなかった。 動画から文字を認識、抽出する機能や被写体を自動的に切り抜く機能、多重露出した上で合成したかのような、広いダイナミックレンジを捉えた写真、ユーザーの行動を予測した上で必要な情報を適切に通知するなど、それがAIの仕業であると強く意識しない範囲で各デバイスの使い勝手を向上させる部分に、アップルはAI技術開発を行なってきていると思われてきた。 筆者が現地に招かれ取材中の開発者向け会議「WWDC 2024」でも、そうした技術の一部が披露されているが、もっとも驚きをもたらしたのは、アップルが独自に開発したLLM(大規模言語モデル)を元にした機能

                                                          「アップルの生成AI」がほかとは違う理由
                                                        • Sakana AI

                                                          Summary At Sakana AI, we harness nature-inspired ideas such as evolutionary optimization to develop cutting-edge foundation models. The development of deep learning has historically relied on extensive trial-and-error by AI researchers and their theoretical insights. This is especially true for preference optimization algorithms, which are crucial for aligning Large Language Models (LLMs) with hum

                                                            Sakana AI
                                                          • Llama 3 Swallow – Swallow LLM

                                                            Llama 3 Swallow Llama 3 SwallowシリーズはMeta Llama 3の日本語能力を強化した大規模言語モデル (8B, 70B) です。すべてのモデルのパラメータ(重み)がHuggingFace上で公開されていますので、Meta Llama 3 Licenseに従う限り、研究や商業目的などで利用できます。 View on HuggingFace Llama 3 Swallowは東京工業大学情報理工学院の岡崎研究室と横田研究室、国立研究開発法人産業技術総合研究所の研究チームで開発された大規模言語モデルです。オープンな大規模言語モデルの中で高い性能を示すMeta Llama 3 8Bと70Bに対して、研究チームはSwallowコーパスで継続事前学習を行い、日本語能力をさらに引き上げました。研究チームで実施した性能評価では、オープンな大規模言語モデルの中で、日本語や英語

                                                              Llama 3 Swallow – Swallow LLM
                                                            • slide-ai-codegen.md

                                                              slide-ai-codegen.md marp theme paginate true gaia true LLMによるフロントエンド生成自動化 mizchi | Plaid Inc TechFeed Expert Night 31 LLM 使ってますか? 便利ですよね ChatGPT / GitHub Copilot WebUI じゃなくて CLI で自動化したいですよね? 黎明期でまともにモジュール化しても無駄そうだし、 Deno の書き捨てスクリプト量産するぞ! Deno for LLM 設定や依存のインストール不要のTS実行環境 書き捨ての CLI スクリプトが書きやすい => 実験しやすい npm 資産が使える import {z} from "npm:zod" コード評価に Deno Sandbox を用意できる(後述) @luca/esbuild-deno-loader で

                                                                slide-ai-codegen.md
                                                              • Vol.04 LLMOps に取り組み始めた話 - Sansan Tech Blog

                                                                技術本部Strategic Products Engineering Unit Contract One Devグループの伊藤です。契約データベース「Contract One」の開発に携わっています。 Contract Oneでは、GPTを活用した機能をいくつか提供しています。 今回は、Contract OneのGPTを活用した機能開発のために、LLMOpsの取り組みの一環としてLangfuseを導入し始めた話をします。 なお、本記事は【Strategic Products Engineering Unitブログリレー】という連載記事のひとつです。 buildersbox.corp-sansan.com はじめに Contract Oneでは、GPTを活用した文書内検索 *1 と要約機能 *2 を約1年前にリリースし、現在も提供しています。 GPTは自然言語形式の入力をAPI形式で処理でき

                                                                  Vol.04 LLMOps に取り組み始めた話 - Sansan Tech Blog
                                                                • GoogleがGeminiの新版「パーソナルヘルス特化LLM」を発表、睡眠やフィットネス分野で専門家を凌駕するケースも - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

                                                                  Image credit: Google Research 「Google Gemini」は誕生してまだ6カ月だが、セキュリティ、コーディング、デバッグなどの分野ですでに素晴らしい能力を発揮している(もちろん、重大な限界も示している)。 現在、大規模言語モデル(LLM)は、睡眠とフィットネスのアドバイスに関して人間を凌駕している。 Google の研究者は、スマートウォッチや心拍計などのウェアラブルから得られる時系列のパーソナルヘルスデータを理解し、推論するためにファインチューニングされた Gemini のバージョン「Personal Health Large Language Model(PH-LLM)」を発表した。彼らの実験では、このモデルは、健康やフィットネスの分野で長年の経験を持つ専門家よりも明らかに優れた回答をし、予測を行った。 Breaking: Google just pub

                                                                    GoogleがGeminiの新版「パーソナルヘルス特化LLM」を発表、睡眠やフィットネス分野で専門家を凌駕するケースも - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
                                                                  • Cloudflare、ワンクリックでAIボット、AIクローラーをブロックする設定を追加 | gihyo.jp

                                                                    Cloudflare⁠⁠、ワンクリックでAIボット⁠⁠、AIクローラーをブロックする設定を追加 Cloudflareは2024年7月3日、AI学習用のデータを収集するAIボットやAIスクレーパー、AIクローラーのアクセスをワンクリックの設定でブロックできる機能を実装したことを発表した。 Declare your AIndependence: block AI bots, scrapers and crawlers with a single click -The Cloudflare Blog Cloudflareは2023年に、robots.txtに従い動作するAIボットをブロックできる機能を発表している。しかしこのブロック機能は、ボット運営者がrobots.txtに正しくしたがったユーザーエージェントを使用している場合のみ機能する。ユーザーエージェントはボット運営者が簡単に変更して偽装

                                                                      Cloudflare、ワンクリックでAIボット、AIクローラーをブロックする設定を追加 | gihyo.jp
                                                                    • COBOLのピュアJava変換に生成AIを活用、日本IBMがwatsonxで実現

                                                                      日本IBMは「IT変革のためのAIソリューション」として、システム構築プロセス全体における生成AI(人工知能)の活用を進めている。今回は、コード生成およびテスト自動化における生成AIの活用方法について見ていく。 生成AIによるコード生成は、特に既存システムのモダナイゼーションで威力を発揮する。代表的なのが基幹システムなどにおけるCOBOLプログラムのJavaへの変換だ。日本IBMの二上哲也執行役員IBMフェローコンサルティング事業本部最高技術責任者(CTO)は、「COBOLで記述された既存のソースコードを生成AIで仕様書に書き起こす案件を現在多く請け負っている」と話す。長年のノウハウの蓄積により、「ソースコードはあるが仕様が分からない」といった状況を生成AIにより短時間で解決できる可能性が出てきた。 日本IBMの谷松清孝コンサルティング事業本部ハイブリッド・クラウド・サービスアソシエイト・

                                                                        COBOLのピュアJava変換に生成AIを活用、日本IBMがwatsonxで実現
                                                                      • 【セッションレポート】生成 AI のセキュリティ対策と責任ある AI の実現(AWS-16) #AWSSummit | DevelopersIO

                                                                        はじめに AWS Summit Japan 2024 に参加しました。 「生成 AI のセキュリティ対策と責任ある AI の実現」のセッションレポートです。 セッション概要 生成 AI の利用が拡大する中で、モデルの安全性や公平性、プライバシーやモデルの透明性などの観点から生成 AI を開発する側にも活用する側にも責任あるAIが求められています。また、生成 AI を利用したシステムに対する外部からの攻撃や不正アクセスなどの脅威も懸念されています。本セッションでは、これらのセキュリティ課題とその対策に焦点を当て、AWS 環境において生成AIを安全かつ信頼性の高い技術として展開するための方法について解説します。 セッションスピーカー: 保⾥ 善太 所属:アマゾン ウェブ サービス ジャパン 合同会社 プロフェッショナルサービス本部 本セッションについて 対象者 AIエンジニア AIプロジェクト

                                                                          【セッションレポート】生成 AI のセキュリティ対策と責任ある AI の実現(AWS-16) #AWSSummit | DevelopersIO
                                                                        • Microsoftの「Copilot+ PC」はこれまでのWindows PCと何が違うのか

                                                                          MicrosoftはAI処理をローカルで実行可能にする「Copilot+PC」の販売を開始した。Copilot+PCは一般的なWindows PCと何が違うのか。性能や機能から違いを見ていく。 2024年6月18日、AI処理専用NPU(Neural network Processing Unit)を搭載した「Copilot+PC」の発売が始まった。 発売されたのは「Surface Pro」第11世代の5モデルと「Surface Laptop」第7世代の13.8インチ画面5モデル、15インチ画面4モデルだ。同社はこれらを「新しいWindows PCカテゴリー」と位置付けている。同日にAcerやDell、日本HP、Lenovo 、ASUSからもCopilot+PCが発売された。Copilot+PCは一般的なWindows PCとどこが違い、どのような特徴があるのか。日本マイクロソフトの発表会の

                                                                            Microsoftの「Copilot+ PC」はこれまでのWindows PCと何が違うのか
                                                                          • Claude 3.5 Sonnet徹底解説。Claude 3.5 Sonnetの性能やArtifactsの使い方|ChatGPT研究所

                                                                            Claude 3.5 Sonnet徹底解説。Claude 3.5 Sonnetの性能やArtifactsの使い方 1. はじめに2024年6月21日、AnthropicはAIモデル「Claude 3.5 Sonnet」を発表しました。このモデルは、Claude 3モデルファミリーの最新版です。 Claude 3.5 Sonnetの主な特徴: 推論能力の向上 マルチモーダル理解力の強化 処理速度の改善 コスト効率の最適化 Claude 3.5 Sonnetは、以下の分野で高い性能を示しています: 大学院レベルの推論(GPQA) 学部レベルの知識(MMLU) コーディング能力(HumanEval) また、複雑な指示の理解や自然な日本語でのコンテンツ生成にも改善が見られます。 本記事では、Claude 3.5 Sonnetの詳細な特徴、活用方法、新機能「Artifacts」について解説します。

                                                                              Claude 3.5 Sonnet徹底解説。Claude 3.5 Sonnetの性能やArtifactsの使い方|ChatGPT研究所
                                                                            • 株式会社ナウキャスト様の AWS 生成 AI 事例:決算短信データ抽出業務における LLM 業務適用 | Amazon Web Services

                                                                              Amazon Web Services ブログ 株式会社ナウキャスト様の AWS 生成 AI 事例:決算短信データ抽出業務における LLM 業務適用 本稿は株式会社ナウキャスト データ & AI ソリューション事業部 事業責任者 片山 燎平様と Amazon Web Services Japan ソリューションアーキテクト 宮﨑の共同執筆です。LLM の業務活用に取り組まれる方の参考となれば幸いです。また、今回内容を含む講演動画も公開されておりますので、ご興味をお持ち頂けましたらあわせてご覧ください。 == 株式会社ナウキャストでは POS データやクレジットカードの決済データといった「オルタナティブデータ」を解析し、リアルタイムな経済統計の開発、生活者の消費行動や企業活動をより早く正確にとらえるデータソリューションの提供に取り組んでいます。POS データやクレジットカードなどの決済データ

                                                                                株式会社ナウキャスト様の AWS 生成 AI 事例:決算短信データ抽出業務における LLM 業務適用 | Amazon Web Services
                                                                              • LLMチャットアプリケーション・アーキテクチャの工夫

                                                                                LLM Night〜生成AIソフトウェアアーキテクチャ〜というイベントで発表した資料です。 イベントの概要と本資料のサマリーは以下のとおりです。 --------------- 回は、生…

                                                                                  LLMチャットアプリケーション・アーキテクチャの工夫
                                                                                • Evaluate the reliability of Retrieval Augmented Generation applications using Amazon Bedrock | Amazon Web Services

                                                                                  AWS Machine Learning Blog Evaluate the reliability of Retrieval Augmented Generation applications using Amazon Bedrock Retrieval Augmented Generation (RAG) is a technique that enhances large language models (LLMs) by incorporating external knowledge sources. It allows LLMs to reference authoritative knowledge bases or internal repositories before generating responses, producing output tailored to

                                                                                    Evaluate the reliability of Retrieval Augmented Generation applications using Amazon Bedrock | Amazon Web Services