並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 35 件 / 35件

新着順 人気順

LLMの検索結果1 - 35 件 / 35件

  • エンジニアにも知って欲しいChatGPT基本テクニック - Qiita

    はじめに ChatGPTブームがひと段落した感がありますが、周りのエンジニアでChatGPTを活用している姿をあまり見みません。 基本的なテクニックを理解すれば、エンジニアこそChatGPTを活用できると思うので、普段使用しているテクニックをいくつかピックアップして紹介します。 プロンプトの記載方法 Markdown記法で指示する 色々なところで紹介されていると思いますが、ChatGPTへの指示にはMarkdown記法を使用することが推奨されています。 例えば下記のような文章による指示を行おうとした場合

      エンジニアにも知って欲しいChatGPT基本テクニック - Qiita
    • 大規模言語モデル (LLM) の技術と最新動向

      マルチメディア,分散,協調とモバイル(DICOMO2024)シンポジウムでの招待講演の資料です。 https://dicomo.org/

        大規模言語モデル (LLM) の技術と最新動向
      • 45分登壇で75%効率化したMarkdown+生成AIスライド作成術 - Qiita

        KDDIアジャイル開発センターのpiyonakajimaです。 突然ですが、あなたは登壇スライドの作成にどれぐらいの時間をかけていますか? 6/21-22に開催されたScrum Fest Osaka 2024に登壇した際、Markdown+生成AIを活用して登壇スライドを作成しました。その際、45分の登壇資料作成を75%効率化(自分比)できました。 普段からMarkdownで資料を作成している方からすると、これまで時間かけすぎやろ、というツッコミが聞こえてきそうですが、登壇資料の作成時間に悩まれる方は沢山いらっしゃるのではないかと思います。今回はこの時に実施した工夫をお話します。 以下がMarkdown(Marp)と生成AIを使って執筆した45分の登壇資料です。一部PowerPointで作図した過去資料から流用しています。 Marpでは、たとえば以下のようなmarkdownを書くと、 --

          45分登壇で75%効率化したMarkdown+生成AIスライド作成術 - Qiita
        • ドラムマシン、シンセ、サンプラーがわずか数分で完成。非プログラマーなのにClaude + Artifactsのプロンプト開発が楽しすぎて限度超える(CloseBox) | テクノエッジ TechnoEdge

          ノンプログラマーな自分が、大規模言語モデル(LLM)の助力で、初めてまともに動くプログラムを完成させることができました。

            ドラムマシン、シンセ、サンプラーがわずか数分で完成。非プログラマーなのにClaude + Artifactsのプロンプト開発が楽しすぎて限度超える(CloseBox) | テクノエッジ TechnoEdge
          • 【大原雄介の半導体業界こぼれ話】 生成AIのバブルはいつ弾ける?

              【大原雄介の半導体業界こぼれ話】 生成AIのバブルはいつ弾ける?
            • 孫正義氏が「有益」と語る「ChatGPT」の使い方とは

              ソフトバンクグループで代表取締役会長兼社長執行役員を務める孫正義氏は株主総会で、自身のChatGPTの使い方について言及した。 孫氏は「私の使い方は語り合いのパートナー。何かを検索するというよりは、アイデアの壁打ちやディベートの相手として使っている」とし、次のように述べた。 「(ChatGPTに対して)『あなたが(それぞれ)こういう特徴の天才的科学者A、B、Cだとしたら、この問題をどう解決するか、僕の目の前でディベートしてくれ』と(指示して)ずっとディベートさせる。そして『B、CはAに賛成だとか反対だとか、違う角度から自分なりの発想に切り替えてコメントして欲しい』とディベートさせる。このようにぐるぐる議論させて、合意が取れるまで、目の前でずっと意見を戦わせる」(孫正義氏) 孫氏は「めちゃくちゃ面白い。ものすごい有益」と語り、「部下と議論するよりも見ていたら面白い、やりだしたら止まらない」と

                孫正義氏が「有益」と語る「ChatGPT」の使い方とは
              • 【都知事選2024】AIによるマニフェストへの質疑応答システム「AIあんの」の裏側を公開します!|Jun Ito

                安野たかひろ事務所 技術チームリーダーの伊藤です。 安野は大学時代の友人で、彼が今回の選挙戦で実現しようとしている、老若男女の意見を募り、誰も取り残さないことを旨とする選挙活動・民主主義の形に共感し、ぜひ力になりたいと思いPdM・エンジニアとして手伝いをしております! この記事では、先日公開になった「AIあんの」のシステムについて、技術者の観点から、実現しようとしている状態と、技術的な裏側について解説してみようと思います。 AIあんのとはAIあんのは、安野たかひろの政策を学習したAI応答システムが、本人のアバターと声色によって、Youtube Liveと電話という2つの経路で、みなさまのご意見やご質問に回答するシステムです。 配信でAIあんのに質問したい場合は、以下からアクセスしてみてください。 (URLは変更になる場合があります。その際はアカウントから配信を探してみてください。) また電

                  【都知事選2024】AIによるマニフェストへの質疑応答システム「AIあんの」の裏側を公開します!|Jun Ito
                • 「よーしパパ、Ollama で Llama-3-ELYZA-JP-8B 動かしちゃうぞー」 - Qiita

                  はじめに こんにちは、KDDIアジャイル開発センターのはしもと(仮名)です。 エンドレス水出しコーヒーの時期になりましたね。 今回は、Ollama を使って日本語に特化した大規模言語モデル Llama-3-ELYZA-JP-8B を動かす方法をご紹介します。 このモデルは、日本語の処理能力が高く、比較的軽量なので、ローカル環境での実行に適しています。さあその性能は如何ほどに!!!!????はやくAIは俺から仕事を奪え。 Llama-3-ELYZA-JP-8Bとは Llama-3-ELYZA-JP-8Bは、ELYZA社が開発した日本語に特化した大規模言語モデルです。Meta社の「Llama 3」シリーズをベースに、日本語での追加学習を行っています。80億パラメータという比較的小さなモデルサイズながら、「GPT-3.5 Turbo」や「Claude 3 Haiku」、「Gemini 1.0 P

                    「よーしパパ、Ollama で Llama-3-ELYZA-JP-8B 動かしちゃうぞー」 - Qiita
                  • 全社的な生成AI活用プラットフォームとしての Difyの導入事例紹介

                    ビズリーチが目指す「開発生産性」ダッシュボード 〜 データ収集の壁と乗り越え方 〜 / dev-productivity-con2024

                      全社的な生成AI活用プラットフォームとしての Difyの導入事例紹介
                    • マルチエージェントで性能が上がったText-to-SQLのいま/Text-to-SQL

                      この先を生き残るために!!「生存戦略としてのLLMアプリ開発技術」/20240124_PE-BANK

                        マルチエージェントで性能が上がったText-to-SQLのいま/Text-to-SQL
                      • デコンパイルに特化した大規模言語モデル「LLM4Decompile」の登場

                        3つの要点 ✔️ デコンパイルに特化した初のオープンソースモデル「LLM4Decompile」を開発 ✔️ モデルに新しい学習目的を導入し、デコンパイルの精度向上を実現 ✔️ 再コンパイルと再実行可能性に焦点を当てたデコンパイルのための初の標準化されたベンチマークを構築 LLM4Decompile: Decompiling Binary Code with Large Language Models written by Hanzhuo Tan, Qi Luo, Jing Li, Yuqun Zhang (Submitted on 8 Mar 2024) Comments: Published on arxiv. Subjects: Programming Languages (cs.PL); Computation and Language (cs.CL) code: 本記事で使用してい

                          デコンパイルに特化した大規模言語モデル「LLM4Decompile」の登場
                        • 「GPT-4」を上回る日本語性能のLLM「Llama-3-ELYZA-JP」を開発しました|ELYZA, Inc.

                          本記事のサマリーELYZA は、「Llama-3-ELYZA-JP」シリーズの研究開発成果を公開しました。700億パラメータのモデルは、日本語の生成能力に関するベンチマーク評価 (ELYZA Tasks 100、Japanese MT-Bench) で「GPT-4」を上回る性能を達成しました。各モデルは Meta 社の「Llama 3」シリーズをベースに日本語で追加学習を行なったものです。 ■「Llama-3-ELYZA-JP-70B」 700億パラメータモデル。「GPT-4」を上回る日本語性能を達成。無料で利用可能なデモを用意しています。 ■「Llama-3-ELYZA-JP-8B」 80億パラメータと軽量ながらも「GPT-3.5 Turbo」に匹敵する日本語性能を達成。モデルを商用利用可能な形で一般公開しました。 使用したAPIのバージョンなど、より詳細な評価結果については本記事の後段

                            「GPT-4」を上回る日本語性能のLLM「Llama-3-ELYZA-JP」を開発しました|ELYZA, Inc.
                          • 社内用AIアシスタント「おっさんずナビ」を作った話、そして人間らしく振る舞う重要性を認識した話 | Raccoon Tech Blog [株式会社ラクーンホールディングス 技術戦略部ブログ]

                            こんにちは、羽山です。 みなさんは業務に LLM(生成AI)を活用していますか?ラクーングループでは生成系AI LT大会を開催するなど、積極的な利用を推し進めています。 そこで今回は私がその生成系AI LT大会で発表し、隙間時間で開発して、社内で幅広く利用されるに至った AIアシスタント「おっさんずナビ」を紹介します。 おっさんずナビは LLM + RAG(Retrieval-Augmented Generation)を利用した Slackボットで「ラクーンホールディングスの社風を教えてください」という質問に 社内事情を踏まえた回答 をしてくれます。 ファインチューニングを利用せず RAG のみで精度を高めているのと、ベクトルDBなどの外部リソースを必要としないのがポイントで、使い込まれた Slack ワークスペースさえあればアプリを起動するだけで 社内事情通のAIアシスタント ができあが

                              社内用AIアシスタント「おっさんずナビ」を作った話、そして人間らしく振る舞う重要性を認識した話 | Raccoon Tech Blog [株式会社ラクーンホールディングス 技術戦略部ブログ]
                            • AWSで生成AI入門!LLMの基本からRAG、Agentまで | ドクセル

                              スライド概要 2024年5月31日に開催した「AWSで生成AI入門! LLMの概要からRAG、エージェントまで」セッションの資料です。 生成AIに使われるLLMの基本を説明し、AWSが提供している生成AIサービスであるAmazon Bedrockの使い方を説明します。 APIの使い方に始まり、チャット、ベクトル検索、RAGと段階的に説明し、最終的に「はにわロボット」工場のエージェントを作成する内容になっています。

                                AWSで生成AI入門!LLMの基本からRAG、Agentまで | ドクセル
                              • “GPT-4超え性能”の日本語特化型LLM AIスタートアップ・ELYZAが開発 国外プレイヤーとの競争も「諦めない」

                                東大発のAIスタートアップ企業であるELYZA(東京都文京区)は6月26日、GPT-4を超える性能を持つ日本語特化型の大規模言語モデル(LLM)「Llama-3-ELYZA-JP-70B」を開発したと発表した。AIモデル自体は公開しておらず、今後企業向けに提供していく予定。チャット形式で性能を試せるデモサイトは公開している。 Llama-3-ELYZA-JP-70Bは、米MetaのLLM「Llama-3-70B」をベースに日本語の追加事前学習や指示学習を行って開発したモデル。元のLLMから、日本語性能が大きく向上しているのが特徴。2つのベンチマークで日本語性能を評価したところ、米OpenAIのLLM「GPT-4」の性能を上回り、米AnthropicのLLM「Claude 3 Sonet」や米GoogleのLLM「Gemini 1.5 Flash」とも同等かそれ以上の性能を達成したという。

                                  “GPT-4超え性能”の日本語特化型LLM AIスタートアップ・ELYZAが開発 国外プレイヤーとの競争も「諦めない」
                                • 第21回 デジタル時代の人材政策に関する検討会(METI/経済産業省)

                                  開催日 2024年5月13日 開催資料 議事次第(PDF形式:148KB) 資料1 令和6年度構成員名簿(PDF形式:202KB) 資料2 東京大学大学院情報学環 山内教授 資料(PDF形式:2,443KB) 資料3 株式会社NextInt 中山様 資料(PDF形式:1,145KB) 議事要旨(PDF形式:237KB) お問合せ先 商務情報政策局 情報技術利用促進課 電話:03-3501-1511(内線:3971)

                                  • C/C++の脆弱性をLLMで検出 Googleが新研究開発プロジェクト「Naptime」を発表

                                    Googleは2024年6月20日(現地時間)、脆弱(ぜいじゃく)性の検出に大規模言語モデル(LLM)を活用する新しい研究開発プロジェクト「Naptime(お昼寝タイム)」を発表した。 C/C++の脆弱性検出はLLMに任せて“お昼寝しよう” NaptimeはAIエージェントとターゲットコードベース間のインタラクションを中心に構築されたアーキテクチャだ。特にC/C++の高度なメモリ破壊およびバッファーオーバーフローの脆弱性を発見することに焦点を当てている。この2つの対象は従来の方法論では発見することが難しく、GoogleはLLMを利用することで検出効率を最大20倍まで改善できると説明している。 なお、プロジェクト名の由来は開発した成果物がセキュリティ担当者やIT担当者を支援し、定期的に昼寝ができるくらいにはなりたいという願掛けになっているという。 Naptimeのアーキテクチャはセキュリティ

                                      C/C++の脆弱性をLLMで検出 Googleが新研究開発プロジェクト「Naptime」を発表
                                    • リコージャパン、社内の質問にRAGを使って答える生成AIサービスを提供開始

                                      リコーの国内販売子会社であるリコージャパンは2024年6月28日、生成AI(人工知能)が対話形式で社内情報に関する質問に回答するサービスを2種類、同日から提供すると発表した。RAG(Retrieval Augmented Generation、検索拡張生成)の仕組みを使い、LLM(大規模言語モデル)が社内規定や過去事例、業務報告書といった社内文書を参照できるようにすることで回答精度を上げる。 「RICOH デジタルバディ」は大企業での利用を想定する。PDF、Word、Excel、PowerPoint形式のファイルをアップロードできる。個人や部門ごとに利用範囲を制御でき、情報の漏洩を防ぐ。米Amazon Web Services(AWS)の生成AIサービス「Amazon Bedrock」を通じてLLMにアクセスする。既存データベースとの連係、長文読解や多言語対応に強いLLMへの切り替えなど、

                                        リコージャパン、社内の質問にRAGを使って答える生成AIサービスを提供開始
                                      • 【Gemini本発売記念】npaka による マルチモーダルとローカルLLMの現在と未来

                                        #KotlinFest 2024 : Kotlin sealed classを用いた、ユーザーターゲティングDSL(専用言語)と実環境で秒間1,000万評価を行う処理系の事例紹介

                                          【Gemini本発売記念】npaka による マルチモーダルとローカルLLMの現在と未来
                                        • Microsoft Research が開発した GraphRAG: 企業の非公開データ分析を革新する LLM 技術 - Sun wood AI labs.2

                                          Your request has been blocked. This could be due to several reasons.www.microsoft.com 近年の AI の進化は目覚ましく、特に大規模言語モデル (LLM) は目覚ましい発展を遂げています。しかし、LLM には、学習したデータの範囲を超えた問題を解決することが難しいという課題がありました。 そこで、Microsoft Research は、LLM の能力を拡張する画期的な技術 GraphRAG を開発しました。GraphRAG は、LLM を使って非公開データから知識グラフを生成し、複雑な質問への回答精度を大幅に向上させます。 LLM が抱える課題と RAG 技術の登場 LLM は大量のデータを使って学習しますが、学習データに含まれない情報を含む質問にはうまく回答できません。例えば、「最新の科学論文に基づいて

                                            Microsoft Research が開発した GraphRAG: 企業の非公開データ分析を革新する LLM 技術 - Sun wood AI labs.2
                                          • ChatGPTのミスを見つけるためのGPT-4ベースのモデル「CriticGPT」が開発される

                                            OpenAIが、ChatGPTの誤りを検出するAIモデル「CriticGPT」を開発したことを発表しました。CriticGPTはChatGPTと同じくGPT-4をベースに開発されているそうです。 Finding GPT-4’s mistakes with GPT-4 | OpenAI https://openai.com/index/finding-gpt4s-mistakes-with-gpt-4/ ChatGPTなどのチャットAIを使うと、少ない操作でコードを生成したり長文を作成したりできます。しかし、チャットAIが生成するコードや文章には誤りが含まれることも多く、「ChatGPTで生成したコードをそのまま使った結果、バグが存在しており実害を被った」という報告も存在しています。 ChatGPTが生成したコードのバグを見落としたせいで150万円以上の損失を被った失敗談 - GIGAZIN

                                              ChatGPTのミスを見つけるためのGPT-4ベースのモデル「CriticGPT」が開発される
                                            • Gemini API の Function Calling 機能で LLM Agent を実装する

                                              LLM Agent 入門 データ処理パイプラインと LLM Agent の違い Google Cloud の Gemini API には Function Calling 機能が実装されており、基盤モデルの Gemini に「外部 API を利用して回答に必要な情報を収集する」という動作が追加できます。ここでポイントになるのは、「どの API をどのように使用すれば回答に必要な情報が得られるか?」という部分を Gemini 自身に考えさせるという点です。これを利用すると、いわゆる LLM Agent が実装できます。 集めるべき情報の種類や処理の手順があらかじめ決まっている場合は、LLM によるテキスト生成を組み込んだデータ処理パイプラインを実装する方が安定的に動作する(期待する結果が確実に得られる)はずですが、特定の手順を前提としない柔軟な処理を実現する際は LLM Agent が向いて

                                                Gemini API の Function Calling 機能で LLM Agent を実装する
                                              • STORES でのGitHub Copilot Enterprise活用方法 - STORES Product Blog

                                                2024年4月18日に『GitHub Copilot Enterprise 使ってますか? STORES での活用風景』を開催しました。イベントでお話した内容を文字起こし形式で紹介します。 hey.connpass.com Copilot Enterpriseを導入した経緯 hogelog:簡単に自己紹介させていただきます。hogelogです。技術基盤グループでエンジニアマネージャーをしています。よろしくお願いします。 waniji:佐々木と申します、ハンドルネームはwanijiです。開発A本部サービスGTMグループ所属、STORES 予約 のエンジニアをやっています、よろしくお願いします。 phayacell:山下です、ハンドルネームはphayacellです。エンジニアで STORES ネットショップ や STORES レジ のエンジニアをやっています。機能開発がメインです。よろしくお願

                                                  STORES でのGitHub Copilot Enterprise活用方法 - STORES Product Blog
                                                • Metaがコードのコンパイルや最適化を行える商用利用可能な大規模言語モデル「Meta Large Language Model Compiler」をリリース

                                                  Metaがコードをコンパイルしつつ最適化するという大規模言語モデル「Meta Large Language Model Compiler」をリリースしました。モデルは商用利用可能で、Hugging Faceにてホストされています。 Meta Large Language Model Compiler: Foundation Models of Compiler Optimization | Research - AI at Meta https://ai.meta.com/research/publications/meta-large-language-model-compiler-foundation-models-of-compiler-optimization/ Today we’re announcing Meta LLM Compiler, a family of models

                                                    Metaがコードのコンパイルや最適化を行える商用利用可能な大規模言語モデル「Meta Large Language Model Compiler」をリリース
                                                  • 生成AIでシステム構築を50%効率化、2030年に向けた日本IBMの勝算

                                                    日本IBMはシステムの企画から開発、運用まで、システムインテグレーション(SI)全体で生成AI(人工知能)を活用する取り組みを始めた。「IT変革のためのAIソリューション」と銘打ち、システム構築における人手不足や有識者依存からの脱却を急ぐ。今回は取り組みの概要や、2030年までのロードマップを見よう。 「エンジニア人材の不足や高齢化が深刻になっており、IT業務運営体制を見直す時期に来ている」。日本IBMの二上哲也執行役員IBMフェローコンサルティング事業本部最高技術責任者(CTO)は、サービス開始の背景をこう語る。 IT変革のためのAIソリューションを2024年3月7日に提供開始した。「AI戦略策定とガバナンス」「コード生成」「テスト自動化」「IT運用高度化」「プロジェクト管理」の5つの領域において、生成AIを使ったサービスを組み合わせて提供する。生成AIサービス「IBM watsonx」

                                                      生成AIでシステム構築を50%効率化、2030年に向けた日本IBMの勝算
                                                    • Collaborate with Claude on Projects

                                                      Our vision for Claude has always been to create AI systems that work alongside people and meaningfully enhance their workflows. As a step in this direction, Claude.ai Pro and Team users can now organize their chats into Projects, bringing together curated sets of knowledge and chat activity in one place—with the ability to make their best chats with Claude viewable by teammates. With this new func

                                                        Collaborate with Claude on Projects
                                                      • マルチアクター型LLMで要件深堀りの自動化を実現!GigComet 最新アップデートのご紹介 | TC3株式会社|GIG INNOVATED.

                                                        はじめに こんにちは!TC3 AIチームの梅本です。 この度GigCometのversion 0.2を公開しました! 今回のアップデートではアイデアをより具体的に扱うことが出来る機能を中心に実装しています。 3月中旬に公開いたしましたGigCometですが、たくさんの方にご利用いただきフィードバックも多くいております。みなさまの開発における生産性向上を目指して、これからもアップデートを続けていくのでよろしくお願いします!(忌憚ないフィードバックもお待ちしております!) リリースノート マルチアクター型LLMによる要件深堀り機能:AI同士がディスカッションをおこない、アイデアを任意のストーリーでブラッシュアップさせる機能 AIタスク分析機能のアップグレード:より正確な価格見積り、分析の高速化を実現 個別タスクの具体化:作成された個々のタスクをより具体化することができます おすすめTopcod

                                                          マルチアクター型LLMで要件深堀りの自動化を実現!GigComet 最新アップデートのご紹介 | TC3株式会社|GIG INNOVATED.
                                                        • BitTransformer界隈に激震!ついに使える乗算フリーLLMが登場!?|shi3z

                                                          今年の3月ごろに話題になって、それから僕も実験してみたけどさっぱり学習できないBitTransformerに変わり、新たにMutmulFreeTransformerというものが出てきたようだと、NOGUCHI, Shojiさんが教えてくれたので試してみた LLM 1Bパラメータで行列計算を完全に排除できた(らしい)。メモリ消費量を学習時10倍、推論時61%Max削減(らしい)。https://t.co/tB3x1kmo4Fhttps://t.co/pb0YgAKSpw HFにモデルがアップロードされているので試してみよう。 学習は8x H100で370M:5h、1.3B: 84h、2.7B: 173hらしく1x 4090は厳しい — NOGUCHI, Shoji (@noguchis) June 26, 2024 ただ、2.7Bモデルが量子化なしで4090で推論できてるとしたらそれだけです

                                                            BitTransformer界隈に激震!ついに使える乗算フリーLLMが登場!?|shi3z
                                                          • Llama-3-Swallow: 日本語に強い継続事前学習モデル

                                                            はじめに 東京工業大学の藤井です。 本日(2024/07/01) Meta-Llama-3-8BとMeta-Llama-3-70Bから日本語を中心としたコーパスで継続事前学習を行ったLlama-3-Swallow-8B-v0.1、Llama-3-Swallow-70B-v0.1とそのinstructモデルであるLlama-3-Swallow-8B-instruct-v0.1、Llama-3-Swallow-70B-instruct-v0.1をリリースさせていただきました。 このモデルはMeta社のライセンスを踏襲しており、商用利用が可能です。 本モデルの開発は、産総研、東京工業大学 岡崎研究室、横田研究室の合同プロジェクトにて行われました。 公式プロジェクトページはこちらです。 Swallow Projectでは、Llama-2、Mistral、Mixtralなど様々なモデルから継続事前学

                                                              Llama-3-Swallow: 日本語に強い継続事前学習モデル
                                                            • OSSのAIインフラ「Ollama」にリモートコード実行の脆弱性 急ぎアップデートを

                                                              米国のセキュリティ企業Wizは2024年6月24日(現地時間)、オープンソースソフトウェア(OSS)のAIインフラストラクチャプラットフォームである「Ollama」に重大な脆弱(ぜいじゃく)性があることを伝えた。 GitHub人気プロジェクト「Ollama」に重大な脆弱性が発覚 Ollamaは「GitHub」や「Docker Hub」で人気があるOSSのAIインフラストラクチャプラットフォームだ。AIモデルのパッケージ化と展開を簡素化するために設計されている。 この脆弱性はCVE-2024-37032として特定されており「Probllama」と呼ばれている。これが悪用されると任意のファイルが上書きされ、最終的にリモートコード実行(RCE)が可能になるとされている。問題が修正されたバージョンが既に公開されておりアップデートすることが求められる。 同脆弱性の影響を受けるバージョンは以下の通りだ

                                                                OSSのAIインフラ「Ollama」にリモートコード実行の脆弱性 急ぎアップデートを
                                                              • Llama 3 Swallow – Swallow LLM

                                                                Llama 3 Swallow Llama 3 SwallowシリーズはMeta Llama 3の日本語能力を強化した大規模言語モデル (8B, 70B) です。すべてのモデルのパラメータ(重み)がHuggingFace上で公開されていますので、Meta Llama 3 Licenseに従う限り、研究や商業目的などで利用できます。 View on HuggingFace Llama 3 Swallowは東京工業大学情報理工学院の岡崎研究室と横田研究室、国立研究開発法人産業技術総合研究所の研究チームで開発された大規模言語モデルです。オープンな大規模言語モデルの中で高い性能を示すMeta Llama 3 8Bと70Bに対して、研究チームはSwallowコーパスで継続事前学習を行い、日本語能力をさらに引き上げました。研究チームで実施した性能評価では、オープンな大規模言語モデルの中で、日本語や英語

                                                                  Llama 3 Swallow – Swallow LLM
                                                                • COBOLのピュアJava変換に生成AIを活用、日本IBMがwatsonxで実現

                                                                  日本IBMは「IT変革のためのAIソリューション」として、システム構築プロセス全体における生成AI(人工知能)の活用を進めている。今回は、コード生成およびテスト自動化における生成AIの活用方法について見ていく。 生成AIによるコード生成は、特に既存システムのモダナイゼーションで威力を発揮する。代表的なのが基幹システムなどにおけるCOBOLプログラムのJavaへの変換だ。日本IBMの二上哲也執行役員IBMフェローコンサルティング事業本部最高技術責任者(CTO)は、「COBOLで記述された既存のソースコードを生成AIで仕様書に書き起こす案件を現在多く請け負っている」と話す。長年のノウハウの蓄積により、「ソースコードはあるが仕様が分からない」といった状況を生成AIにより短時間で解決できる可能性が出てきた。 日本IBMの谷松清孝コンサルティング事業本部ハイブリッド・クラウド・サービスアソシエイト・

                                                                    COBOLのピュアJava変換に生成AIを活用、日本IBMがwatsonxで実現
                                                                  • Meta Large Language Model Compiler: Foundation Models of Compiler Optimization | Research - AI at Meta

                                                                    Meta Large Language Model Compiler: Foundation Models of Compiler Optimization 概要Large Language Models (LLMs) have demonstrated remarkable capabilities across a variety of software engineering and coding tasks. However, their application in the domain of code and compiler optimization remains underexplored. Training LLMs is resource-intensive, requiring substantial GPU hours and extensive data col

                                                                    • 生成AIが変えていくビジネスと世界【前編】 - TIS Business Innovation コラム

                                                                      現在、生成AIの技術が世界中で大きく注目されています。例えばChatGPTのようなテキスト生成AIは、その豊富な情報量によってさまざまな領域のアナリストの役割をこなすだけでなく、これまで行われていたコンピュータによる自然言語処理のタスクの大部分をかなりのスピードで置き換えています。また、Stable Diffusionをはじめとする画像生成AIは、ほとんどプロ並みのクオリティのイラスト画像を数行のテキスト指示で生成できるようになっています。しかし生成AIが与えるインパクトは単なる技術的な側面だけでなく、経済や社会課題へ与える影響も無視できません。さまざまな生成AIのビジネス活用を紹介しつつ、その技術が世界をどう変えていくかを考察してみたいと思います。 生成AIとは 生成AIとは、文章による指示をインプットすることで、その指示に従った新たな文章や画像などのコンテンツを生成することができるAI

                                                                      • VS Code Conference Japan 2024 #vscodejp より、感想「GitHub Copilot活用、現場の声(経験者)パネルディスカッション!」 - nikkie-ftnextの日記

                                                                        はじめに サリーちゃん😭 nikkieです。 VS Code Conference Japan 2024に参加しました1。 GitHub Copilotについてのパネルディスカッションを聞いて、「Copilotを使っていかなきゃ!」と思い立ち、一本書きます。 目次 はじめに 目次 GitHub Copilot活用、現場の声(経験者)パネルディスカッション! 内容紹介 アーカイブ情報 挙がった資料を確認 サイバーエージェントのGitHub Copilot導入と 開発生産性 GitHub Copilotでできること一挙ご紹介 次に読みたい「GitHub Copilot Patterns & Exercises」 終わりに P.S. ことみん先生のお言葉 GitHub Copilot活用、現場の声(経験者)パネルディスカッション! 内容紹介 VS Code Conference Japan 2

                                                                          VS Code Conference Japan 2024 #vscodejp より、感想「GitHub Copilot活用、現場の声(経験者)パネルディスカッション!」 - nikkie-ftnextの日記
                                                                        1