並び順

ブックマーク数

期間指定

  • から
  • まで

521 - 560 件 / 3497件

新着順 人気順

自然言語の検索結果521 - 560 件 / 3497件

  • 「GitHub Copilotのおかげで“とりあえず書き切る”ができるようになった」 開発プロジェクトへの活用で感じたメリット

    登壇者の自己紹介 服部佑樹氏(以下、服部):準備ができたようなので、続いてパネルディスカッションを進めていきたいと思います。 ファシリテーターを務めるのは、GitHubの服部です。よろしくお願いします。では、左から自己紹介をしていただいてよいでしょうか? 黒瀧悠太氏(以下、黒瀧):よろしくお願いします。GMOペパボ株式会社の黒瀧と言います。GMOペパボでちょうど10年ぐらい働いて、今は11年目になります。2012年に入社していろいろなWebサービスを開発したあとに、「SUZURI」というオリジナルグッズを作成するサービスの技術の責任者をしています。 最近、GMOインターネットグループの中で技術的な新しい取り組みや、先進的な活動をしていることを認められて、今はデベロッパーエキスパートもやっています。 業務はWebシステムがメインですが、趣味ではIoTデバイスやハードウェアを作ったり、いろいろ

      「GitHub Copilotのおかげで“とりあえず書き切る”ができるようになった」 開発プロジェクトへの活用で感じたメリット
    • AI対話ソフト「ChatGPT」拡大 “誤り気付きにくい”指摘も | NHK

      質問を入力するだけですぐに自然で説得力のある回答が返ってくる、AIとの対話ソフト「ChatGPT」の利用が個人や企業のあいだで急拡大しています。 一方で、あまりに人間らしい回答であるため、誤りに気付きにくいといった課題を指摘する声もあがっています。 この対話ソフトはアメリカのベンチャー企業「オープンAI」が開発したもので、去年11月に無料公開が始まりました。 ロイター通信によりますと、公開から2か月ほどで月に1回以上サービスを利用した人が1億人に達したということです。 大量のデータをAIが学習していて、質問を入力すると人間が作成するような自然で説得力がある文章を作成することができるのが特徴です。 例えば、世界で1番おいしい朝食は何かと尋ねると、地域や文化、個人の好みの影響を受けるため答えは1つではないと回答します。 また、企業では大量の顧客データを学習し、ネット通販の商品の提案や返品手続き

        AI対話ソフト「ChatGPT」拡大 “誤り気付きにくい”指摘も | NHK
      • 会話型AIが成長すると突然「新しい能力」を獲得すると判明! - ナゾロジー

        「新しい能力に突然目覚める」のは物語の主人公だけではないようです。 Googleの研究部門(Google Research)とスタンフォード大学(Stanford University)などで行われた研究によって、会話型AIを成長させていくと、会話以外の新能力を訓練なしに突然、獲得することが示されました。 chatGPTのような会話型AIは本来、人間と会話するために作られましたが、ここ数年の研究によって、会話機能以外の意図しなかった能力が存在することがわかってきました。 研究者たちはこのようなAIの大規模化による新規能力獲得を「創発」と定義しており、小規模AIを積み上げるだけでは起こらない現象だと述べています。 ただ現在、どのくらいのAIの規模で、どんな新規能力が現れるかは、発見されるまで知ることができず、それぞれの能力値に上限が存在するのかさえ不明となっています。 もしかしたら将来的に、

          会話型AIが成長すると突然「新しい能力」を獲得すると判明! - ナゾロジー
        • 生成AIでGPUがいらなくなる? 業界を揺るがす「1ビットLLM」とは何か、識者に聞いた

          ではそもそも“1bit”とは何が1bitなのか、どうして1bitになるとGPUが不要になるのか。LLMでGPUが不要になるとどんな世界が訪れるのか。オーダーメイドによるAIソリューション「カスタムAI」の開発・提供を行うLaboro.AIの椎橋徹夫CEOに聞いた。 プロフィール:椎橋徹夫 米国州立テキサス大学理学部卒業後、ボストンコンサルティンググループに参画。消費財や流通など多数のプロジェクトに参画した後、社内のデジタル部門の立ち上げに従事。その後、東大発AI系のスタートアップ企業に創業4人目のメンバーとして参画。AI事業部の立ち上げをリード。東京大学工学系研究科松尾豊研究室にて「産学連携の取り組み」「データサイエンス領域の教育」「企業連携の仕組みづくり」に従事。同時に東大発AIスタートアップの創業に参画。2016年にLaboro.AIを創業し、代表取締役CEOに就任。 ──まず、1bi

            生成AIでGPUがいらなくなる? 業界を揺るがす「1ビットLLM」とは何か、識者に聞いた
          • 【Amazon Bedrock】AWSサービスのみを使ったシンプル構成のRAGアプリを作ってみた - NRIネットコムBlog

            はじめに RAGとは 構成図 作成リソース Lambda 1. PDFから文書抽出&Embedding取得Lambda 2. 回答作成用Lambda AWS SAM テンプレート Streamlit 動作確認 まとめ はじめに こんにちは堤です。 Amazon BedrockがGAとなり、AWS内で完結してLLMアプリケーションを構築できるようになりました。 試しにRAGアプリケーションを作成してみようと思いましたが、現状AWSでRetrievalするデータソースを作成しようとすると、Amazon OpenSearch Serverless やAmazon Kendraを使用するしかありません。これらのサービスを使うのはコストもそれなりにかかり少しハードルが高いなーと思っていたら以下のブログを見つけました。 aws.amazon.com 構成図を見ると分かるように、S3にembedding

              【Amazon Bedrock】AWSサービスのみを使ったシンプル構成のRAGアプリを作ってみた - NRIネットコムBlog
            • 大規模言語モデル活用総まとめ with Azure OpenAI

              3/24にアップした資料が含まれますが、 ベーシックなとこから全部入りにした資料です。 ・今までのAIとGPT ・GPT関連ニュースリリース ・OpenAIとMicrosoftの関係 ・Azure OpenAI Serviceの位置づけ ・ChatGPTなど言語生成モデルの挙動イメージ ・プロンプト(入力)を基点に生まれたML学習の新しいパラダイム ・Prompt Processing ・Few-shot Learning ・Chain of Thought ・ReAct ・Prompt EngineeringとFine tuningの位置づけイメージ ・プロンプトインジェクションについて ・その他の開発観点

                大規模言語モデル活用総まとめ with Azure OpenAI
              • 自然な日本語ダミーテキストを生成するWebアプリを作りました

                こんな感じの文章を自動生成できます。 二人の男女を一様に観察していました。私は仕方なしに立って、再び封の中へ、自分の左右前後を見廻して母の頭は陛下の病と父の病と父の病とを結び付けて考えるのが変に気味が悪かったのです。固よりそこにはまるで解りませんけれど、おそらくそんな意味じゃないでしょう。私の考えは行き詰まればいつでも両方が同時に奥さんのいる事をとうから自覚していました。先生の附近で盗難に罹ったものが、僻んだ私の眼を擦りました。それでも鷹揚に育った私は、もっと海の中で遊んでいられるか、宅へ帰って食卓に向った時、両親の死に断えた私の卒業する前に、また一種の弛みができても、決して強い言葉で説明しました。 モチベーション 同じようなツール・サービスはいくつも公開されていますが、ほとんどが以下の 3 つの方式を採用しており、個人的にはあまり満足できていませんでした。 短い定型文の繰り返し: 一種の

                  自然な日本語ダミーテキストを生成するWebアプリを作りました
                • OpenAI API ドキュメント 日本語訳|#2 GET STARTED 後編|ゑぐみかるちゃあ

                  OpenAI API ドキュメントの日本語訳をこちらでまとめます。文字量の多いドキュメントなので、セクションごとに記事を分割しています。 今回は「GET STARTED 」のセクションからLibraries 、Models、TutorialsそしてUsage policiesを抜粋した後編です。 基本 DeepLで翻訳して、気になるところだけ書き換えています(ほぼ気になるところがないのが、DeepLのすごいところ)。原文との突き合わせができるようにはじめに原文を入れてますので、間違いなど見つけられましたら、ぜひご指摘ください。ご指摘箇所は随時反映させていただきます。 原文のリンクが有効になってますので、それぞれ必要な場合は原文リンクの方を参照ください。 前回のおさらいはこちら Python library|Python ライブラリWe provide a Python library, w

                    OpenAI API ドキュメント 日本語訳|#2 GET STARTED 後編|ゑぐみかるちゃあ
                  • 自動プロンプト最適化をやってみた - Algomatic Tech Blog

                    はじめまして!データサイエンティストの山内(@jof_5)です。 本記事では、日々、プロンプト開発されている皆様に向けて、プロンプトを効率的に開発する手法の一つである「自動プロンプト最適化」について記載いたします。 1. プロンプトエンジニアリングの必要性と課題 2. 自動プロンプト最適化について 2-0. 最適なプロンプトとは何か?☕ 2-1. 自動プロンプトの概要 2-2. 自動プロンプト最適化のアーキテクチャ ①Task Executor: LLMによるタスクの実行 ②Output Evaluator: 出力の評価 ③ Prompt Improver: 最適なプロンプトの生成 3. 実験結果と考察 3-1. 自動プロンプト最適化の有効性の検証 3-2. 最適化プロンプトの生成過程 3-3. 最適化されたプロンプトの特徴 3-4. プロンプト生成用LLM(Prompt Improver

                      自動プロンプト最適化をやってみた - Algomatic Tech Blog
                    • PyTorchチュートリアル(日本語訳版)

                      [1] 本サイトでは、「PyTorch 公式チュートリアル(英語版 version 1.8.0)」を日本語に翻訳してお届けします。 [2] 公式チュートリアルは、①解説ページ、②解説ページと同じ内容のGoogle Colaboratoryファイル、の2つから構成されています。 両者は基本的には同じ内容です。本サイトでは 「Google Colaboratoryファイル」で、チュートリアルの日本語訳を用意しております(未完成分は順次公開いたします)。 [3] 本サイトのチュートリアルの閲覧および実行は、Google Colaboratory環境を前提とします。 (本サイトのライセンスはこちらとなります) [4] 本サイトに掲載している、日本語チュートリアルをまとめて配置したGitHubはこちらとなります。 [0] 目次(table of contents) 日本語解説へ [1] テンソル(T

                        PyTorchチュートリアル(日本語訳版)
                      • LLM Visualization

                        A 3D animated visualization of an LLM with a walkthrough.

                        • 大規模言語モデル (LLM) の進化: GPT 以降の最新動向 / AWS Dev Day 2023 - Evolution of LLM since GPT

                          このセッションでは、最新の大規模言語モデル (LLM) とその技術的進歩を紹介し、自然言語処理タスクやクリエイティブなテキスト生成、コード生成などの実践的なデモンストレーションを通じて、LLM の多様な応用例を探ります。また、スタートアップや大企業での活用事例や学術研究での成果を紹介し、LLM の未来に関するチャレンジや機会についても議論します。このセッションを通じて、開発者やアーキテクトは LLM の最新動向を理解し、その応用や技術的な発展に対する洞察を深めることができます。 https://aws.amazon.com/jp/events/devday/japan/

                            大規模言語モデル (LLM) の進化: GPT 以降の最新動向 / AWS Dev Day 2023 - Evolution of LLM since GPT
                          • 公開されている日本の企業名辞書の紹介 - MNTSQ Techブログ

                            特許・契約書・有価証券報告書・企業関連ニュースなど、実応用上の自然言語処理では、会社名を認識したいという場面に非常に多く出くわす。 会社名らしい文字列をテキストから抽出することは、形態素解析器の辞書を用いたり固有表現抽出モデルを学習することである程度実現される一方で、抽出した会社名をレコード化して分析などに用いる際には、いわゆる名寄せの問題が発生する。 自然言語処理における名寄せに似た問題は、エンティティリンキングや共参照解析といったアプローチで探求されており、実応用上は前者のアプローチが採られることが多い印象がある。*1 名寄せタスクをエンティティリンキング的に解くためには、帰着先の知識ベース・辞書が予め存在していることが必要だが、研究の文脈では知識ベースとしてWikipediaが採用されることが多い。 Wikipediaを用いる利点は多くあり、様々なエンティティ種に対してそこそこのカバ

                              公開されている日本の企業名辞書の紹介 - MNTSQ Techブログ
                            • LangChain クイックスタートガイド - Python版|npaka

                              Python版の「LangChain」のクイックスタートガイドをまとめました。 ・LangChain v0.0.329 (2023/11/3) 1. LangChain「LangChain」は、「大規模言語モデル」 (LLM : Large language models) と連携するアプリの開発を支援するライブラリです。 「LLM」という革新的テクノロジーによって、開発者は今まで不可能だったことが可能になりました。しかし、「LLM」を単独で使用するだけでは、真に強力なアプリケーションを作成するのに不十分です。真の力は、それを他の 計算 や 知識 と組み合わせた時にもたらされます。「LangChain」は、そのようなアプリケーションの開発をサポートします。 主な用途は、次の3つになります。 ・文書に関する質問応答 ・チャットボット ・エージェント 2. LangChain のモジュール「L

                                LangChain クイックスタートガイド - Python版|npaka
                              • 手元で動く軽量の大規模言語モデルを日本語でファインチューニングしてみました(Alpaca-LoRA)|masa_kazama

                                イントロ最近、ChatGPTやGPT-4などの大規模言語モデル(LLM)が急速に注目を集めています。要約タスクや質疑応答タスクなど様々なタスクで高い性能を発揮しています。これらのモデルはビジネス分野での応用が非常に期待されており、GoogleやMicrosoftが自社サービスとの連携を進めているという報道も相次いでいます。 今回は、手元で動作する軽量な大規模言語モデル「Alpaca-LoRA」を日本語にファインチューニングしてみました。この記事では、そのファインチューニングのプロセスや応用例について簡単に解説していきます。ChatGPTやGPT-4は、モデルがブラックボックスでありAPI経由でしか入力を与えて出力を得ることができません。さらに、現時点(2023年3月20日)では、独自のデータを用いてファインチューニングを行うこともできません。 しかし、Alpaca-LoRAというモデルを用

                                  手元で動く軽量の大規模言語モデルを日本語でファインチューニングしてみました(Alpaca-LoRA)|masa_kazama
                                • 「ChatGPT」わからん勢に朗報! OpenAIの「Prompt examples」ページが有用/自動翻訳でもちゃんと機能するので英語がわからなくても大丈夫【やじうまの杜】

                                    「ChatGPT」わからん勢に朗報! OpenAIの「Prompt examples」ページが有用/自動翻訳でもちゃんと機能するので英語がわからなくても大丈夫【やじうまの杜】
                                  • Azure Open AI「Add your data」のシンプル設定方法、試した結果の比較と「4つの所感 & 解決案?」 - Qiita

                                    Azure Open AI「Add your data」のシンプル設定方法、試した結果の比較と「4つの所感 & 解決案?」AzureCognitiveServicesgpt-3AzureOpenAIServiceonyourdata Azure Open AIの新機能「Add your data」の使用方法の概説、試してみた結果、そして私なり感じた4つの所感とその解決策?を紹介いたします。 ※本領域は変化が激しいです。この内容は23年6月24日時点の情報となります 【記事の目次】 23年Buildでのデータサイエンス・AI系のアップデータについて Azure Open AI「Add your data」のシンプル設定方法 Azure Open AI「Add your data」を使用した結果と、ChatGPT、 Bing AIチャットの比較 私の4つの所感と解決案? 4.1 引用元の引用部

                                      Azure Open AI「Add your data」のシンプル設定方法、試した結果の比較と「4つの所感 & 解決案?」 - Qiita
                                    • 【速報】OpenAI APIでGPT-3.5-turboがfine-tuningできるようになりました!! | DevelopersIO

                                      ただし、GPT-4と比較すると安価にはなっていますので、性能比較をしながら良い塩梅を探すとコスト的にメリットがある可能性があります。 また学習のコストですが、以下のように学習データ全体のトークン数 x エポック数という形で費用が掛かるので注意が必要です。 (エポック数は後述するようにパラメータとして指定可能です) For example, a gpt-3.5-turbo fine-tuning job with a training file of 100,000 tokens that is trained for 3 epochs would have an expected cost of $2.40. 公式ページは以下となりますので、併せてご確認ください。 レート制限 fine-tuningのレート制限については、以下に記載があります。 fine-tuningについては以下のように

                                        【速報】OpenAI APIでGPT-3.5-turboがfine-tuningできるようになりました!! | DevelopersIO
                                      • GPT-4, GPT-3.5 の API を利用して JSON だけ生成する (Function calling)

                                        先日 OpenAI API のアップデートが以下のように発表されました。 一番の注目は Function calling じゃないでしょうか? 名前から「関数を呼び出せるのかな?」と一番最初に想像しちゃいますが、この機能の革新的な部分は「JSON を作成してくれる」ところだと思っています。 JSON を作れると嬉しいことがいっぱいありますね! ダミーデータの作成 生成した JSON をそのままレスポンスとして返すエンドポイントの作成 テストとしても良い 関数や外部 API の呼び出し 今までは難しかった JSON の作成 今まで、JSON を作成してもらうにあたって gpt-3.5-turbo を用いて JSON を作成させようとするとほぼ失敗していました。それで gpt-4 のモデルを利用して JSON を作成させますが、このモデルはほとんど正確になる一方で処理速度がかなり遅くなる点がネ

                                          GPT-4, GPT-3.5 の API を利用して JSON だけ生成する (Function calling)
                                        • Open Interpreter - Qiita

                                          text = """ SeabornのTitanicデータセットを使いLightGBM,XGBoost,CatBoostおよび3つのモデルのアンサンブルした場合で どれが最も精度が良いか検証してください.検証する際は4foldのクロスバリデーションの結果の平均値としてください. 全て日本語で対応してください. """ # return_massagesは出力結果のデータを変数として保持するため引数 # 出力結果はmassagesにも保存される messages = interpreter.chat(text, return_messages=True) 了解しました。以下の手順で進めていきます。 1 必要なライブラリをインストールします。これには、seaborn(データセットの取得)、pandas(データの操作)、numpy cikit-learn(クロスバリデーションと精度評価)、lig

                                            Open Interpreter - Qiita
                                          • ChatGPT の概説 - Software Engineer じゃない方向け -

                                            ChatGPT をさらっと知りたい Software Engineer 以外の方向けのプレゼン資料です。 社会実装や企業・組織での実装、特に個人の生産性の向上の何に寄与できそうなのか? です😊 プレゼンの時間では Prompt のデモに半分くらいの時間をもらいたいものです。 この資料には、Prompt の例がスライドには無いです。こちらの例からご自分で試してみてください。 https://github.com/dahatake/ChatGPT-Prompt-Sample-Japanese

                                              ChatGPT の概説 - Software Engineer じゃない方向け -
                                            • 最近の話題にも詳しい14億パラメータの日本語LLMの公開

                                              Research部門の近江崇宏です。 今回、ストックマークは最近の話題にも詳しいGPT-NeoXをベースとした14億パラメータの日本語のLLM(大規模言語モデル)をオープンソースとして公開します。モデルはHugging Face Hubからダウンロードいただけます。 https://huggingface.co/stockmark/gpt-neox-japanese-1.4b 当社はビジネスにおける情報収集・分析をサポートするサービスを運営しており、そのために最新のWebデータの収集を日々行なっております。今回の事前学習では、一般にLLMの事前学習によく使われるCommon Crawl由来のデータだけでなく、当社が所有している独自のWebデータ(2023年6月まで)も含めて事前学習を行うことで、最近の話題にも詳しいモデルを開発しました。具体的には、事前学習に用いたデータセットはCC100の

                                                最近の話題にも詳しい14億パラメータの日本語LLMの公開
                                              • 黙字のひみつ|kgmt | かげもと

                                                The Secret of Silent Letters - cover The Secret of Silent Letters - page 01 The Secret of Silent Letters - page 02 The Secret of Silent Letters - page 03 The Secret of Silent Letters - page 04 The Secret of Silent Letters - page 05 The Secret of Silent Letters - page 06 The Secret of Silent Letters - page 07 The Secret of Silent Letters - page 08 The Secret of Silent Letters - page 09 The Secret o

                                                  黙字のひみつ|kgmt | かげもと
                                                • ベクトルデータベースとは何かを解説、生成AIで「必須の存在」はどんな役割を担うのか

                                                  生成AIの可能性を広げる「ベクトルデータベース」への関心が急速に高まっている。ベクトルデータベースとは、生成AIが扱う非構造化データの格納・管理・照会で利用されるデータベースのこと。ここではベクトルデータベースの基本をわかりやすく解説するとともに、生成AIの普及において、どのような役割を果たすのか、注目される理由などと合わせて紹介しよう。 バークリー音大提携校で2年間ジャズ/音楽理論を学ぶ。その後、通訳・翻訳者を経て24歳で大学入学。学部では国際関係、修士では英大学院で経済・政治・哲学を専攻。国内コンサルティング会社、シンガポールの日系通信社を経てLivit参画。興味分野は、メディアテクノロジーの進化と社会変化。2014〜15年頃テックメディアの立ち上げにあたり、ドローンの可能性を模索。ドローンレース・ドバイ世界大会に選手として出場。現在、音楽制作ソフト、3Dソフト、ゲームエンジンを活用し

                                                    ベクトルデータベースとは何かを解説、生成AIで「必須の存在」はどんな役割を担うのか
                                                  • Open Interpreter - 自然言語でコーディングを実現するオープンソースツール|masia02 (CipherWeb,LLC.)

                                                    Open Interpreterは、自然言語でプログラミングができるようになる、興味深いオープンソースツールです。機能呼び出し型の大規模言語モデルを利用して、Python、JavaScript、Bashなどのコードをローカルで実行できるのが大きな特徴です。インストールと利用は簡単で、コーディング作業の効率化を図れそうなツールです。 Open InterpreterとはOpen Interpreterは、GPT-3.5やGPT-4またはCode Llamaなどの大規模言語モデルを利用して、自然言語でのコード実行を可能にするオープンソースのツールです。 コマンドラインインターフェース上で言語モデルと対話することで、PythonやJavaScriptなどのコードをローカルマシン上で実行できます。複雑なロジックのコーディングもステップごとに指示できるので、開発効率の大幅な向上が期待できます。 公式

                                                      Open Interpreter - 自然言語でコーディングを実現するオープンソースツール|masia02 (CipherWeb,LLC.)
                                                    • 日本語OCRはなぜ難しい? NAVERのエンジニアが語る、テキスト検出における課題と解決策

                                                      2019年11月20、21日の2日間、LINE株式会社が主催するエンジニア向け技術カンファレンス「LINE DEVELOPER DAY 2019」が開催されました。1日目は「Engineering」をテーマに、LINEの技術の深堀りを、2日目は「Production」をテーマに、Web開発技術やUI/UX、プロジェクトマネジメントなど、より実践的な内容についてたくさんのプレゼンテーションが行われました。「NAVER ClovaのOCR(光学的文字認識) 」に登壇したのはNAVER OCR Team AI ResearcherのHwalsuk Lee氏。深層学習を用いたOCR技術の仕組みについて語りました。講演資料はこちら LINEのOCR技術の仕組み Hwalsuk Lee氏:みなさま、こんにちは。Hwalsuk Leeと申します。NAVER Clova OCR Teamから参りました。今

                                                        日本語OCRはなぜ難しい? NAVERのエンジニアが語る、テキスト検出における課題と解決策
                                                      • ChatGPT 人間のフィードバックから強化学習した対話AI

                                                        東京大学の研究室内で,今井がChatGPTの知見を共有するために使用したスライド資料です. 特に以下のような話題,技術について解説しています. ・ChatGPTの凄さ ・ChatGPTの技術 ・言語モデル ・プロンプト ・GPTとは ・InstructGPT ・言語モデルと強化学習Read less

                                                          ChatGPT 人間のフィードバックから強化学習した対話AI
                                                        • 自然言語処理の王様「BERT」の論文を徹底解説 - Qiita

                                                          オミータです。ツイッターで人工知能のことや他媒体で書いている記事など を紹介していますので、人工知能のことをもっと知りたい方などは気軽に@omiita_atiimoをフォローしてください! 2018年10月に登場して、自然言語処理でもとうとう人間を超える精度を叩き出した ことで大きな話題となったBERT。それ以降、XLNetやALBERT、DistillBERTなどBERTをベースにしたモデルが次々と登場してはSoTAを更新し続けています。その結果、GLUEベンチマークでは人間の能力が12位(2020年5月4日時点)に位置しています。BERTは登場してまだ1年半程度であるにもかかわらず、被引用数は2020年5月4日現在で4809 にも及びます。驚異的です。この記事ではそんなBERTの論文を徹底的に解説していきたいと思います。BERTの理解にはTransformer[Vaswani, A.

                                                            自然言語処理の王様「BERT」の論文を徹底解説 - Qiita
                                                          • DeepLの“珍誤訳”が話題に 「I'm sorry」の日本語訳は?→「アイム・ソーリー・ヒゲソーリー」

                                                            DeepLの“珍誤訳”が話題に 「I'm sorry」の日本語訳は?→「アイム・ソーリー・ヒゲソーリー」 ゲーム「ACE COMBAT ZERO THE BELKAN WAR」に出てくるあるせりふを翻訳すると、なぜか5ちゃんねる(旧2ちゃんねる)の「なんでも実況J(ジュピター)」発祥のキャラクター「やきう民」のアスキーアート「彡(^)(^)」が登場することが話題になった翻訳サービス「DeepL翻訳」。同サービスで新たな“珍誤訳”が見つかり、Twitterで話題を集めている。 (関連記事:DeepLの翻訳結果に突如現れた顔文字「彡(^)(^)」が話題) soy乳(@soynyuu)さんはDeepLで「I'm sorry」を日本語訳に変換した結果をTwitter上に掲載。日本語では「すみません」など謝罪を意味する言葉になるはずだが、DeepLは「アイム・ソーリー・ヒゲソーリー」と訳してしまうと

                                                              DeepLの“珍誤訳”が話題に 「I'm sorry」の日本語訳は?→「アイム・ソーリー・ヒゲソーリー」
                                                            • LangChain で社内チャットボット作ってみた

                                                              こんにちは、クラウドエース SRE ディビジョン所属の茜です。 今回は、現在最も普及している対話型 AI サービスである ChatGPT で使用されているモデルと、LLM を使ったアプリケーション開発に特化したライブラリである LangChain を用いて社内向けのチャットボットを作成します。 ターゲット 任意のデータを元に回答を行うチャットボットを作成したい方 任意のデータを元に回答させる仕組みを知りたい方 ChatGPT とは ChatGPT とは、ユーザーが入力した質問に対して、まるで人間のように自然な対話形式でAIが答えるチャットサービスです。2022 年 11 月に公開されて以来、回答精度の高さが話題となり、利用者が急増しています。 人工知能の研究開発機関「OpenAI」により開発されました。 執筆時点では、GPT-3.5、GPT-4 という大規模言語モデル (LLM) が使用さ

                                                                LangChain で社内チャットボット作ってみた
                                                              • DALL·E 2 を早くも破る!超リアル画像生成モデル Imagen を解説

                                                                  DALL·E 2 を早くも破る!超リアル画像生成モデル Imagen を解説
                                                                • LLMを用いたLLMの自動評価について 〜可能性と注意点〜 - NTT Communications Engineers' Blog

                                                                  こんにちは、イノベーションセンターの杉本(GitHub:kaisugi)です。普段はノーコードAI開発ツール Node-AI の開発に取り組む傍ら、兼務1で大規模言語モデル(LLM:Large Language Model)について調査を行なっています。特に、日本語を中心に学習された LLM への関心があり、awesome-japanese-llm という日本語 LLM をまとめた Web サイトのメンテナンスにも取り組んでいます。 今回は、LLM に LLM の評価そのものを行わせるという新たなアプローチ(LLM-as-a-judge)についてご紹介します。 ChatGPT の登場以降、国内外で LLM の開発競争が進行しており、モデルの重みが公開されたオープンなモデルも続々と現れています。そのような中で、新しいモデルの構築だけでなく、どのモデルが優れているかを比較検討することが今後ます

                                                                    LLMを用いたLLMの自動評価について 〜可能性と注意点〜 - NTT Communications Engineers' Blog
                                                                  • (続)ファッションにおける類似商品検索アルゴリズムの性能評価 - DROBEプロダクト開発ブログ

                                                                    概要 背景・目的 関連研究 提案手法 実験 アルゴリズムの説明 順位相関の確認 定量評価 定量評価の内訳 定性評価 おわりに 参考文献 DROBEで機械学習エンジニアをしております、藤崎です。 概要 ファッションアイテムを特徴づけるための情報として、画像とテキストがある。これらは異なる情報を含んでいると考えられる。 類似のファッションアイテムを検索する場面で、画像とテキストの情報を両方活用することで、検索の精度を向上させることができると推測される。 類似のファッションアイテムを検索するタスクで、両方の情報を活用した提案手法の性能を評価し、片方の情報だけを活用するよりも、大幅に性能が改善することを確認した。 背景・目的 この記事は以下の記事の続編です。 tech.drobe.co.jp 以前の記事で、私たちはプロのスタイリストが作成した評価データセットを用いて、複数のアルゴリズムを類似商品検

                                                                      (続)ファッションにおける類似商品検索アルゴリズムの性能評価 - DROBEプロダクト開発ブログ
                                                                    • 完全自動運転にLLMは必要か?

                                                                      この記事を3行でまとめると.. Turingでは1年以上前から完全自動運転に自然言語処理が必要と考えてきた 自動運転におけるロングテールなデータに対して、LLMの一般常識に基づく判断能力が必要 Chat-GPTをきっかけにLLMを自動運転に利用する研究が盛り上がってきている TuringのBrain Researchチームの棚橋です。Brain Researchチームでは、中長期的に自動運転においてキーとなるコア技術の開発を行っています。最近ではVision LanguageモデルのフレームワークとしてHeronをリリースしました。なぜ自動車を製造する会社が、LLMの開発を行っているのでしょうか。 Turingでは1年以上前から自動運転における複雑な文脈理解には自然言語が必要であると主張してきました。今年の7月にはLLMで実際の車を動かしてみるプロジェクトをデモとして公開しました。このデモ

                                                                        完全自動運転にLLMは必要か?
                                                                      • MeCab互換な形態素解析器Vibratoの高速化技法 - LegalOn Technologies Engineering Blog

                                                                        こんにちは。LegalForce Researchで研究員をしている神田 (@kampersanda) です。 LegalForce Researchでは、MeCab互換の形態素解析器Vibrato(ヴィブラ〰ト)を開発しています。プログラミング言語Rustで実装しており、高速に動作することが主な利点です。Vibratoはオープンソースソフトウェアとして以下のレポジトリで公開しています。 github.com 本記事では、Vibratoの技術仕様を解説します。以下のような方を読者として想定します。 自然言語処理の要素技術に興味のある方 データ構造・アルゴリズムに興味のある方 Rustでの自然言語処理に興味がある方 Vibratoについて 最小コスト法による形態素解析 単語ラティスの構築 最小コスト経路の計算 高速化の取り組み 辞書引きのキャッシュ効率化 実装での注意点 連接コスト参照のキャ

                                                                          MeCab互換な形態素解析器Vibratoの高速化技法 - LegalOn Technologies Engineering Blog
                                                                        • Googleが無料で簡単に使える画像生成AI「Imagen 2」を公開したので使ってみた

                                                                          Googleが高品質な画像を簡単に生成できるAI「Imagen 2」を発表しました。Imagen 2はチャットAI「Bard」やGoogleのAIプラットフォーム「Vertex AI」などで利用可能。すでに日本からも利用可能だったので実際に使ってみました。 New and better ways to create images with Imagen 2 https://blog.google/technology/ai/google-imagen-2/ Imagen 2はすでにBardに組み込まれており、「○○の画像を生成して」という内容のメッセージを送信するだけで画像を生成することができます。Bardには以下のリンクからアクセスできます。 Bard https://bard.google.com/chat Googleにログインした状態でBardにアクセスすると以下のような画面が表示

                                                                            Googleが無料で簡単に使える画像生成AI「Imagen 2」を公開したので使ってみた
                                                                          • Generative Models

                                                                            2024年6月13日に大阪大学大学院 情報科学研究科で行った「情報科学特別講義Ⅰ」の講義資料です。 https://www.ist.osaka-u.ac.jp/japanese/news/newsDetailNews.php?id=308

                                                                              Generative Models
                                                                            • セマンティック検索の活用で、Elasticsearchの検索が根本的に変わる!? - Taste of Tech Topics

                                                                              こんにちは、@shin0higuchiです😊 業務では、Elasticsearchに関するコンサルティングを担当しています。 最近すっかり春らしく、暖かくなってきました。 新年を迎えたばかりの感覚でしたが、あっという間に時が経ちますね。 さて、今回の記事では、Elasticsearchの検索を根本的に変える可能性を秘めたセマンティック検索に関して書かせていただきます。 概要 Elasticsearchは元々、キーワードベースのアプローチを主に取っており、クエリで指定されたキーワードを対象のドキュメント内で検索し、それらの出現頻度や位置に基づいて結果をランク付けしています。この方法では、文脈や意図に関係なく、単純にキーワードの一致度に基づいて検索結果が返されます。 一方、セマンティック検索とは、ユーザーのクエリの背後にある文脈と意図を理解しようとする検索手法で、キーワードだけに頼るのではな

                                                                                セマンティック検索の活用で、Elasticsearchの検索が根本的に変わる!? - Taste of Tech Topics
                                                                              • 日本語の折り返しをJavaScriptで制御する - LIVESENSE ENGINEER BLOG

                                                                                インフラエンジニアの中野(etsxxx)です。今回はWebのフロントの話です。稚拙な部分はご容赦を。 はじめに 前提知識 解決案の候補 解決案1: 手でspanタグをつける 解決案2: サーバーサイドの処理 解決案3: クライアントサイドの処理 クライアントサイドで文節区切り 実装 結果と考察 さいごに はじめに 2020年12月、リブセンスにQ by Livesenseという広報ブログが誕生しました。このブログは明朝体と縦書きと長文にアイデンティティがあります。 Q by Livesenseはこういう見た目のブログです。 Q by Livesenseは縦書きということで、漢数字を使っていたり、写真やイラストを使わずに純粋な文体で記事を書いていたりと、書籍のような日本語らしさが求められるデザインとなっています。 縦書きはWebエンジニアにとっても珍しい実装ですが、読者にとっても慣れないUI

                                                                                  日本語の折り返しをJavaScriptで制御する - LIVESENSE ENGINEER BLOG
                                                                                • ChatGPT APIとCloudflareを使って過去の会話を覚えてるLINEボットを構築する

                                                                                  ChatGPT APIのChat Completion APIを用いて、チャットの入力に対してその回答をレスポンスで返してくれます。 このチャットの入力に過去のチャットの内容を含めることで、過去の内容を前提とした回答を行うことができますが、これを実現するには、過去のチャットの内容を永続化しておく必要があります。 ユーザーインターフェースとしてLINE(LINE Messaging API)、LINEからの処理受付とChatGPTへのリクエスト、チャット内容の永続化をCloudflareを使って、過去の会話を覚えてるLINEボットを実現することができました。 本記事では、Cloudflare側の構成について紹介します。 [ChatGPT API][AWSサーバーレス]ChatGPT APIであなたとの会話・文脈を覚えてくれるLINEボットを作る方法まとめのCloudflare版の内容になりま

                                                                                    ChatGPT APIとCloudflareを使って過去の会話を覚えてるLINEボットを構築する