並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 240 件 / 2960件

新着順 人気順

言語処理の検索結果201 - 240 件 / 2960件

  • 世界で台頭する中国の人型ロボット、大量生産で身近になる未来 | 36Kr Japan | 最大級の中国テック・スタートアップ専門メディア

    7月1日より、これまで36Kr Japanのメディアで提供していた記事のうち、一部スタートアップ企業に関するニュースについては、有料コンテンツサービス「CONNECTO(コネクト)」の会員限定で提供します(初期段階では無料会員も対象とします)。まだ登録されていない方は、ぜひそちらをご利用ください。 未来のロボットと言われると、まず想像するのは二足歩行して対話する人型ロボットかもしれない。これまでホンダのASIMOやボストン・ダイナミクスのPETMANなど様々な企業が人型ロボットをリリースして世を驚かせてきた。ここに中国企業が勢いよく参入し、近い将来には価格破壊を起こし、普及するかもしれない。その兆候が見えてきたので紹介しよう。 中国で人型ロボットといえばまず「UBTECH(優必選科技)」が挙げられる。2月にEVの「NIO」の工場内で同社の人型ロボット「Walker S」が、スムースな動きで

    • 画像を理解するGPT-4 Visionで、既存の画像認識モデルを説明可能にする ~ 新宿の特徴は"ビル群"だが、日本橋の特徴は"密集したビル"? ~ - エムスリーテックブログ

      特化型モデルで識別・ピクセル重要度抽出した後に、GPTで自然言語に変換する 画像認識モデルを作ったら、そのモデル自体から"こういうオブジェクトがあるから私はこう認識したんだよ"と教えてほしくありませんか? 今回作るのは、図のように、写真が東京都中央区で撮られているとわかるのは、"照明と配管"が特徴的で、"箱やパッケージが多い"から市場らしさがあるんだよ、と自分で説明してくれるAIです。 背景ですが、機械学習が、それを本業とする人以外にも幅広く使われるようになってくるのに伴い、モデルの説明可能性も重要視されているように思います。 テーブルデータからの識別問題であれば重要な項目を特徴重要度などから測ることはできなくはない *1ですし、自然言語処理であればどういうトークンが重要だったかというところである程度解釈できるように思います。 それらに比べても、画像処理・信号処理の分野での特徴重要度という

        画像を理解するGPT-4 Visionで、既存の画像認識モデルを説明可能にする ~ 新宿の特徴は"ビル群"だが、日本橋の特徴は"密集したビル"? ~ - エムスリーテックブログ
      • 基本無料・AIチャットアプリ「いちゃいちゃっと」は、『Detroit: Become Human』みたいなゲームを作ろうとする野心家の最初の一手だった。いちゃいちゃがもたらす感情 - AUTOMATON

        EuphoPia株式会社が提供するAIトークアプリ「いちゃいちゃっと」は、独自の学習システムを持ったかわいいAIキャラクターと、交流ができるアプリケーションだ。仮想空間で生を得たキャラクターは、テキストの応答だけでなく、表情や身振り手振りなどの非言語的なコミュニケーションも行いユーザーとの交流を図ってくれる。対応プラットフォームはPC/iOS/Android。VRにも対応している。価格は無料(アプリ内課金あり)だ。 ~便利ツール自動発動アルゴリズム搭載! 可愛いAIキャラクターとお話ししよう!~ モバイル向けAIキャラクターチャットアプリ 「いちゃいちゃっと/ICHAICHAT」 の配信をiOS/Androidで開始いたしました! -ストアページ- iOS: https://t.co/zZJlPR2At7 Android:https://t.co/oJUd10BPm6 pic.twitte

          基本無料・AIチャットアプリ「いちゃいちゃっと」は、『Detroit: Become Human』みたいなゲームを作ろうとする野心家の最初の一手だった。いちゃいちゃがもたらす感情 - AUTOMATON
        • SIF/uSIFを使ってRustで簡単高速文埋め込み - Kampersandaのブログ

          本記事は、情報検索・検索技術 Advent Calendar 2023 9日目の記事です。 SIF/uSIFという文埋め込み手法と、そのRust実装であるsif-embeddingを紹介します。最後にちょこっとベクトル検索もします。 はじめに SIF SIF-weighting Common Component Removal アルゴリズム 使用上の注意 uSIF sif-embedding 準備 単語埋め込みの準備 ユニグラム言語モデルの準備 Let's 文埋め込み 性能評価 速度性能 評価用データセットを使ったベンチマーク 英語 日本語 ベクトル検索 おわりに はじめに 自然言語文の密ベクトル表現を文埋め込みと呼びます。文埋め込み同士のコサイン類似度などを使って、文同士の意味的な類似度が計算できるので、自然言語処理や情報検索などで重宝します。特に最近では、今年のAdvent Calen

            SIF/uSIFを使ってRustで簡単高速文埋め込み - Kampersandaのブログ
          • LLMの「創発」は幻影か

            3つの要点 ✔️ 大規模言語モデルで観察される創発を検証 ✔️ LLMの創発は評価指標が見せる幻影である可能性を示唆 ✔️ LLM以外のモデルにおいて特定の評価指標を用いることで意図的に実際には発生していない創発を再現することに成功 Are Emergent Abilities of Large Language Models a Mirage? written by Rylan Schaeffer, Brando Miranda, Sanmi Koyejo (Submitted on 28 Apr 2023 (v1), last revised 22 May 2023 (this version, v2)) Comments: Published on arxiv. Subjects: Artificial Intelligence (cs.AI); Machine Learning (

              LLMの「創発」は幻影か
            • リテリングとは?やり方・効果を解説 アウトプット重視英語学習法・3STEPの効果的インプット法とは!? - ポリグロットライフ | 言語まなび∞ラボ

              はじめに 今回はリテリング(retelling)を活かしたアウトプット重視英語学習方を紹介していきます。やり方や効果を解説していきます。言語習得にはインプットがもちろん大切ですが、アウトプット仮説によれば、構文への意識など様々な効果が期待されると言われています。その中でもリテリングは要約やパラフレーズを必要とするため、日頃からリテリングを意識する事で、インプット環境も劇的に変化させることが可能で、ぜひ、今後の英語学習の参考にしてみてください。 ↓↓Youtubeチャンネルも随時英語学習の動画を追記しています www.youtube.com リテリング リテリングとは リテリングの手順 英語学習への効果・最新の研究 リテリングを取り入れた指導モデル 英語アウトプットの役割とは アウトプット仮説 統語処理・文法意識化 統語処理とは 文法への意識 構文プライミング効果と研究 プロダクションモデル

                リテリングとは?やり方・効果を解説 アウトプット重視英語学習法・3STEPの効果的インプット法とは!? - ポリグロットライフ | 言語まなび∞ラボ
              • GPT-4超え精度でスマホ上実行できるオンデバイス生成AI「Octopus v2」、Google「生成AIは大きければいいってものではない」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。第41回目は、生成AI最新論文の概要5つを紹介します。 生成AI論文ピックアップ 言語モデルの計算を最大50%高速にする「MoD」をGoogleが開発 「画像生成AIのモデルサイズを大きくすればいいとは限らない」をGoogleなどが実証 ピクセルを1つずつ予測するのではなく、画像を粗い解像度から徐々に高解像度へと生成する、高速かつ高品質な画像生成AI「VAR」 パラメータ効率の高いファインチューニング手法「ReFT」をスタンフォード大学などが開発 GPT-4超えの精度でスマートフォンに導入できる20億パラメータを持つオンデバイスAIモデル「Octopus v2」をスタ

                  GPT-4超え精度でスマホ上実行できるオンデバイス生成AI「Octopus v2」、Google「生成AIは大きければいいってものではない」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                • インターネット時代におけるマスメディアの必要性(読書メモ:『マスメディアとは何か 影響力の正体』) - 道徳的動物日記

                  マスメディアとは何か 「影響力」の正体 (中公新書) 作者:稲増一憲 中央公論新社 Amazon マスメディアを研究する分野といってもさまざまにあるだろうが、本書の内容は「マスメディアが人々にもたらす影響をデータを用いて科学的に検証する研究分野」である「メディア効果論」に立脚しており、「取材方法などに関する情報の送り手についての議論ではなく、視聴者などの受け手に対する影響」に関する議論がメインとなっている(p.v)。 そして本書のもうひとつの特徴は、マスメディアを擁護したり肯定したりする議論がたびたび登場すること。市井の人々がマスメディアに対して抱いているさまざまなイメージ……「偏っている」「人々を洗脳している」「何も影響力がない」「オワコンだ」……が誤っていることを指摘して、マスメディアの影響力について冷静に分析しながら、その存在が民主主義社会には不可欠であることが主張されているのである

                    インターネット時代におけるマスメディアの必要性(読書メモ:『マスメディアとは何か 影響力の正体』) - 道徳的動物日記
                  • Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリース

                    Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリースW&B Fully Connected 2023カンファレンスとAI Expo2023秋にて配布予定 Weights & Biases Japan株式会社(以下、W&B Japan)は本日、大規模言語モデル(LLM)の開発手法にフォーカスするホワイトペーパーの第2弾となる「LLMファインチューニングとプロンプトエンジニアリングのベストプラクティス」を公開しました。LLM導入を検討している企業向けに、自社の保持するリソースやビジネスモデルに合わせたLLM開発手法を選択するための実践的ガイドとなっており、第1弾の「LLMをゼロからトレーニングするためのベストプラクティス」を補完する形で、既存のLLMモデルを拡張する形で自社用途に適応する手法について解説しています。本ホワイトペーパーの印刷済み冊子

                      Weights & BiasesがLLMの開発手法にフォーカスしたホワイトペーパーの第2弾をリリース
                    • 民主主義を改善するためにAIを活用する方法とは?

                      AIによって高精度な文章を人間よりも圧倒的に短い時間で生成できるようになったことで、「AIが生成したパブリックコメントが政治に影響を及ぼすのではないか」「AI製のフェイクニュースが拡散され民主主義をゆがめるのではないか」といった懸念が浮上しています。そんな中、著名な情報セキュリティ専門家でありハーバード大学ケネディスクールの公共政策学講師も務めているブルース・シュナイアー氏が、「AIは民主主義を強化することができる」と主張しました。 AI could shore up democracy – here's one way https://theconversation.com/ai-could-shore-up-democracy-heres-one-way-207278 シュナイアー氏は、これまでのところAIが民主主義や政治に多大な悪影響を及ぼすという懸念が数多く提起されており、人々が「

                        民主主義を改善するためにAIを活用する方法とは?
                      • 日本語能力に優れた商用利用可能な大規模言語モデル「Swallow」が公開される

                        東京工業大学(東工大)と産業技術総合研究所(産総研)の研究チームが日本語に強い大規模言語モデル「Swallow」を公開しました。LLAMA 2 Community Licenseで提供されており、月間アクティブユーザーが7億人未満の場合は商用利用も可能となっています。 Swallow https://tokyotech-llm.github.io/swallow-llama 日本語に強い大規模言語モデル「Swallow」を公開 英語が得意な大規模言語モデルに日本語を教える | 東工大ニュース | 東京工業大学 https://www.titech.ac.jp/news/2023/068089 東工大と産総研の研究チームは、英語での言語理解や対話能力の高い大規模言語モデルであるMeta社のLlama 2をベースに日本語能力を拡張したとのこと。Llama 2は日本語にも対応していますが、Lla

                          日本語能力に優れた商用利用可能な大規模言語モデル「Swallow」が公開される
                        • NTT東日本のデータサイエンティストがKaggleコンペティション「LLM Prompt Recovery」で金メダルを獲得し、Kaggle Masterへ昇格 | NTT東日本

                          News Release東日本電信電話株式会社 2024年5月17日 NTT東日本のデータサイエンティストがKaggleコンペティション「LLM Prompt Recovery」で金メダルを獲得し、Kaggle Masterへ昇格 NTT東日本のデータサイエンティスト森田 大貴(もりた だいき)を含むチームが、世界的なAIのデータ分析コンペティションプラットフォーム「Kaggle(カグル)」※1で開催された「LLM Prompt Recovery」※2(以下、本コンペティション)において、全2,175チーム中12位に入賞し、金メダルを獲得しました。 これにより、森田社員は「Kaggle」コンペティションに参加している約20万人のユーザーの中で上位約1%に相当する「Kaggle Master」※3の称号を獲得しました。 1. 本コンペティションについて 「Kaggle」は、世界中のAIエンジ

                            NTT東日本のデータサイエンティストがKaggleコンペティション「LLM Prompt Recovery」で金メダルを獲得し、Kaggle Masterへ昇格 | NTT東日本
                          • 「Transformer」が生成AIブームに与えた影響、論文引用数で系譜を独自分析

                            半導体大手の米NVIDIA(エヌビディア)が2024年3月に開いた年次開発者会議「GTC」で、参加者が長蛇の列をなしたセッションがあった。あまりの人気ぶりに参加者の入場・着席が間に合わず、開始時間が約15分遅れたほど。同社によれば約900あったセッションで最も人を集めたという。 セッションの題目は「AI(人工知能)の変革(Transforming AI)」。深層学習に大きな進展をもたらしたとされるアーキテクチャー「Transformer(トランスフォーマー)」の論文「Attention Is All You Need(必要なのはアテンションだけ)」の著者が一堂に会し、エヌビディアのJensen Huang(ジェンスン・ファン)CEO(最高経営責任者)が司会を務めた。伝説的な論文の著者の話を聞こうと、数百人の参加者が会場に詰めかけたわけだ。 2017年に発表されたトランスフォーマーは革命的な

                              「Transformer」が生成AIブームに与えた影響、論文引用数で系譜を独自分析
                            • Amazonが70億円超の支払いを音声認識アシスタント「Alexa」による特許侵害で命じられる

                              Amazonのスマートスピーカーである「Echo」と、これに搭載されている音声認識アシスタントの「Alexa」が、4件の特許を侵害しているとして4670万ドル(約70億円)の支払いを命じられました。 Alexa just cost Amazon another $46.7 million | Ars Technica https://arstechnica.com/gadgets/2023/11/alexa-just-cost-amazon-another-46-7-million/ Nuance Communications傘下のVB Assets(旧VoiceBox Technologies)が、AmazonのEchoおよびAlexaが同社の保有する特許を侵害したとして、デラウェア州連邦裁判所で特許侵害訴訟を起こしました。訴訟の中で、VB Assetsは「インターネットに接続して女性の

                                Amazonが70億円超の支払いを音声認識アシスタント「Alexa」による特許侵害で命じられる
                              • 2024年:AI時代のデザイナーに必要なキャリア形成予想|TSUYOSHI KANEKO / GOGEN株式会社CXO

                                毎年書いているデザイナーのキャリア動向予想2024年verです。 今年はAI関連の知見を如何に集め、デザインに転換できるか?で明暗がくっきりと分かれるだろうなと思っています。 AIによるデザインの大きな変革に備える2023年、AI技術の発展はデザイナーにとっても大きな影響を与えています。ジョン・マエダ氏の「Design in Tech Report 2023」によれば、AIの進化はデザイナーに新たな可能性を開くとされています。報告書では、AIが「デザイナーに創造性をより発揮する機会」を提供する未来を描いています。 そして、実際に8割のデザイナーが「AIによって仕事に変化が迫られる」と感じているそうです。 デザインの世界は常に新技術によって変わってきました。私がデザインを志した頃、多くのデザイナーは印刷会社での仕事が中心でした。 しかし、インターネットの出現により、ウェブやデジタルメディア制

                                  2024年:AI時代のデザイナーに必要なキャリア形成予想|TSUYOSHI KANEKO / GOGEN株式会社CXO
                                • Gartner、「生成AIのハイプ・サイクル:2023年」を発表-2026年までに、企業の80%以上は生成AIのAPIを使用して、生成AIに対応したアプリケーションを本番環境に展開するようになる

                                  Gartner、「生成AIのハイプ・サイクル:2023年」を発表-2026年までに、企業の80%以上は生成AIのAPIを使用して、生成AIに対応したアプリケーションを本番環境に展開するようになる ガートナージャパン株式会社 (本社:東京都港区、以下Gartner) は、2026年までに、80%以上の企業が生成AIのAPIやモデルを使用して、生成AIに対応したアプリケーションを本稼働環境に展開するようになるとの見解を発表しました (グローバルでは2023年10月11日に発表しています)。これは、2023年の5%未満からの大幅な増加になります。 ディスティングイッシュト バイス プレジデントのアルン・チャンドラセカラン (Arun Chandrasekaran) は次のように述べています。「生成AIはCレベル幹部の最優先課題となっています。ファウンデーション・モデルの範囲を超え、新たなツールに

                                    Gartner、「生成AIのハイプ・サイクル:2023年」を発表-2026年までに、企業の80%以上は生成AIのAPIを使用して、生成AIに対応したアプリケーションを本番環境に展開するようになる
                                  • try! Swift NYCに参加してきました! #tryswiftnyc - Sansan Tech Blog

                                    研究開発部の堤と申します。今年9月にニューヨークで開催されたtry! Swift NYCというカンファレンスに参加してきました。 www.tryswift.co try! Swiftは2016年から東京・インド・ニューヨーク等で開催されている、Swiftのデベロッパーカンファレンスです。東京での開催時は毎回参加していますが 1、スピーカー・参加者ともに国際色豊か 2 なのが特徴です。 ニューヨーク版への参加は今回が初 3 でした。会期自体は9/5〜7の3日間あったのですが、9/3に iOSDCの登壇 があり、どうしても初日からの参加が難しかったため、2日目・3日目のワークショップからの参加となりました。 try! Swift NYCのスケジュール 午前・午後それぞれ3時間、2日間で計4つのワークショップ枠があり、各時間枠の中で参加者が希望のものを選ぶ、という形式でした。 私が選んだのは以下

                                      try! Swift NYCに参加してきました! #tryswiftnyc - Sansan Tech Blog
                                    • ChatGPT-4o vs ChatGPT-4|特徴や各モデルの違いを解説 | 株式会社LIG(リグ)|DX支援・システム開発・Web制作

                                      こんにちは、Technology部のジョシュです。 先月13日にリリースされた「ChatGPT-4o」は、ChatGPT-4の後継モデルとして、前モデルからの性能の向上や、新たに追加された機能に世界中から注目が集まりました。 そこで今回は、「ChatGPT-4o」と前モデルの「ChatGPT-4」の違いを深掘りし、それぞれの機能や性能、そして応用の可能性を詳しく解説します。 「結局、どっちのモデルを使ったら良いの?」「ChatGPT-4oは何ができるようになったの?」など、 ChatGPTの最新情報をキャッチアップしたい方はぜひご覧ください。 ChatGPT-4oの概要 ChatGPT-4oは、OpenAIの最新の生成AIモデルで、より強化された自然言語処理(NLP)機能を備えています。GPT-3.5とGPT-4をベースに、テキスト、音声、画像をリアルタイムでシームレスに統合処理します。

                                        ChatGPT-4o vs ChatGPT-4|特徴や各モデルの違いを解説 | 株式会社LIG(リグ)|DX支援・システム開発・Web制作
                                      • ファッションドメインにおけるLLMの未知の知識獲得可能性 - DROBEプロダクト開発ブログ

                                        概要 背景・目的 関連研究 事後学習を通じた知識の獲得 未知の知識をどう定義するか 実験 ある情報がLLMにとって新知識であるかの確認 QAデータセット 実験の設定 結果 自作したQAデータセットでの結果 相対的な汎化性能(定量) 相対的な汎化性能(定性) 考察 未知の知識の定義の難しさ ハルシネーションの対策の難しさ 今後の発展 DROBEで機械学習エンジニアをしております、藤崎です。 概要 大規模言語モデル(LLM)に未知の知識を獲得させることができるかを検証しました。 LLMにとっての未知の知識はモデルの重みがリリースされた日付以降に公開された、ファッションドメインにおける商品の価格や規格の詳細情報としています。 その結果、ドメインの難易度が低く、使用者の専門性が高いようなユースケースにおいて、LLMを活用することは可能だと判断できました。 ただし、未知の知識の定義の難しさやハルシネ

                                          ファッションドメインにおけるLLMの未知の知識獲得可能性 - DROBEプロダクト開発ブログ
                                        • Rails × ruby-spacy 環境を Docker で構築して自然言語処理に入門する

                                          Rails で構築しているアプリケーションで自然言語処理を行いたかったので、Ruby で自然言語処理を行えるライブラリの ruby-spacy の検証を行うために docker で環境構築を行うことにしました。 後述しますが、単なる gem ではなくある程度準備が必要なもので、はまった個所もいくつかあったので、備忘録として残します。 ruby-spacy とは ruby-spacy とは Yoichiro Hasebe さんによって開発されたライブラリで、Python 用の自然言語処理ライブラリである spaCy を Ruby で利用できるようにしたライブラリです。 spaCy とは、Python/Cython で構築された自然言語処理を行うためのライブラリで、訓練済みの統計モデルを使用することができます。 参考: https://spacy.io/ 参考: https://ja.wiki

                                            Rails × ruby-spacy 環境を Docker で構築して自然言語処理に入門する
                                          • 論文解説をGPT-4oを使って自動的に生成してみる - Qiita

                                            Prompt Tokensはテキストの15%になっています。 計算しやすいようにCompletion Tokensをどちらも1,000とすると、 画像として処理した場合は0.022595ドル=3.55円 テキスト抽出して処理した場合は0.065995ドル=10.38 円 と約3倍もの開きがあります。 一方で処理時間は1.5倍に増加しています。 実装紹介: 論文から解説生成 落合陽一さんが紹介したサーベイの方法論を使い、論文解説を生成します。 処理手順 arXiv URLからプレプリントをダウンロード base64形式に変換後 GPT-4oに渡して解説を生成 実装 def download_paper(arxiv_url: str, save_dir: str) -> str: """ arXivから論文をダウンロードする関数 Args: arxiv_url (str): ダウンロードする論

                                              論文解説をGPT-4oを使って自動的に生成してみる - Qiita
                                            • AIとの対話を長期記録してLLMの応答をパーソナライズする「Mem0」、オープンソースLLMを商用モデル精度で使用する方法など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                                              2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 OpenAIは7月18日、安くて軽量なマルチモーダル大規模言語モデル「GPT-4o mini」をリリースしました。テキストや画像に対応し、Gemini FlashやClaude Haiku、GPT-3.5 Turboより精度が高く高速、それでいて安価なのが特徴です。 DeepLは、言語翻訳ならびに文章校正の特化型大規模言語モデルを実装したことを発表しました。言語専門家の評価では、Google翻訳よりも1.3倍、ChatGPT-4よりも1.7倍、Microsoft翻訳よりも2.3倍、DeepLの翻訳出力が好ましいと回答したといいます。 さて、この1週間の気になる生成AI技術をピックアップして解説する「生成AIウィークリー」(第56回)では、AIとユー

                                                AIとの対話を長期記録してLLMの応答をパーソナライズする「Mem0」、オープンソースLLMを商用モデル精度で使用する方法など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                                              • Failure Analysis Assistant – AIOps で障害分析を効率化してみよう – | Amazon Web Services

                                                Amazon Web Services ブログ Failure Analysis Assistant – AIOps で障害分析を効率化してみよう – システムやサービスを提供する上で、障害はつきものです。障害を迅速に分析し対処することがユーザビリティやサービス信頼性を向上し、結果顧客満足度につながります。一方で近年システムは複雑さを増しており、障害特定が従来に比べて難しくなっています。したがって障害分析の効率化や高度化が重要になっています。 従来の手動による障害分析では、膨大なログデータの中から問題の根本原因を特定するのに多大な時間と労力を要し、ダウンタイムの長期化やサービス品質の低下につながる可能性がありました。そこで注目されているのが、人工知能 (AI) や機械学習 (ML) を活用した障害分析です。 AI/ML による高度な分析技術を用いることで、障害の早期発見、迅速な原因特定、さ

                                                  Failure Analysis Assistant – AIOps で障害分析を効率化してみよう – | Amazon Web Services
                                                • ひきこもりや自殺について聞いてみた-ChatGPT編

                                                  ChatGPT-3.5に聞いてみた 気になる問題についてAIに聞いてみる、ChatGPT-3.5編です。 ChatGPT-3.5とは? ChatGPTは、OpenAIが開発した自然言語処理モデルの1つです。ChatGPTは、GPT(Generative Pre-trained Transformer)アーキテクチャに基づいており、大量のテキストデータを学習して人間のような文章を生成することができます。このモデルは、コンピュータープログラムや機械学習モデルと対話するために使用できます。 ただし、ChatGPTは2021年9月までのデータでトレーニングされており、その後の情報や出来事についての知識は持っていません。 ChatGPT-3.5 ひきこもりや自殺の原因は? ひきこもりや自殺の原因はなんですか? ひきこもりや自殺の原因は複雑で多岐にわたります。これらの問題は個人や環境によって異なるため

                                                    ひきこもりや自殺について聞いてみた-ChatGPT編
                                                  • Labsから事業部へ、生成AIによるプロセスのリデザイン|Matsumoto Yuki

                                                    長いので3行で・これまでのLLMに関するR&Dを元に、チャットではなく文書処理にフォーカスしたAI・LLM事業部をスタートします。 ・ポイントはLLMのアルゴリズムの汎用性の高さを活かしつつ、業務プロセスを観察しAIが自然に溶け込む業務アシスタントを構築すること、それによるリデザインにあると捉え、プロダクト開発を進めていきます。 ・第一弾は三井物産デジタル・アセットマネジメントと連携しに金融事業でのLLM活用による文書処理業務アシスタント開発を進めていきます。 AI・LLM事業部がスタートしますLayerXでは、「すべての経済活動を、デジタル化する」をミッションとして掲げこれまでバクラクによる人の生産性、ALTERNAによるお金の生産性、そしてPrivacyTechを通じたデータの生産性に取り組んできました。 また、この4月からはLayerX LLM Labsを設立し、LLMの業務活用につ

                                                      Labsから事業部へ、生成AIによるプロセスのリデザイン|Matsumoto Yuki
                                                    • Slack Botによるヘルプページの情報参照:LLMを組み合わせたRAGの実装

                                                      はじめに 株式会社スマートショッピングで SRE をしているbiosugar0です。 先日、2023 年 10 月 23 日に行われた Amazon Bedrock Prototyping Camp というイベントに参加してきました。 そこでは Bedrock の紹介から始まり、Claude のハンズオン、実際にプロダクト反映を目指したプロトタイピングを行うという内容でした。 今回はその中で検証、実装した社内用の Slack bot に弊社ヘルプページを参照させる事例を紹介します。 Retrieval Augmented Generation (RAG) Retrieval Augmented Generation (RAG)は、LLM を用いた処理において、外部のデータベースや文書と連携してより精度の高い回答を生成するためのテクニックです。 GPT-4 のような LLM は、学習に使用さ

                                                        Slack Botによるヘルプページの情報参照:LLMを組み合わせたRAGの実装
                                                      • 2024年は生成AIで「データ」が変わる年に:その11の予測 - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報

                                                        Image made by DALL-E / BRIDGE 2023年は生成AIと基盤モデルの話題がすべてだった。しかし企業がワークフローにおいて生成AIを真剣に使おうとすればするほど、データ管理を整えることがいかに重要であるかに気付き出したのだ。 企業は常にビジネスの成功における高品質データの役割を理解していたが、生成AIの台頭によってその価値はさらに高まり、誰もがデータに注目するようになった。2024年はさらに大きな生成AIのストーリーが生まれると予想されている。そこで本稿では業界をリードする専門家やベンダーたちに、データ・エコシステムが今後の数カ月でどのように進化するかについて、それぞれの予測を語ってもらった。 1.リレーショナルはSQLから脱却する 最新のエッジ、IoT、または生成AIアプリケーションを活用してビジネスを成長させるにせよ、2024年の企業の大胆な計画には事欠かない。

                                                          2024年は生成AIで「データ」が変わる年に:その11の予測 - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
                                                        • “革命”起こした画像生成AIに暗雲 「Stable Diffusion 3 Medium」の厳しい船出(アスキー) - Yahoo!ニュース

                                                          Stability AIの最新画像生成AI「Stable Diffusion 3 Medium(SD3M)」が公開されました。しかし、意図的に落とされた品質に大きな課題が発見されており、普及が進むのか見えない状況になっています。 【もっと写真を見る】 6月12日、Stability AIの画像生成AI「Stable Diffusion 3 Medium(SD3M)」が公開されました。Stability AIは安定的な収益につながるビジネスモデルの構築に課題を抱えており、最新シリーズ「Stable Diffusion 3(SD3)」をどう位置づけるかが生命線と思われます。そこで、有料APIの使用が必須という形で性能の高い「Stable Diffusion 3 Large(SD3L)」を先行リリースしていました。SD3を「オープン化する」とX上で発言していた創業者のEmad Mostaque氏

                                                            “革命”起こした画像生成AIに暗雲 「Stable Diffusion 3 Medium」の厳しい船出(アスキー) - Yahoo!ニュース
                                                          • 「ChatGPT」をうまく使える人・使えない人…「命令の仕方」に決定的な違いがあった(堀江 貴文,深津 貴之) @moneygendai

                                                            ChatGPTをはじめとする生成AIの躍進で、私たちの仕事や生活は大きく変わると予想されます。ホワイトカラーや、クリエイター、プログラマーの仕事がAIに代替されるといわれる今後、私たちは何をして、どこを目指せばいいのでしょうか。 堀江貴文氏の新刊『ChatGPT vs. 未来のない仕事をする人たち』の第1章「結局、ChatGPTで仕事はどう変わるのか――クリエイター×エンジニア 深津貴之さんと考える」より一部抜粋、再構成してお届けします。 優等生のChatGPTは、私たちの仕事の何を変えるのか? 堀江貴文:ChatGPTは何に使えるのか? 2023年夏時点で、多くの人がこのテーマに関心を持っているだろう。 私はChatGPTを主にテキスト関係の仕事の自動化と、簡単なプログラミングに使っている。 たとえば、私のメールマガジンの質問コーナー。読者から送られてくる質問の半分ぐらいがどうしようもな

                                                              「ChatGPT」をうまく使える人・使えない人…「命令の仕方」に決定的な違いがあった(堀江 貴文,深津 貴之) @moneygendai
                                                            • 「NVIDIA H100」を1000個以上積んだ高性能医学研究用コンピューティング・システムの構築をマーク・ザッカーバーグ夫妻が発表

                                                              by Anthony Quintano マーク・ザッカーバーグ氏とその妻プリシラ・チャン氏の慈善団体が、医学研究に特化した世界最大級の非営利コンピューティング・システムに資金を提供し、構築することを発表しました。市場価格4万ドル(約590万円)のハイエンドGPU「NVIDIA H100」を1000個以上搭載したシステムになる予定で、「あらゆる病気の治療、予防、管理に役立つ画期的な新発見につながるものになる」とアナウンスされています。 CZ Science To Build AI GPU Cluster To Model Cell Systems https://chanzuckerberg.com/newsroom/czscience-builds-ai-gpu-cluster-predictive-cell-models/ Priscilla Chan & Mark Zuckerberg

                                                                「NVIDIA H100」を1000個以上積んだ高性能医学研究用コンピューティング・システムの構築をマーク・ザッカーバーグ夫妻が発表
                                                              • ノア・スミス「3度目の魔法――歴史・科学・人工知能」(2023年1月1日)

                                                                歴史・科学・AIについて思い巡らせてみると 今回の記事は,8年前に書いた記事を書き直したものだ.大きなテーマで,当時はまだ考えがまとまってなかった.書き上がった文章に,我ながらひどく不満だったけれど,ほんのいくつかながらも面白い考えの萌芽なら含まれていると思っていた.そこで,いまあらためて再挑戦することにした.今回も,きっとうまくいかないと思う.それでも,挑戦してみてなにか面白い考えがまたひとつでてきてくれたらいいなと思ってる. 人類の生活水準は,他の動物たちにくらべてはるかに上等だ.その差はどこから来たんだろう.多くの人は,こんな風に答える―― 「知能がずっと高いことに理由があるんだよ」 「人間の方が言語によるコミュニケーション能力が高いおかげだ」 そういう長所が根底にあることの重要さを過小評価することなく,ぼくとしてはこんな考えを提案したい.「ぼくらの物質的な成功は,その大半が2つの大

                                                                  ノア・スミス「3度目の魔法――歴史・科学・人工知能」(2023年1月1日)
                                                                • 生成AIを使えるかどうかはイシューではない - ニューロサイエンスとマーケティングの間 - Between Neuroscience and Marketing

                                                                  Summilux 1.4/50 ASPH, Leica M10P @Chinkokuji Temple, Munakata, Japan 昨日のLLM(large language model 大規模言語モデル)議論の続きをもう少し書いてみようと思う。 kaz-ataka.hatenablog.com DS協会のスキル定義委員会ではIPAと協働し、2年に一度、データサイエンティストのスキル標準を見直し、改訂版を発表している*1。今年は奇しくも改訂年だったのだが、この春、わずか数ヶ月前に華々しく登場したChatGPTを目の前にしつつ、生成AI領域においてデータ×AIプロフェッショナル(データサイエンティスト DS)の場合、求められるスキルはどうかわるのか、という議論を随分とした。 データサイエンティスト協会 10thシンポジウム スキル定義委員会発表資料(2023年10月20日) 生成AIは

                                                                    生成AIを使えるかどうかはイシューではない - ニューロサイエンスとマーケティングの間 - Between Neuroscience and Marketing
                                                                  • AI基盤モデル「Granite」に日本語版登場 日本IBMが提供 ビジネス活用に特化、RAGなどの利用を想定

                                                                    Granite日本語版モデルの名称は「granite-8b-japanese」で、パラメーター数は80億。モデルの学習には1.6兆トークン(おおよそ単語数の意)を使っており、そのうち英語データが1兆、日本語が5000億、コードが1000億トークンを占める。同社は「日本語に特化した言語処理を導入することで、長い日本語の文章を効率的に処理し、より高速な推論を実現する」と説明している。 ビジネス活用に特化しており、文章の要約や質問応答、分類などを得意とする。また、RAG(外部データベースの情報を参照させ、機密情報を基にした回答などを可能にする仕組み)やコンテンツ生成などのタスクにも対応。インターネットや学術、コード、法務、財務などの領域のデータを学習しており、チューニングすることでさまざまなタスクに対応できるとしている。 日本アイ・ビー・エムの技術理事である倉田岳人さんは「当社の基盤モデルの特徴

                                                                      AI基盤モデル「Granite」に日本語版登場 日本IBMが提供 ビジネス活用に特化、RAGなどの利用を想定
                                                                    • 社内AIチャット「TIS AIChatLab」:RAG応答評価の仕組みとプロセス | Fintan

                                                                      はじめに TISは、生成AIを活用した自社データと連携する社内専用のChatGPT環境である「TIS AIChatLab」の開発・利用を進めています。これは、大規模言語モデル(LLM)を基盤とし、企業固有の情報を活用できるよう拡張したシステムです。本記事は「TIS AIChatLab」のプロジェクトメンバーへのインタビューを通して、TISにおけるLLMやRAGに関する取り組みを紐解くシリーズの第2回です。 今回は評価の仕組み、作業プロセス、指標などの評価部分にフォーカスしてお届けします。 インタビュアー 水谷:会員制メディアAIDBの運営者。LLMなど機械学習の知見を論文ベースで紹介している。 サマリ 社内専用のAIチャット「TIS AIChatLab」の開発では、RAGASを活用したAIの応答を定量的に評価している。これにより、パフォーマンスを客観的に測定し、継続的な改善を可能にしている

                                                                        社内AIチャット「TIS AIChatLab」:RAG応答評価の仕組みとプロセス | Fintan
                                                                      • 「世界を覚醒させるようなAI研究を」東大・谷中 瞳准教授

                                                                        産業技術総合研究所(産総研)は2023年、若手AI研究者の育成を支援する「覚醒プロジェクト」を立ち上げた。35歳未満の若手研究者を対象に独創的な研究テーマを募集し、採択された研究者には研究資金や計算資源、プロジェクトマネージャー(PM)による助言などの支援を提供する。応募は10月13日まで、同プロジェクトのサイトで受付中だ。 ホットなAI分野で先端を走るプロジェクトマネージャーたちは、「覚醒」にどのような研究者を求めているのか? PMの一人で、自然言語処理を専門とする東京大学大学院 情報理工学系研究科の谷中 瞳准教授に話を聞いた。 東京大学大学院 情報理工学系研究科 准教授(卓越研究員) 谷中 瞳氏 2013年、東京大学大学院工学系研究科化学システム工学専攻修士課程修了。同年、株式会社野村総合研究所に入社し、特許検索システムの開発に従事。2018年、東京大学大学院工学系研究科システム創成学

                                                                          「世界を覚醒させるようなAI研究を」東大・谷中 瞳准教授
                                                                        • 知識の進化論:生成AIと2030年の生産性

                                                                          36 知的資産創造/2024年1月号 特集 生成AI時代の新たな社会 Ⅰ AI Ⅱ AI Ⅲ AI Ⅳ 2030 C O N T E N T S 要 約 知識の進化論: 生成AIと2030年の生産性 1 野村総合研究所(NRI)は、スイス連邦工科大学ダリオ・フロレアーノ教授らのメソド ロジーを応用し、日本の474職のデータを分析した。職業に関するデータは、厚生労働 省職業情報提供サイト「ジョブタグ」のデータを利用した。分析の結果、生成AIは従 来AIが苦手としてきた知識労働に強い影響を与える可能性が高いことが確認された。 2 生成AIは、プログラミングのようなスキルは人に迫る能力を有するものがあるが、知識 に関しては、学習不足や不完全さが指摘されており、スキルと知識との間にギャップが 生じている。今後、生成AIは、頻繁に更新を行う知識の領域と、スキルの領域とをシ ステム的に分割し、互いに影

                                                                          • サイバーエージェント、新たな日本語特化LLMを一般公開 「Llama-3-70B」と同等の日本語能力 商用利用も可

                                                                            サイバーエージェントは7月9日、大規模言語モデル(LLM)「CyberAgentLM3」を一般公開した。225億パラメータの日本語AIモデルで、既存モデルをベースに使わずスクラッチで開発した。モデルは商用利用可能なApache License 2.0で提供しており、Hugging FaceでAIモデルとデモをそれぞれ公開している。 日本語能力を評価する指標「Nejumi LLM リーダーボード3」では、米MetaのLLM「Meta-Llama-3-70B-Instruct」と同等の性能を記録。サイバーエージェントは「スクラッチ開発のオープンな日本語LLMとしてはトップクラスの性能」と説明している。 サイバーエージェントはこれまでも日本語に特化したAIモデルの開発に取り組んでおり、23年には独自の日本語LLM「CyberAgentLM」や「CyberAgentLM2」を公開。24年6月には大

                                                                              サイバーエージェント、新たな日本語特化LLMを一般公開 「Llama-3-70B」と同等の日本語能力 商用利用も可
                                                                            • 事業会社でレコメンドエンジンを作る際のいくつかの壁 - Leverages データ戦略ブログ

                                                                              はじめに レバレジーズのデータ戦略室で室長をしている阪上です。 これまでレバレジーズの運営する人材紹介系サービスの事業部内で、業務効率化のためにレコメンドエンジンを開発することが多かったので、つまずいたいくつかの壁について記します。 論文などに裏付けされた書籍に書かれているような観点もあれば、知行合一というか、アルゴリズム開発をやってみて初めて気づける観点もあると思いますので、少しでも参考になれば嬉しいです。 レコメンドエンジンの目的 事業会社としてお客様に求人情報などを提案することが行われていますが、一人の人間が覚えることができる求人情報の数は限られています。 また、求人情報の検索をするにも非構造化データでもある求人情報から目当てのものを見つけるのに時間がかかります。 お客様に合った条件の求人を見つけるのはサービス提供としてマストですが、そのために時間をいたずらにかけることは賢明ではあり

                                                                                事業会社でレコメンドエンジンを作る際のいくつかの壁 - Leverages データ戦略ブログ
                                                                              • 東工大と産総研、英語の言語理解や対話で高い能力を持つ大規模言語モデル「Swallow」を公開 #SwallowLLM|AICU media

                                                                                今回公開したLLMは、英語の言語理解や対話で高い能力を持つ大規模言語モデル・米Meta社「Llama 2」の日本語能力を拡張することで「Swallow」を構築。拡張前の Llama2 のの高い言語処理能力を維持しながら日本語能力を強化するため、言語モデルに日本語の文字や単語などの語彙を追加したうえで、新たに開発した日本語データを用いてモデルの構築を継続的に行う継続事前学習を行った。今回、パラメータ数が70億パラメータ「7B」、130億パラメータ「13B」、700億パラメータ「70B」であるモデルを公開した。 📢 大規模言語モデル「Swallow」をHugging Face上で公開しました。東京工業大学情報理工学院の岡崎研究室と横田研究室、産業技術総合研究所の研究チームでLlama 2 7B, 13B, 70Bの日本語能力を引き上げました。13Bと70BのオープンなLLMの中で日本語の最高

                                                                                  東工大と産総研、英語の言語理解や対話で高い能力を持つ大規模言語モデル「Swallow」を公開 #SwallowLLM|AICU media
                                                                                • 「わたしの話」を体系的に覚えてもらいながらLLMと会話する技術MemoChat登場 | AIDB

                                                                                  人々の日常生活におけるコミュニケーションの形態が多岐にわたる中、人工知能(AI)との対話も一般的になりつつあります。スマートフォンのアシスタントからカスタマーサポートのチャットボットまで、AIとの会話は私たちの生活の一部となっています。 しかし、大規模言語モデル(LLM)のチャットボットでさえも、人間と同じように長い会話を維持するのは容易ではありません。特に、会話が長くなると、一貫性のある応答を返すことが難しくなることが多いのです。 そこで、この記事では、最新の研究「MemoChat: Tuning LLMs to Use Memos for Consistent Long-Range Open-Domain Conversation」に焦点を当てます。この研究では、LLMが長い会話でも一貫性を保ち、人間のような対話を提供できるようにするための新しい方法が提案されています。 この記事を通し

                                                                                    「わたしの話」を体系的に覚えてもらいながらLLMと会話する技術MemoChat登場 | AIDB