並び順

ブックマーク数

期間指定

  • から
  • まで

241 - 280 件 / 1298件

新着順 人気順

*techの検索結果241 - 280 件 / 1298件

  • LangChainを使わない - ABEJA Tech Blog

    TL; DR LangChainのメリデメを整理する過程で、今となってはopenai-pythonのうちChatGPTのAPIをを簡単に取り回せる程度のシンプルなライブラリがあるだけでも十分便利なんじゃないかと思ったので、ライブラリを個人で作ってみました。(バージョン0.0.1なのでちょっとお粗末な所もありますが) github.com はじめに こんにちは、データサイエンティストの坂元です。ABEJAアドベントカレンダーの13日目の記事です。世は大LLM時代ということで、ありがたいことにABEJAでも複数のLLMプロジェクトを推進させて頂いています。私自身もいくつかのLLMプロジェクトに参画しています。LLMといえばLangChainが便利ですね。OpenAI APIの利用だけでなく、各種ドキュメントのパースが出来たり、HuggingFaceやインデックスDBを扱う他のライブラリとインテ

      LangChainを使わない - ABEJA Tech Blog
    • 伊藤園、「おーいお茶」のパッケージに画像生成AIを活用

      伊藤園は8月28日、9月に発売する「お~いお茶 カテキン緑茶」のパッケージデザインに画像生成AIを活用したと発表した。同様の取り組みは同社初。「中身だけでなく、外観も時代に合った魅力を伝えられる製品開発に努める」(同社)という。 画像生成AIサービスは、商品パッケージのリサーチやデザインを手掛けるプラグ(東京都千代田区)のものを活用。商品デザインに特化したAIサービスの先行試用版で生成した画像を参考に、デザイナーが一から作り直したという。 AI活用のデザインは500ミリリットル、1リットル、2リットルのペットボトルに加え、パウダータイプの「お~いお茶 カテキン緑茶 スティック」で採用。「茶葉の生命力を現したもので、従来のデザインとは一線を画す鮮やかな色彩と抜群の視認性を最大限に引き出したデザインをあしらった」(伊藤園)としている。 関連記事 AIが生成した絵画が、アニメ「BEASTARS」

        伊藤園、「おーいお茶」のパッケージに画像生成AIを活用
      • CPUの珍命令 - Qiita

        EDIT: はてなブックマークのエントリ だと ABCD (BCD加算) や DJNZ (ループ命令) が人気なようだ(Wikipediaしばりなもんで...) 。6502によくある JSR / RET が対応しないコーディングや、Z80で PUSH を目的外利用するような例は入れても良かったのかも。 DOOMの例を追加。 Wikipediaに個別ページができちゃうくらい有名な命令のメモ。 きっかけ このソースコードは現在の倫理上一般的でない表現が使われている箇所については当時の内容を尊重して掲載しています — ほうめい マイコンで遊んでばっかりで (@houmei) July 14, 2020 を受けて、 6809の命令のことですね。わかります >RT — Miura Hideki (@miura1729) July 14, 2020 1つのCPU命令が独立したWikipediaのページ

          CPUの珍命令 - Qiita
        • オペレーティング・システムから、オペレーティング・エージェントへ|深津 貴之 (fladdict)

          今回の発表で強く感じたことは、やはりOpenAIの目指すChatGPTが単なるチャットアプリケーションではないということだ。 従来のオペレーティングシステム(OS)はハードウェアとアプリケーションの架け橋である。だがOpenAIはChatGPTを「言語で命令できるオペレーティングエージェント」と位置付け、人生のあらゆるタッチポイントで新たなゲートキーパーとなろうとしているように思える。 IT競争は手前の取り合い歴史を振り返れば、IT競争の常道とは、ゲートウェイを手前に築くことにあったようだ。PCの争いをOSが無意味化し、OSの争いをブラウザが、ブラウザの争いを検索エンジンがと、そしてそれをスマホとアプリが…このようにITの争いは常に手前を争うものだった。こうして一番手前を抑えた企業は、大きな利益を手に入れた。 今、OpenAIの動きは、このメタゲームに大きな変化を加えつつある。 OpenA

            オペレーティング・システムから、オペレーティング・エージェントへ|深津 貴之 (fladdict)
          • 世界最大規模のディープラーニングを「富岳」で実施して世界一になりました - fltech - 富士通研究所の技術ブログ

            はじめに こんにちは。富士通株式会社ICTシステム研究所のMLPerf HPC五人衆です。先週、国際学会SC’21 において、理化学研究所/富士通が共同で開発した新しいスーパーコンピュータ(スパコン)「富岳」がスパコンランキングで4期連続の4冠(TOP500, HPCG, HPL-AI, Graph500)を獲得しましたが、同会議で発表された、実際のディープラーニング(DL)学習処理に特化したMLPerfTM HPC ベンチマークにおいても世界一を獲得しました。 本ブログでは、このMLPerf HPCの一つのアプリケーションであるCosmoFlowの学習を「富岳」で大規模に行い世界一となった、その挑戦についてお話させてもらいます。 はじめに 背景 MLPerf HPCって何?(白幡) CosmoFlowって何?(田渕) 「富岳」って何?(田渕) プロセッサ 通信ネットワーク ストレージ 準

              世界最大規模のディープラーニングを「富岳」で実施して世界一になりました - fltech - 富士通研究所の技術ブログ
            • ユニクロのセルフレジ特許権侵害訴訟を現状整理する 知財高裁で勝っても戦況が明るくない理由

              特許を巡る大企業とベンチャーの争いで、最近注目なのが、ユニクロのセルフレジに関するものだ。使いやすいと評判だったが、その特許を巡って激しい争いが起きている。テクノロジー知財に詳しい弁理士の栗原潔さんに解説してもらった。 ユニクロのセルフレジで採用されているRFID読取装置に関して、RFIDソリューション開発企業のアスタリスクと「ユニクロ」や「ジーユー」などを展開するファーストリテイリングとが特許権侵害訴訟が争っていることが話題になっている。 従業員約100人の小規模企業が、カジュアル衣料品販売業として時価総額世界第1位の超大規模企業を訴えるという、今までにまったくなかったわけではないものの、注目に値する訴訟である。 アスタリスクのニュースリリースをベースにこのケースの全体像を見ていこう。なお、アスタリスクは、訴訟経過中に自社の全特許権をNIPという知財ライセンス企業に譲渡している。おそらく

                ユニクロのセルフレジ特許権侵害訴訟を現状整理する 知財高裁で勝っても戦況が明るくない理由
              • 「AIモデル」誕生 ブランドに合わせ容姿、年齢、性別が自由自在の〝専属モデル〟に|よろず〜ニュース

                まるで人間のようなモデルが、アパレル製品の魅力を伝えている。Alによるファッションモデル生成サービス「AI model」がネット上で注目を集めた。モデルはAIが生み出した架空のもので、顔立ち、ヘアスタイルなどの容姿を自由自在に変化させられるという。 ファッション通販サイトの商品着用イメージ画像などへの使用を目的としたAI画像生成サービスで、AI model株式会社が今年6月に提供を始めた。画像を作る方法は主に次の2パターンがある。 (1)人体に近い形の特殊なマネキンに服を実際に着せて商品を撮影した後、頭部などをAI生成の画像で補い簡単なポーズをつける。 (2)人間のモデルが着用しロケーション撮影やダイナミックなポーズの撮影をした後、頭部などをAI生成の画像で補う。 通販でのアパレル製品購入者が気にする質感の表現について、同社の経営責任者・谷口大季さんは「マネキンで撮影をするので、シワ感とか

                  「AIモデル」誕生 ブランドに合わせ容姿、年齢、性別が自由自在の〝専属モデル〟に|よろず〜ニュース
                • テレホーダイが本日最終日 約28年の歴史に幕

                  東日本電信電(NTT東日本)が、2023年12月31日にテレホーダイのサービス提供を終了します。1995年のサービス開始から、約28年に渡って提供されました。 画像はNTT東日本公式サイトから テレホーダイは、23時から翌朝8時までの間、ユーザーが指定した番号への通話が定額になるサービス。サービス終了の理由は、固定電話網が2024年1月からIP網へ移行することを受けてのものとなります。 テレホーダイは、インターネットが普及し始めた当時の「ダイヤルアップ接続」で重宝されていたサービス。ダイヤルアップ接続は電話回線を使用しており、インターネットを使用した時間が全て通話料金となるため、テレホーダイなしだと10万円を超える高額な通話料金になることもあり得ました。 当時のヘビーなネットユーザーは利用していた人も多いかと思われますが、ついに完全終了となります。さまざまな思い出のある人も、多いのではない

                    テレホーダイが本日最終日 約28年の歴史に幕
                  • データサイエンティスト向け性能問題対応の基礎

                    データサイエンティストの皆さん、次のような性能問題にであったことないでしょうか。「データの加工処理が遅いからインスタンスタイプを上げたが速くならなかった」「機械学習の学習が遅いから、GPUを増やしたが、速くならなかった」こういったときにどうすればよいか説明します。

                      データサイエンティスト向け性能問題対応の基礎
                    • CSVファイルが勝手に「Excel」ファイルに? 「OneDrive」の謎仕様に驚きと戸惑いの声/コンシューマー向けのみの仕様、ビジネス向けでは起こらない【やじうまの杜】

                        CSVファイルが勝手に「Excel」ファイルに? 「OneDrive」の謎仕様に驚きと戸惑いの声/コンシューマー向けのみの仕様、ビジネス向けでは起こらない【やじうまの杜】
                      • 日本のAI導入効果がアメリカの7分の1程度しかないのはなぜなのか|piqcy|note

                        AI白書によると、日本では平均して米国の7分の1程度しかAI導入の効果が出ていません。特に「製造工程、製造設備」、「データ分析の高度化」の売上向上効果は10分の1以下に留まっています。機械学習の活用に携わる身としては2022年最も衝撃的なデータでした。え、でもそれってほんとなの?なんでなの?という疑問を本記事で深掘りするとともに、解決策を考えてみたいと思います。 日本では平均して米国の7分の1程度しかAI導入の効果しか出ていないAI白書2022ではAI導入の効果を日米の企業にヒアリングをしています。AIの導入で「5%以上の売上増加」があったと回答した日本の企業数は米国の1/4~1/11になっています(下図左)。特に「製造工程、製造設備」では1/10、「データ分析の高度化」では1/11です。「10%以上のコスト削減効果」があったと回答した日本の企業数も同程度の差があります(下図右)。同じ「A

                          日本のAI導入効果がアメリカの7分の1程度しかないのはなぜなのか|piqcy|note
                        • Google CloudがBigQueryでAWS、Azure上のデータを動かさずに分析できる「BigQuery Omni」を発表

                          Google Cloudは2020年7月14日(米国時間)、アナリティクスサービス「BigQuery」のマルチクラウド対応を発表した。Amazon Web Services(AWS)やMicrosoft Azure上のデータを動かすことなく、BigQueryによるマルチクラウドのデータ分析ができる。 Google Cloudは同日、AWSの「Amazon S3」に対応したプライベートα版の提供を開始した。Azureへの対応は近い将来(「soon」)に行うという。 BigQuery Omniでは、Google Cloudがマルチクラウド対応を進めるマネージドKubernetesサービス、「Anthos」を活用する。BigQuery OmniとしてAWSやAzureに展開するAnthosクラスタ上で、BigQueryのクエリエンジンである「Dremel」をマネージドサービスとして動かす。その上

                            Google CloudがBigQueryでAWS、Azure上のデータを動かさずに分析できる「BigQuery Omni」を発表
                          • AIにおける「次元の呪い」解決へ、富士通研が機械学習の最有力学会で発表

                            富士通研究所は2020年7月13日、ディープラーニング(深層学習)における教師なし学習の精度を大幅に向上できる人工知能(AI)技術「DeepTwin」を発表した。AI分野の長年の課題だった「次元の呪い」を、映像圧縮技術の知見を活用することで解決したとする。同社は論文を機械学習の最有力学会である「ICML 2020」で7月14日に発表する。 「次元の呪い」とは、データの次元(要素数)が大きくなると、そのデータを分析する際の計算量が指数関数的に増大する現象を指す。次元の呪いを回避するため、一般的に機械学習の高次元データは次元を減らす。 ただ従来の手法には、次元の削減に伴ってデータの分布や確率が不正確になる課題があり、それがAIの精度低下を招く一因になっていた。例えば分布や確率が実際と異なると、正常データを異常と誤判定してしまうような間違いを引き起こしてしまう。 富士通研究所は今回、ディープラー

                              AIにおける「次元の呪い」解決へ、富士通研が機械学習の最有力学会で発表
                            • AIの想像力が人間を超えるとき。深層強化学習のブレイクスルー、D3RLの衝撃

                              AIの想像力が人間を超えるとき。深層強化学習のブレイクスルー、D3RLの衝撃 2020.10.08 Updated by Ryo Shimizu on October 8, 2020, 11:13 am JST 「最近のAIがすごい」と言われてからもう6年ほどが経過した。 なかでも人目を引いたのは、なんといっても2016年のAlphaGoだろう。最難関ゲームの一つと言われる囲碁において、人間のトップ棋士に対しAIが圧勝したのである。 これは「深層強化学習」というAIだが、実際のところ、「深層強化学習」を実用的に利用した例はまだ少ない。 多くのAIベンチャーやAIベンダーが扱う「AI」技術は、古典的な統計解析か、時折ニューラルネットを使っているくらいで、「深層学習」ではあっても「深層強化学習」とは完全に別物である。ラジオもコンピュータも同じ電気で動くものだが別物であるのと同じだ。 深層強化学

                                AIの想像力が人間を超えるとき。深層強化学習のブレイクスルー、D3RLの衝撃
                              • 【GPT-4V APIのおすすめ活用事例】OpenAIの最新モデルを使ったヤバい使い方10選 | WEEL

                                みなさん、API経由でGPT-4Vが使えるようになったのはご存知ですか? その名も「GPT-4V API」というモデル名なのですが、GitHubでスター10,000超えのAIツール・tldrawに採用されています。 このGPT-4V APIは、アプリ・サービスに目を与えてくれるすぐれものなんです! 当記事では、そんなGPT-4V APIの活用事例のうち、SNSでバズったものだけを10個ピックアップしました。 最後まで読んでいただくと、APIで作れるアプリ・サービスのレパートリーが増えるかもしれません。ぜひ最後までお読みくださいね! なお弊社では、生成AIツール開発についての無料相談を承っています。こちらからお気軽にご相談ください。 →無料相談で話を聞いてみる GPT-4V APIとは?概要を紹介 「GPT-4V API」はChatGPT APIのなかで唯一、画像入力に対応しているモデルです

                                  【GPT-4V APIのおすすめ活用事例】OpenAIの最新モデルを使ったヤバい使い方10選 | WEEL
                                • 日本語に特化した大規模言語モデル(生成AI)を試作|2023年|NICT-情報通信研究機構

                                  国立研究開発法人情報通信研究機構(NICT(エヌアイシーティー)、理事長: 徳田 英幸)は、ユニバーサルコミュニケーション研究所データ駆動知能システム研究センターにおいて、独自に収集した350 GBの日本語Webテキストのみを用いて400億パラメータの生成系の大規模言語モデルを開発しました。今回の開発を通し、事前学習用テキストの整形、フィルタリング、大規模計算基盤を用いた事前学習等、生成系の大規模言語モデル開発における多くの知見を得ました。現在は、更に大規模な1,790億パラメータの生成系大規模言語モデル(OpenAI社のGPT-3と同等規模)の学習を実施中で、また、学習用テキストの大規模化にも取り組んでいます。今後、共同研究等を通して民間企業、国研、大学等と協力して、日本語の大規模言語モデルの研究開発や利活用に取り組む予定です。 NICTでは、これまでWebページを収集し、インターネット

                                    日本語に特化した大規模言語モデル(生成AI)を試作|2023年|NICT-情報通信研究機構
                                  • LLMがなぜ大事なのか?経営者の視点で考える波の待ち受け方|福島良典 | LayerX

                                    はじめにLayerXの代表をしています福島と申します。本日はLLM(Large Language Model, 大規模言語モデル)について、なぜ大事なのか?経営者の視点でどうこの波を考えればいいのかについてです。 LLMが今非常に話題になっています。ChatGPTの裏側もこのLLMからできていると言えばわかりやすいでしょうか。 私は現在、LayerXという会社を経営しております。LayerXでも多分に漏れず、LLMに対するものすごいワクワクと、この波に対応しないと会社が消えてなくなるという強い危機感を抱いています。 私自身が元機械学習エンジニア、現在現役の経営者というキャリアを歩んできました。その立場から、なるべくわかりやすく、LLMの波というものを経営者がどう捉えるべきか、どう波を乗りこなすべきかの一助となればと思い筆を取っています。(機械学習のプロの方からすると、おいおいそれは単純化し

                                      LLMがなぜ大事なのか?経営者の視点で考える波の待ち受け方|福島良典 | LayerX
                                    • ChatGPTを支えた高品質AI作成手法「RLHF」の中身はこんな感じ、面倒なデータ入力・整理はオープンソースでセルフホスト可能なプラットフォーム「Argilla」が便利

                                      RLHFとは「人間の評価による強化学習」のことで、大規模言語モデルをChatGPTなどの実用レベルに至る品質にまで高めた実績のある手法です。RLHFでは教師データを作成したり、大規模言語モデルの回答を評価したりする際に人間がデータを入力する必要があり、特に複数人で作業する場合にデータの管理が大変になってしまうものですが、そうしたRLHF用データの入力や管理を行ってくれるプラットフォームが「Argilla」です。 Bringing LLM Fine-Tuning and RLHF to Everyone https://argilla.io/blog/argilla-for-llms/ 大規模言語モデルを作成する時の手順を示したのが下の図です。まず大量のテキストを用いて事前学習を行います。こうして作成されたモデルが事前学習済みモデルで、GPTやPaLM、LLaMAなどのモデルがこのカテゴリに

                                        ChatGPTを支えた高品質AI作成手法「RLHF」の中身はこんな感じ、面倒なデータ入力・整理はオープンソースでセルフホスト可能なプラットフォーム「Argilla」が便利
                                      • ChatGPT の仕組みを理解する(前編) - ABEJA Tech Blog

                                        こんにちは!株式会社 ABEJA で ABEJA Platform 開発を行っている坂井(@Yagami360)です。世間では ChatGPT などの大規模言語モデル(LLM)による対話型 AI が盛り上がってますね。クオリティーも凄いし AI 業界以外でも盛り上がってると嬉しいですよね。この数年で一段と AI の社会実装が業界以外の人にも目に見える形で進んできたなあと実感しております。 自分は普段業務では ABEJA Platform という AI プロダクトやその周辺プロダクトのバックエンド開発とフロントエンド開発をやっているのですが、AI 業界所属していながら ChatGPT などの LLM 全然追いかけれていない状態になっちゃてて自責の念にかられているので、このブログ執筆という良い機会に ChatGPT の仕組みについて調べてみました。 本記事の対象読者としては、以下のようになりま

                                          ChatGPT の仕組みを理解する(前編) - ABEJA Tech Blog
                                        • ChatGPTのリリースでGoogleは「コードレッド」を宣言、AIチャットボットが検索ビジネスにもたらす脅威に対応するためにチームを再割り当て

                                          AI開発団体のOpenAIが発表した「ChatGPT」は、自然言語処理モデルの「GPT-3」の進化系である「GPT-3.5」がベースになっており、質問文を打ち込むと人間が書いた文章と見分けが付かないほどに高精度の文章で回答してくれます。そんなChatGPTの登場に、ユーザー数世界最大を誇る検索エンジンを持つGoogleの経営陣が事業に対する深刻な脅威への警戒を示して「コード・レッド」を宣言したと報じられています。 ChatGPT and Other Chat Bots Are a ‘Code Red’ for Google Search - The New York Times https://www.nytimes.com/2022/12/21/technology/ai-chatgpt-google-search.html Google at 'code red' over ChatG

                                            ChatGPTのリリースでGoogleは「コードレッド」を宣言、AIチャットボットが検索ビジネスにもたらす脅威に対応するためにチームを再割り当て
                                          • 第一回AIアートグランプリを受賞したので自分の作品解説とファイナリスト作品への感想。そしてその先(CloseBox) | テクノエッジ TechnoEdge

                                              第一回AIアートグランプリを受賞したので自分の作品解説とファイナリスト作品への感想。そしてその先(CloseBox) | テクノエッジ TechnoEdge
                                            • ビジネスとエンジニアリングをつなぐ「アナリティクスエンジニア」とは。リクルートが“価値あるデータ整備”のための新たな職種に着目した理由 - はてなニュース

                                              世間でデータの利活用やDX(デジタルトランスフォーメーション)の手法が盛んに議論される一方、データの利活用環境やそれを整備するデータ組織・人材について「理想と現実のギャップ」に苦しむ企業は少なくないでしょう。 そうした企業にとって、事業で得られたデータをスピーディーな意思決定につなげたり、そのプロセスを牽引する人材を育成したりすることは、喫緊の課題であるように思います。 データを活用してカスタマー・クライアント双方の「不の解消」を目指すリクルートも例外ではなく、これまでさまざまな課題に直面してきました。そんな中、同社のデータ推進室では2022年、「データに基づく意思決定の実現」を目標に、D3M(Data Driven Decision Making)部を設立。高精度な意思決定を実現すべく、高品質なデータを提供するアナリティクスエンジニアという職種を導入しました。 一般的に、アナリティクスエ

                                                ビジネスとエンジニアリングをつなぐ「アナリティクスエンジニア」とは。リクルートが“価値あるデータ整備”のための新たな職種に着目した理由 - はてなニュース
                                              • コードレビューをAIに手伝ってもらい楽をしてみる - hiroppy's site

                                                GitHub Next | AI for Pull Requests GitHub Next Project: AI for Pull Requests wants to make GitHub Pull Requests seamless, low burden an... この機能の登場により、PR でのレビューのオーバヘッドを少なくすることが期待されます。この PR では何を変更したのかを説明したり、更には review の依頼を投げることもできます。 また、Issue でも AI にどうしたらよいか?を聞くこともできるそうです。詳しくは公式の動画を見てください。 How many times have you submitted a change and forgot to update the unit tests? Or the documentation? Or introd

                                                  コードレビューをAIに手伝ってもらい楽をしてみる - hiroppy's site
                                                • Docker Desktopが有料化へ、ただし250人未満かつ年間売り上げ1000万ドル(約11億円)未満の組織や個人やオープンソースプロジェクトでは引き続き無料で利用可能

                                                  Docker Desktopが有料化へ、ただし250人未満かつ年間売り上げ1000万ドル(約11億円)未満の組織や個人やオープンソースプロジェクトでは引き続き無料で利用可能 Docker社は、これまで無料で提供してきたDocker Desktopの有料化を発表しました。 We're updating and extending our product subscriptions! New subscription tiers include Personal, Pro, Team, and Business. Details here: https://t.co/pyDetDKGjC #Docker #Subscriptions pic.twitter.com/Or8l6YoIUO — Docker (@Docker) August 31, 2021 Docker DesktopはWind

                                                    Docker Desktopが有料化へ、ただし250人未満かつ年間売り上げ1000万ドル(約11億円)未満の組織や個人やオープンソースプロジェクトでは引き続き無料で利用可能
                                                  • GPUを使ったノイズキャンセリングがすごかった(5月12日追記)【高橋忍のにゃんともWindows】

                                                      GPUを使ったノイズキャンセリングがすごかった(5月12日追記)【高橋忍のにゃんともWindows】
                                                    • 電波強度がGPSの10万倍、GNSSの弱点を補う「MBS」とは? 屋内外シームレスに測位できる“地上波システム”構築へ【地図と位置情報】

                                                        電波強度がGPSの10万倍、GNSSの弱点を補う「MBS」とは? 屋内外シームレスに測位できる“地上波システム”構築へ【地図と位置情報】
                                                      • 生成系AI技術の活用に関する提言

                                                        私たち日本俳優連合は、俳優・声優の権利を守るため、60年前から活動してまいりました。今般、Artificial Inteligence、いわゆるAI技術、機械学習という新たな技術が開発され、世界中で議論を起こしていることは皆様ご存じの通りです。私たち実演家としても、新しい技術の進化による人間社会の発展は望ましいことであると考えます。 ただその一方で、この新しい技術が私たち実演家の、表現の模倣・盗用を安易に促し、職域を侵害する恐れがあるのではと危惧しております。つきまして、私たち日本俳優連合として、以下5つの提言を行い、業界内でのガイドライン作り、国としての法律制定、ひいては国際的な枠組みでのルール構築を切に望みます。 国内外での意見交換を活発に行うとともに、EUによるAIACTの考え方に大いに賛同し、これを参考にしたガイドラインの策定を行う 学習素材は著作者が許可を与えたもののみを使用可能

                                                          生成系AI技術の活用に関する提言
                                                        • 「CustomGPT.ai」でPublickeyのコンテンツを学習させたチャットBotを作ってみた。サイト検索の代わりになるか? 回答の精度と3つの大きな課題

                                                          「CustomGPT.ai」でPublickeyのコンテンツを学習させたチャットBotを作ってみた。サイト検索の代わりになるか? 回答の精度と3つの大きな課題 ChatGPTを開発したOpenAIの技術を用いて、インターネット上のコンテンツをAIに学習させる機能を備えた「CutomGPT.ai」(以下CustomGPT)と呼ばれるサービスが登場しました。開発したのはPoll the People社です。 CustomGPTは、ChatGPTの持つ幅広い汎用の知識に加えて、特定のWebサイトの情報などを学習させることで、特定の情報に詳しくなるようにカスタマイズできるAIだと説明されています。 Product Hunt Launch Alert Today, we launched our https://t.co/PhjhqGcTkH on @ProductHunt. What is it:

                                                            「CustomGPT.ai」でPublickeyのコンテンツを学習させたチャットBotを作ってみた。サイト検索の代わりになるか? 回答の精度と3つの大きな課題
                                                          • ウェブをますます暗い森にし、人間の能力を増強する新しい仲間としての生成AI

                                                            ウェブをますます暗い森にし、人間の能力を増強する新しい仲間としての生成AI 2023.06.19 Updated by yomoyomo on June 19, 2023, 16:16 pm JST 少し前に佐々木俊尚氏の「オープンなウェブ世界とジェネレーティブAIの終わりなき戦いが始まる」という記事を読みました。自分の電子書籍に『もうすぐ絶滅するという開かれたウェブについて』というタイトルをつけたワタシ的にも、オープンなウェブが生成AIに脅かされるという話は興味があるのですが、今年はじめに読んだ、Oughtでプロダクトデザイナーを務めるマギー・アップルトンの「拡大する暗い森と生成AI」を思い出しました。 昨今この分野は動きが速く、半年前の文章でも随分昔に思えたりするものですが、都合良いことに、4月にトロントで開催されたCausal Islandsカンファレンスでマギー・アップルトンが「拡

                                                              ウェブをますます暗い森にし、人間の能力を増強する新しい仲間としての生成AI
                                                            • 因果推論の先へ―機械学習で因果効果を予測する『反実仮想機械学習(Counterfactual Machine Learning)』入門 | 株式会社ARISE analytics(アライズ アナリティクス)

                                                              Tweet 因果推論の先へ―機械学習で因果効果を予測する『反実仮想機械学習(Counterfactual Machine Learning)』入門 はじめに ARISE analytics の近藤です。本記事では、次世代の意思決定技術として注目されている反実仮想機械学習(Counterfactual Machine Learning:CFML)を紹介します。 本記事は、CFMLを日本語で体系的に整理し、初学者の理解を手助けすることをねらいとして執筆しました。本記事の理解促進につながるように、ベースとなった勉強会資料を記載します。こちらも併せて閲覧いただくことで理解の助けになれば幸いです。 目次 ・ はじめに ・ Counterfactual Machine Learning(CFML) ・ Off-Policy Evaluation(OPE) ・ CFMLを支える技術(オープンデータとツー

                                                                因果推論の先へ―機械学習で因果効果を予測する『反実仮想機械学習(Counterfactual Machine Learning)』入門 | 株式会社ARISE analytics(アライズ アナリティクス)
                                                              • AIプロ集団から見た「ChatGPTの歴史」 たった5年で何が起こったのか

                                                                IT業界において大規模言語AIサービス「ChatGPT」が大盛り上がりだ。2023年に入ってからはあらゆる業界の企業がChatGPTを使ったサービスをこぞって発表している。IT超大手GAFAMも続々大規模言語AIの活用方針を打ち出している。 そんなChatGPTはどうやってここまでの人気を得るに至ったのか。日本語特化の大規模言語AIを開発してきた東大発ベンチャー・ELYZA(東京都文京区)は3月16日の発表会で、今この業界で何が起きているのかを、歴史とともに解説した。 GAFAMが続々アプローチ IT業界が一瞬でAIカラーに染まる ChatGPTは2022年11月の公開以降、飛ぶ鳥を落とす勢いでユーザーを獲得してきた。ユーザー数はリリースから5日で100万人、2カ月で1億人を突破した。米Microsoftは開発元の米OpenAIにもともと10億ドルを出資していたが、ChatGPT登場後さら

                                                                  AIプロ集団から見た「ChatGPTの歴史」 たった5年で何が起こったのか
                                                                • Stable Diffusion発! 画像生成ブームに見るジェネラティブAIの人・もの・お金事情 - NTT Communications Engineers' Blog

                                                                  この記事は NTTコミュニケーションズ Advent Calendar 2022 18日目です…が、少々遅れてお届けします。 はじめに PS本 5G&IoTサービス部 増田です。Advent Calendar参加も(たぶん)3年目となりました。 「テキスト指示をもとに、AIがお好みの画像を生成する(Text-to-Image)」「今ある画像へ、テキスト指示で編集を加える(Image-to-Image)」 -- そんな画像生成AIが注目を集めています。2022年の上半期、Open AIによるDALL-E 2の公開、Midjourneyの登場と盛り上がりを見せました。2022年8月23日のStable Diffusion一般公開からは、使ってみた報告、従来研究との融合、商用プロダクト応用と、研究者、アーティスト、プログラマなど様々な人の参加により、界隈はさらに活気づいています。 画像生成AIの

                                                                    Stable Diffusion発! 画像生成ブームに見るジェネラティブAIの人・もの・お金事情 - NTT Communications Engineers' Blog
                                                                  • Azure Open AI「Add your data」のシンプル設定方法、試した結果の比較と「4つの所感 & 解決案?」 - Qiita

                                                                    Azure Open AI「Add your data」のシンプル設定方法、試した結果の比較と「4つの所感 & 解決案?」AzureCognitiveServicesgpt-3AzureOpenAIServiceonyourdata Azure Open AIの新機能「Add your data」の使用方法の概説、試してみた結果、そして私なり感じた4つの所感とその解決策?を紹介いたします。 ※本領域は変化が激しいです。この内容は23年6月24日時点の情報となります 【記事の目次】 23年Buildでのデータサイエンス・AI系のアップデータについて Azure Open AI「Add your data」のシンプル設定方法 Azure Open AI「Add your data」を使用した結果と、ChatGPT、 Bing AIチャットの比較 私の4つの所感と解決案? 4.1 引用元の引用部

                                                                      Azure Open AI「Add your data」のシンプル設定方法、試した結果の比較と「4つの所感 & 解決案?」 - Qiita
                                                                    • AIが作った画像が喋る 動画生成サービス「Creative Reality Studio」登場 「GPT-3」「Stable Diffusion」を利用

                                                                      生成系AIの開発などに取り組むイスラエルのD-IDは12月14日、画像が喋る動画を生成できるサービス「Creative Reality Studio」を開発したと発表した。プロンプトを基に、AIが画像や喋らせたい内容を生成。それらを自動合成し、動画として出力する。

                                                                        AIが作った画像が喋る 動画生成サービス「Creative Reality Studio」登場 「GPT-3」「Stable Diffusion」を利用
                                                                      • ベクトルデータベースとは何かを解説、生成AIで「必須の存在」はどんな役割を担うのか

                                                                        生成AIの可能性を広げる「ベクトルデータベース」への関心が急速に高まっている。ベクトルデータベースとは、生成AIが扱う非構造化データの格納・管理・照会で利用されるデータベースのこと。ここではベクトルデータベースの基本をわかりやすく解説するとともに、生成AIの普及において、どのような役割を果たすのか、注目される理由などと合わせて紹介しよう。 バークリー音大提携校で2年間ジャズ/音楽理論を学ぶ。その後、通訳・翻訳者を経て24歳で大学入学。学部では国際関係、修士では英大学院で経済・政治・哲学を専攻。国内コンサルティング会社、シンガポールの日系通信社を経てLivit参画。興味分野は、メディアテクノロジーの進化と社会変化。2014〜15年頃テックメディアの立ち上げにあたり、ドローンの可能性を模索。ドローンレース・ドバイ世界大会に選手として出場。現在、音楽制作ソフト、3Dソフト、ゲームエンジンを活用し

                                                                          ベクトルデータベースとは何かを解説、生成AIで「必須の存在」はどんな役割を担うのか
                                                                        • 状態空間モデルを用いた因果効果の推定: CausalImpact - Qiita

                                                                          東京大学・株式会社Nospareの菅澤です. 今回は状態空間モデルによる時系列予測手法を用いた因果効果の推定手法であるCausalImpactについて紹介します. CausalImpactとは CausalImpactはGoogleによって開発された因果効果推定の方法です.手法の詳細はBrodersen et al. (2015, AoAS)に記載されており,手法を実装したRパッケージも公開されています. CausalImpactは,ある介入が時間変化するアウトカムにどのような影響を与えるかを推定(推測)するための手法です.時間変化するアウトカム(時系列データ)に対して因果効果を推定する有名な方法としてDifference-in-Difference (DID)がありますが,DIDよりも緩い仮定のもとで時間変化する因果効果を推定できる方法として知られています. CausalImpactのコ

                                                                            状態空間モデルを用いた因果効果の推定: CausalImpact - Qiita
                                                                          • Open Interpreter - 自然言語でコーディングを実現するオープンソースツール|masia02 (CipherWeb,LLC.)

                                                                            Open Interpreterは、自然言語でプログラミングができるようになる、興味深いオープンソースツールです。機能呼び出し型の大規模言語モデルを利用して、Python、JavaScript、Bashなどのコードをローカルで実行できるのが大きな特徴です。インストールと利用は簡単で、コーディング作業の効率化を図れそうなツールです。 Open InterpreterとはOpen Interpreterは、GPT-3.5やGPT-4またはCode Llamaなどの大規模言語モデルを利用して、自然言語でのコード実行を可能にするオープンソースのツールです。 コマンドラインインターフェース上で言語モデルと対話することで、PythonやJavaScriptなどのコードをローカルマシン上で実行できます。複雑なロジックのコーディングもステップごとに指示できるので、開発効率の大幅な向上が期待できます。 公式

                                                                              Open Interpreter - 自然言語でコーディングを実現するオープンソースツール|masia02 (CipherWeb,LLC.)
                                                                            • DALL·E 2 を早くも破る!超リアル画像生成モデル Imagen を解説

                                                                                DALL·E 2 を早くも破る!超リアル画像生成モデル Imagen を解説
                                                                              • NTTドコモ、Python GUIライブラリ「Streamlit」でデータ可視化アプリを内製開発 | IT Leaders

                                                                                IT Leaders トップ > 経営課題一覧 > データ活用 > 事例ニュース > NTTドコモ、Python GUIライブラリ「Streamlit」でデータ可視化アプリを内製開発 データ活用 データ活用記事一覧へ [事例ニュース] NTTドコモ、Python GUIライブラリ「Streamlit」でデータ可視化アプリを内製開発 データ抽出/分析にかかるコストを54%削減 2024年2月22日(木)日川 佳三(IT Leaders編集部) リスト NTTドコモは、全社規模でデータ活用を推進する中で、データ可視化アプリケーションを容易に開発するため、オープンソースのPython GUIライブラリ「Streamlit(ストリームリット)」を導入した。導入効果として、開発に着手してから8営業日でアプリを運用開始している。また、開発したアプリの利用により、データの抽出や分析にかかるコストを54%

                                                                                  NTTドコモ、Python GUIライブラリ「Streamlit」でデータ可視化アプリを内製開発 | IT Leaders
                                                                                • OpenAIがリリースした高精度な音声認識モデル”Whisper”を使って、オンライン会議の音声を書き起こししてみた | DevelopersIO

                                                                                  こんちには。 データアナリティクス事業本部 機械学習チームの中村です。 2022/09/22の夕方ごろ、OpenAIが音声認識ですごいものを出したらしいというニュースが社内のSlackをにぎわせていました。 個人的には、いくら認識が凄いって言っても、実際日本語は微妙なんじゃないかな…?と思っていたのですが… ですが… … … … おお!?(上記はGitHubにあるWER: Word Error Rateのグラフです) これは!? これは結構良さげな数値を出している!?(たぶん) ってことで元音声屋さんとしては、これは試すしかない!ということで動かしてみました!(投稿は翌日になってしまいましたが…) なお、本記事では論文内容の詳細などには触れませんのでご了承ください。(後日できたらがんばります) いますぐ使いたい人向け 今すぐ使いたい方は、Hugging Faceでブラウザから書き起こしを試

                                                                                    OpenAIがリリースした高精度な音声認識モデル”Whisper”を使って、オンライン会議の音声を書き起こししてみた | DevelopersIO

                                                                                  新着記事