Adobeが権利的にクリアなトレーニングモデルを用いた画像生成AI「Firefly」を発表したり、Microsoftの検索エンジンであるEdgeで対話型AIのChatGPTが活躍していたり、世界的なコンサル企業が「社員の50%は業務にジェネレーティブAIを活用している」と明らかにしたりと、ジェネレーティブAIは社会に広がり続けています。しかし、AIを使用してコンテンツを作成・公開する人が増えていることで、新たな問題として「AIが生成したコンテンツがインターネット上にあふれ、それをAIが学習することで、重大な欠陥が生まれている」ということが研究者グループから指摘されています。 [2305.17493] The Curse of Recursion: Training on Generated Data Makes Models Forget https://doi.org/10.48550/
米Google傘下のGoogle Cloudは6月8日(現地時間)、機械学習(ML)プラットフォーム「Vertex AI」での生成AIサポートを一般に提供すると発表した。日本でも既に利用できるようになっている。 Vertex AIは、MLモデルやAIアプリのトレーニングやデプロイができるプラットフォーム。3月15日から一部のテストユーザーに先行提供されていた。 その機能の一部として、GoogleのLLM「PaLM 2」や文章から画像を生成する拡散モデル「Imagen」などを利用できる。 これらのモデルはVertex AIのモデル集「Model Garden」に含まれる。ユーザーは、これらのモデルを使ってChatGPTのようなチャットbotやセマンティック検索ツールなどの生成AIアプリを構築できる。 Model Gardenには現在60以上のモデルが登録されている。コード補完や生成のための新
ChatGPTの基本からその構造、教育利用を検討する際の注意点、具体的な活用法などを解説した講座。 「教育機関などの勉強会、研修などでご活用ください」と呼び掛けており、利用の際に事前の連絡は不要という。 関連記事 「東大生や教員は、生成系AIにどう対応すべきか」東大副学長が声明 「組換えDNA技術に匹敵する変革」 「東京大学の学生や教職員が生成系AIに対してどのように向き合うべきか」――東京大学副学長の太田邦史教授が声明。 「GPT-4」搭載ChatGPTに東大入試数学を解かせてみた GPT-3.5との回答の違い、点数は? AIチャットbot「ChatGPT」「新しいBing」に、人間には答えにくい質問や、答えのない問い、ひっかけ問題を尋ねてみたらどんな反応を見せるのか。それぞれの反応からAIの可能性、テクノロジーの奥深さ、AIが人間に与える“示唆”を感じ取ってほしい。 東大松尾教授が答え
リアルタイムでおっさんから美女の映像を作り出すAI実験が、「す、すごすぎる!」「ライブでしたらだまされるレベル」と話題になっています。 す、すげーーー! 実験をしているのは、3DアーティストのHirokazu Yokoharaさん(@Yokohara_h)。Twitterに変換前後の映像を並べた動画を投稿しました。 その結果は驚くべきもの。動きが少々カクカクしているものの、Web会議を通じてであれば本物と信じてしまいそうなレベルです。 動作はもちろん、表情も追従。さらに顔だけでなく体形まで女性らしくなっています。髪形は、黒いTシャツをかぶることでロングヘアに変換させました。Tシャツの柄などがときどき変わってしまうので、よく見ていればおかしいと思えますが、ボーッと見ていたらわからないでしょう。ましてや、中身がおっさんなんて絶対に思えない! 黒いTシャツをかぶり、ロングヘアーを再現させました
アメリカ在住のアーティストであるカーラ・オルティス氏が、自身の取材を受け、16日に放送された『news zero』(日本テレビ系)に対し、ツイッターで抗議している。 問題となっているのは、『news zero』で取り上げた画像生成AIについての特集。オルティス氏はAIが許諾を得ずに自身の作品を学習したとして、画像生成サービスの会社を集団提訴しているアーティストの1人。番組の取材に対し、AIに「搾取され悪用された」と訴えていた。 しかし、番組ではスタッフが、オルティス氏の作品とAIが出力した作品の2つをパネルに並べ、街頭インタビューで一般人に「どちらが好みかどうか」と聞く一幕が。多くの人が「AIの方が好き」という結果になったことを放送していた。 >>スシローSNS、理不尽に炎上? 投稿したAI画像にイラストレーターらから批判、同情の声<< この放送を受け、オルティス氏は23日にツイッ
画像生成AI「StableDiffusion」の進化が止まりません。昨年8月にオープンソースとしてリリースされてから、世界中のプロアマ問わず多数の人たちが様々な研究成果を反映させ、毎日と言っていいほど新機能を誰かが発表するという状況が起きています。 StableDiffusion登場当初は、画像の品質のランダム性が高く、構図やポーズなどを指定できないという弱点を抱えていました。1枚の画像をもとに画像を生成する「i2i(image2image)」である程度コントロールすることはできても、「キャラクターに特定のポーズをとらせる」といったことは非常に難しかったんですね。 その状況を一変させる新機能が今年2月に登場しました。その名も「ControlNet」。プロンプトによる制約を克服するための、とてつもないポテンシャルを持つ技術でした。Stable Diffusionに次ぐ「2度目の炸裂」と言って
","naka5":"<!-- BFF501 PC記事下(中⑤企画)パーツ=1541 -->","naka6":"<!-- BFF486 PC記事下(中⑥デジ編)パーツ=8826 --><!-- /news/esi/ichikiji/c6/default.htm -->","naka6Sp":"<!-- BFF3053 SP記事下(中⑥デジ編)パーツ=8826 -->","adcreative72":"<!-- BFF920 広告枠)ADCREATIVE-72 こんな特集も -->\n<!-- Ad BGN -->\n<!-- dfptag PC誘導枠5行 ★ここから -->\n<div class=\"p_infeed_list_wrapper\" id=\"p_infeed_list1\">\n <div class=\"p_infeed_list\">\n <div class=\"
Bard は、ジェネレーティブ AI を活用してユーザーをサポートする Google の試験運用中のサービスです。旅行プランの案を出したり、ブログ記事の構成案を作成したりと、英語での公開から 2 か月弱の間に、すでに多くのユーザーに様々な方法でお使いいただいています。 そして、本日より Bard が日本語でも利用できるようになりました。「おいしい卵焼きを作るためのコツを教えて」や「夏休みの自由研究のアイデアを出して」など、 創造性と生産性を高めるパートナーとして、 bard.google.com から、Bard をぜひお試しください。 Bard とは Bard は、Google の大規模言語モデル( LLM : Large Language Model )である PaLM 2 を利用しています。LLM は言語のパターンを拾い上げること、それを使って文章の中で次に来る確率の高い単語を予測する
機械学習における過学習(過剰適合/オーバーフィッティング)とは、AIが学習データのみに最適化されてしまい、未知のデータに対する予測能力が低くなってしまうという現象です。そんな過学習と同様の現象が機械学習分野だけでなく社会全体のさまざまな場面でも発生していると、Google傘下の人工知能研究所・Google Brainの研究者であり近年の画像生成AIに広く用いられている「拡散モデル」の論文執筆者でもあるJascha Sohl-Dickstein氏が主張しています。 Too much efficiency makes everything worse: overfitting and the strong version of Goodhart’s law | Jascha’s blog https://sohl-dickstein.github.io/2022/11/06/strong-Go
Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。Twitter: @shiropen2 IBM Research、Samsung AI、米メリーランド大学、米ミネソタ大学、米コロンビア大学に所属する研究者らが発表した論文「Combining data and theory for derivable scientific discovery with AI-Descartes」は、データと理論を与えると一般的な論理的公理によって表現された事前知識を尊重しながら、データを正確に記述する意味のある最も適した数式を導き出すシステムを提案した研究報告である。 データによく合う方程式の候補を作成し、どの方程式が背景となる科学理論に最も適合するかを識
先日、データ解析のセミナーを開催しました。 未経験の方でも、2時間で予測モデルを作成することができるハンズオンセミナーでした。 好評だったので、その内容をYouTubeにまとめたのでご興味ある方はご覧ください。 このハンズオンセミナーで予測モデルの作り方を知った友人がchatGPTにアドバイスをもらって、データサイエンスのコンペティションサイトに応募したところ、上位6.5%に入ることができたという報告を受け、驚愕しました。 chatGPTを上手く使えば素人がプロに勝つことも十分できるのだなと実感しました。 友人が参加したデータサイエンスのコンペは、SIGNATEの糖尿病予測問題でした。 以下のような進め方をしたとのことでした。 まず、問題の概要を説明して、どのように進めていけば良いかを確認したそうです。 そうすると、chatGPTからデータサイエンスの問題を解くための手順を一覧化してくれて
昨年末から急激に話題を呼んだChatGPT、その内部的なバージョンアップであるGPT-3.5とGPT-4はいずれもMicrosoftから強力な支援を受けた米OpenAIという企業が独占的に提供する大規模言語モデル(LLM)だ。 それに呼応するかのように、Meta社からはLLaMA(ラマ)がリリースされ、LLaMAをChatGPTとの1万3千回の会話データで微調整したAlpaca(アルパカ)、AlpacaをShareGPT(GPTとの会話を有志がオープンにしたもの)のデータで微調整したVicuna(ビクーニャ)といった派生モデルが次々と登場した。 しかし、LLaMAはMeta社の意向により「アカデミック用途限定」という縛りがある。またGPTの出力にはOpenAIの利用規定で「GPTの出力結果を元にGPTに対抗できる強力なAIを作ってはいけない」という制約があるため、AlpacaもVicuna
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く