並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 224件

新着順 人気順

Meta AIの検索結果1 - 40 件 / 224件

  • 無料で商用可、ChatGPT(3.5)に匹敵する生成AI「Llama 2」 Metaが発表、Microsoftと優先連携

    米Metaは7月18日(現地時間)、大規模言語モデル「Llama 2」を発表した。利用は無料で商用利用も可能としている。最大サイズの700億パラメーターモデルは「ChatGPT(の3月1日版)と互角」(同社)という。 ダウンロードには、Metaが用意するフォームから名前とメールアドレス、国、組織名を入れ、利用規約に同意した旨を送信する。Metaが受理すると専用URLが送られてくるため、同社がGitHubで公開しているダウンロード用のスクリプトと合わせるとLlama 2の各モデルをダウンロードできるようになる。 モデルサイズは70億、130億、700億パラメーターの3種類があり、それぞれベースモデルとチャット向けに追加学習(ファインチューニング)したモデルを用意する。いずれも4096トークン(おおよそ単語数の意)まで文脈を読める。 性能は、Llama-2-70b-chat(700億のチャット

      無料で商用可、ChatGPT(3.5)に匹敵する生成AI「Llama 2」 Metaが発表、Microsoftと優先連携
    • なりすまし詐欺広告と“誤認”か 「ホリエモンAI学校」、Metaに広告アカウントを凍結される 運営会社は「ずさん」と苦言

      ホリエモンAI学校は、ChatGPTを使った自動化ツールの作成やPythonのプログラミングなどを学べるオンラインスクール。堀江貴文さんをプロデューサーに迎え、今年1月に開校した。 なりすまし詐欺広告は、著名人の写真や名前を無断で使い、投資などを促すというもの。ZOZO創業者で起業家の前澤友作さん、実業家の堀江貴文さんら多くの著名人が、FacebookやInstagram上で、なりすましの被害に遭っている。両SNSを運営するMetaは4月16日に対策に関する声明を公表したものの、その内容が不十分として「(Metaに)行政処分を出すべき」(前澤さん)など非難する声が上がっている。 関連記事 “なりすまし詐欺広告”に対するMetaの声明に前澤友作さんら怒り心頭 「行政処分を出すべき」 著名人の写真や名前を使って投資などを促す詐欺広告の問題で、FacebookやInstagramを運営する米Me

        なりすまし詐欺広告と“誤認”か 「ホリエモンAI学校」、Metaに広告アカウントを凍結される 運営会社は「ずさん」と苦言
      • AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】

        TOPコラム海外最新IT事情AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】 AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】 2024年1月23日 米Metaと米ニューヨーク大学に所属する研究者らが発表した論文「Self-Rewarding Language Models」は、大規模言語モデル(LLM)が自分自身に報酬を与えることで繰り返し学習する「自己報酬型言語モデル」を提案した研究報告である。このモデルは、自身が生成した問題に対する応答に報酬を割り当て、その結果をトレーニングデータとして使用。自己を反復して訓練することで、精度を向上させられる。 keyboard_arrow_down 研究背景 keyboard_arrow_down 研究内容

          AIが自分自身に報酬を与えて進化する「自己報酬型言語モデル」 米Metaなどが開発、実験でGPT-4を上回る【研究紹介】
        • Meta、新音声生成AIモデル「Voicebox」 短い音声から自在に声を生成

            Meta、新音声生成AIモデル「Voicebox」 短い音声から自在に声を生成
          • Meta AI

            Use Meta AI assistant to get things done, create AI-generated images for free, and get answers to any of your questions. Meta AI is built on Meta's...

              Meta AI
            • 「オープンソースは脅威」「勝者はMeta」「OpenAIは重要ではない」などと記されたGoogleのAI関連内部文書が流出

              2022年から2023年にかけて、OpenAIが「GPT-4」を、Metaが「LLaMA」を、Stability AIが「StableLM」を発表するなど、大規模言語モデル(LLM)の開発競争が1年間で激化しました。同様に大規模言語モデルの「LaMDA」を開発してしのぎを削ろうとするGoogleが、競合他社を分析し、オープンソースの脅威について詳細を記した内部資料が、Discordの公開サーバーから流出しました。 Google "We Have No Moat, And Neither Does OpenAI" https://www.semianalysis.com/p/google-we-have-no-moat-and-neither 対話型AIの知名度を爆発的に高めた「ChatGPT」を開発するOpenAIは、対話型AIの分野で頂点に立っているとも分析できますが、Googleは「G

                「オープンソースは脅威」「勝者はMeta」「OpenAIは重要ではない」などと記されたGoogleのAI関連内部文書が流出
              • Make-A-Video by Meta AI

                Make-A-Video is a state-of-the-art AI system that generates videos from text. Make-A-Video research builds on the recent progress made in text-to-image generation technology built to enable text-to-video generation. The system uses images with descriptions to learn what the world looks like and how it is often described. It also uses unlabeled videos to learn how the world moves. With this data, M

                  Make-A-Video by Meta AI
                • Metaが日本語音声を入力するだけで「文字起こし」「翻訳」「吹き替え」を実行できるAI「SeamlessM4T」を公開、英語や中国に翻訳可能で無料で使えるデモも公開されたので使ってみた

                  Metaが音声を入力するだけで「文字起こし」「別言語への翻訳」「別言語への吹き替え」を実行できるAI「SeamlessM4T」を2023年8月22日(火)に公開しました。SeamlessM4Tは日本語音声の入力にも対応しており、日本語・英語・中国語・フランス語などを含む35言語への出力をサポートしているとのこと。誰でも使えるデモも公開されていたので、実際にデモを使ってどれだけの精度で文字起こしや吹き替えを実行できるのか試してみました。 Introducing SeamlessM4T, a Multimodal AI Model for Speech and Text Translations | Meta https://about.fb.com/news/2023/08/seamlessm4t-ai-translation-model/ Introducing a foundationa

                    Metaが日本語音声を入力するだけで「文字起こし」「翻訳」「吹き替え」を実行できるAI「SeamlessM4T」を公開、英語や中国に翻訳可能で無料で使えるデモも公開されたので使ってみた
                  • Meta、音声生成AIモデル「Voicebox」発表 ノイズ除去や言い間違い修正、多言語会話など多機能

                    Meta、音声生成AIモデル「Voicebox」発表 ノイズ除去や言い間違い修正、多言語会話など多機能 米Metaは6月16日(現地時間)、新たな音声生成AIモデル「Voicebox」を開発したと発表した。音声の編集、サンプリング、スタイルの設定などを行える。 音声とテキストを入力することで、以下のような音声を出力できる。 入力した声で入力したテキストを読み上げる音声クリップを作成する 録音した音声から犬の鳴き声やブザー音などのノイズを除去する 録音した音声の言い間違いを修正する 1つの言語のスピーチを同じ声のまま別の言語に変換する(英語の音声を仏語に、など) 1つのテキストを多様な声で読み上げる Metaは、Voiceboxで将来的にはメタバース内のバーチャルアシスタントやNPC(ノンプレイヤーキャラクター)が自然な声で話せるようになるとしている。また、自分の声のまま(本来は話せない)外

                      Meta、音声生成AIモデル「Voicebox」発表 ノイズ除去や言い間違い修正、多言語会話など多機能
                    • Meta、テキストから音楽を生成するAIツール「AudioCraft」を発表

                      Meta Platformsは米国時間8月1日、テキストから「質の高いリアルな」音楽を生成できる生成人工知能(AI)ツール「AudioCraft」を発表した。 AudioCraftは、Metaの3つの生成AIモデル、「MusicGen」「AudioGen」「EnCodec」で構成されている。MusicGenとAudioGenは、いずれもテキストからサウンドを生成するもので、MusicGenは音楽を、AudioGenは特定の音や効果音を生成する。 「HuggingFace」で公開されているMusicGenにアクセスすれば、デモを再生できる。プロンプトには、聴きたいと思うあらゆる時代のあらゆる種類の音楽を記述できる。Metaは、「バックグラウンドでドラムとシンセサイザーが強く響く、80年代風の迫力あるポップソング」などの例を公開している。 Today we’re sharing details

                        Meta、テキストから音楽を生成するAIツール「AudioCraft」を発表
                      • Metaが音楽生成AIモデルをオープンソースで公開、テキスト&音声入力で誰でも高品質な音楽を作成できるように

                        Metaの研究チームが音楽を生成するAIモデル「MusicGen」を公開しました。オープンソースでの公開となっているため誰でも無料でモデルを利用できるほか、作例やデモが公開されており、その品質を実際に確かめることが可能になっています。 [2306.05284] Simple and Controllable Music Generation https://doi.org/10.48550/arXiv.2306.05284 MusicGen: Simple and Controllable Music Generation https://ai.honu.io/papers/musicgen/ MusicGenはChatGPTなどの大規模言語モデルと同様にTransformerを利用したモデルです。言語モデルは文の次の言葉を予測しますが、MusicGenは音楽の次のセクションを予測する仕組

                          Metaが音楽生成AIモデルをオープンソースで公開、テキスト&音声入力で誰でも高品質な音楽を作成できるように
                        • 対話AI「ChatGPT」にそれほどの革新性はない--Metaのチーフサイエンティスト

                          OpenAIが開発した「ChatGPT」について、大きな可能性を期待する声がこのところ相次いでいる。ChatGPTは、人間の問いかけに応じて自然言語で対話ができる人工知能(AI)プログラムだ。 多くの人がChatGPTプログラムに新しさを感じ、唯一無二のものに違いないとして高い関心を抱いている。 だが、AIの研究者らは、そういう考えに異を唱えている。 「根底にある技術という点で、ChatGPTは特に革新的なものではない」と、MetaでチーフAIサイエンティストを務めるYann LeCun氏は米国時間1月19日、少数の報道関係者や企業幹部が参加した「Zoom」会議で語った。 LeCun氏は次のように述べた。「革新的なところは何もないが、世間ではそのように受け取られている」「まとめ方がうまいというだけであり、その点では見事だ」 同氏によれば、このようなデータ駆動型のAIシステムは、これまでにも

                            対話AI「ChatGPT」にそれほどの革新性はない--Metaのチーフサイエンティスト
                          • Meta、マルチモーダルAI「ImageBind」をオープンソース化

                            米Metaは5月9日(現地時間)、マルチモーダルな情報をバインドするAIモデル「ImageBind」をオープンソース化したと発表した。 「マルチモーダル」は複数の「モダリティ」の処理が可能であることを示す。モダリティは、データの種類。ImageBindは、テキスト、画像および動画、音声、深度(3D)、熱(赤外線)、慣性測定単位(IMU)という6種類のモダリティの情報を単一の表現空間で学習する。 例えば、トラの写真を解析し、その吠え方、体温、動きなどの総合的な情報を生成したり、にぎやかな市場の音に基づいて市場の画像を生成したりできるという。 ImageBindは、モダリティの組み合わせごとのデータのトレーニングが不要で、複数のモダリティにわたって結合埋め込み空間を作成できる。 例えば、研究用に交通量の多い都市の道路からの音声データと熱データを1つのデータセットにすることも可能だ。 3Dセンサ

                              Meta、マルチモーダルAI「ImageBind」をオープンソース化
                            • Meta、テキストプロンプトで作曲できる生成AIスイート「AudioCraft」をオープンソース化

                              米Metaは8月2日(現地時間)、テキストプロンプトから音楽や音声を生成する生成AIツールスイート「AudioCraft」をオープンソース化したと発表した。トレーニングに使うデータの多様化もオープンソース化のねらいの1つだ。 AudioCraftは、エフェクトやサウンドスケープを生成する「AudioGen」、テキストからメロディーを生成する「MusicGen」、ニューラルネットワークベースのオーディオ圧縮コーデックの「EnCodec」の3つのコンポーネントで構成されている。MusicGenは単体で6月にオープンソース化されている。EnCodecは昨年11月に公開済みだが、最近の改良でより高品質な音楽生成が可能になったという。 MusicGenは、Metaが所有する音楽と、「この目的のために特別にライセンスを取得した音楽」をあわせて2万時間分のデータでトレーニングしたとしている。 Metaは

                                Meta、テキストプロンプトで作曲できる生成AIスイート「AudioCraft」をオープンソース化
                              • 無料でキャラクターイラスト1枚からぬるぬる動くアニメーションを作成するAI「Animated Drawings」をMeta AIがリリース

                                Metaの人工知能(AI)研究所であるMeta AIのFundamental AI Research(FAIR)チームは、手描きのキャラクターをアニメーションに変換するオープンソースプロジェクト「Animated Drawings」を2023年4月14日にリリースしました。Animated Drawingsは無料でブラウザから体験することができ、頭と体と手足がハッキリしていれば、かなり雑な落書きでも超簡単に動かすことができます。また、Animated Drawingsはオープンソースで公開されているため、GitHubからダウンロードしてより詳細なオプションを設定することも可能です。 Animated Drawings https://sketch.metademolab.com/ First-of-its-kind open source project brings your anima

                                  無料でキャラクターイラスト1枚からぬるぬる動くアニメーションを作成するAI「Animated Drawings」をMeta AIがリリース
                                • AIが「言語生成AIとの対話」で賢くなり続ける自動成長モデル 米Meta含む研究者らが開発

                                  AIが「言語生成AIとの対話」で賢くなり続ける自動成長モデル 米Meta含む研究者らが開発:Innovative Tech 米Metaやカナダのマギル大学などに所属する研究者らは、環境と直接対話せずに大規模言語モデル(LLM)からのフィードバックを用いてAIエージェントを強化学習で訓練する手法を提案した研究報告を発表した。

                                    AIが「言語生成AIとの対話」で賢くなり続ける自動成長モデル 米Meta含む研究者らが開発
                                  • Metaがコード生成AI「Code Llama」発表、無料で商用利用可能

                                    米Meta(メタ)は米国時間2023年8月24日、プログラムのソースコードを生成するAI(人工知能)「Code Llama」を公開した。同社の大規模言語モデル(LLM)「Llama 2」をベースとした生成AIで、Llama 2と同様に無料で商用利用可能なツールとして提供する。 自然言語によるプロンプト(指示)に従ってコードを生成するほか、入力したコードをデバッグする機能も備える。PythonやC++、Java、PHP、Typescript、Javascript、C#、Bashなど、一般的に使用される多くのプログラミング言語に対応する。 3つのパラメーターサイズのモデルを提供する。パラメーター数はそれぞれ70億、130億、340億で、いずれも5000億トークン(おおよその単語数)のコードとコード関連データでトレーニングされているという。サイズの小さい70億と130億のモデルは、リアルタイム性

                                      Metaがコード生成AI「Code Llama」発表、無料で商用利用可能
                                    • MetaがAI強化のため「訴えられてもいいから著作権で保護された作品をかき集めよう」と議論していたとの報道

                                      Metaの幹部と弁護士が「訴訟リスクをふまえてでも著作権保護コンテンツをAIトレーニングに使用することを検討していた」ことを、秘密会議の記録をもとにThe New York Timesが報じました。 Four Takeaways on the Race to Amass Data for A.I. - The New York Times https://www.nytimes.com/2024/04/06/technology/ai-data-tech-takeaways.html Tech giants: How tech giants cut corners to harvest data for AI - The Economic Times https://economictimes.indiatimes.com/tech/technology/how-tech-giants-c

                                        MetaがAI強化のため「訴えられてもいいから著作権で保護された作品をかき集めよう」と議論していたとの報道
                                      • MetaのLlama 3を日本語でさらに学習したAIモデル、rinnaが公開

                                          MetaのLlama 3を日本語でさらに学習したAIモデル、rinnaが公開
                                        • Metaが既存の生成AIにあるトークン制限をはるかに上回る100万トークン超のコンテンツ生成を可能にする次世代AIアーキテクチャ「Megabyte」を発表

                                          MetaのAI研究チームが、100万トークンを超えるテキストや画像、オーディオ形式などのコンテンツを生成できる可能性を持つ「Megabyte(メガバイト)」のアーキテクチャを提唱しました。GPT-4やBardなどのAIモデルの基盤となっているアーキテクチャは「Transformer」ですが、MegabyteをAIモデルに採用することで、より高度で熟練したAIモデルの開発が可能になるとMetaは主張しています。 [2305.07185] MEGABYTE: Predicting Million-byte Sequences with Multiscale Transformers https://doi.org/10.48550/arXiv.2305.07185 Meta AI Unleashes Megabyte, a Revolutionary Scalable Model Archit

                                            Metaが既存の生成AIにあるトークン制限をはるかに上回る100万トークン超のコンテンツ生成を可能にする次世代AIアーキテクチャ「Megabyte」を発表
                                          • Metaの画像生成AIは「アジア人男性と白人女性のカップル」をイメージできないという報告

                                            Metaは画像生成AI「Imagine」を無料で使えるウェブアプリ「Imagine with Meta AI」を公開しています。The Vergeの記者がこのImagine with Meta AIで「アジア人と白人のカップル」を生成しようと試みたものの、成功しなかったと報告しています。 Meta’s AI image generator can’t imagine an Asian man with a white woman - The Verge https://www.theverge.com/2024/4/3/24120029/instagram-meta-ai-sticker-generator-asian-people-racism 以下が実際にThe Vergeのミア・サトウ記者が生成した画像の例。「アジア人の男性と白人の女性」の組み合わせをプロンプトで指定していますが、男

                                              Metaの画像生成AIは「アジア人男性と白人女性のカップル」をイメージできないという報告
                                            • Meta、戦略ゲーム「ディプロマシー」をプレイできるAI「キケロ」を公開

                                              米Metaは11月22日(現地時間)、戦略ゲーム「ディプロマシー」で「人間レベルのパフォーマンスを達成したAI」、「CICERO」(ローマの政治家キケロにちなむとみられる)を発表した。オンライン版ゲームで人間と対戦し、人間のプレイヤーの平均スコアの2倍以上を達成し、上位10%にランキングされたとしている。 ディプロマシー(外交)は、プレイヤー同士で協力したり騙し合ったりして欧州全土の補給地を奪い合うゲーム。文字通り外交センスが問われる。他のプレイヤーの動きの動機や視点を理解し、複雑な計画を立て、相手の動きによって戦略を調整する必要があるため、AIにはほぼ不可能なゲームとみられてきたとMetaは説明する。 また、他のプレイヤーとの交渉には自然言語での会話が必要だ。 「AIがこれまで征服してきたチェスや囲碁とは異なり、ディプロマシーは駒ではなく人間が相手のゲームだ」(Meta) ヒューマンモデ

                                                Meta、戦略ゲーム「ディプロマシー」をプレイできるAI「キケロ」を公開
                                              • Metaの大規模言語モデル「LLaMA」がChatGPTを再現できる可能性があるとさまざまなチャットAI用言語モデルのベンチマーク測定で判明

                                                近年は機械学習分野の研究がめまぐるしい勢いで進んでおり、数十億を超えるパラメーターを持つ大規模言語モデルが相次いで発表されています。イギリス・エディンバラ大学の大規模言語モデル研究者であるヤオ・フー氏らの研究チームが、独自のベンチマークに基づいて複数の大規模言語モデルのパフォーマンスを比較した結果をGitHubで公開しています。 GitHub - FranxYao/chain-of-thought-hub: Benchmarking large language models' complex reasoning ability with chain-of-thought prompting https://github.com/FranxYao/chain-of-thought-hub 研究チームによると、「パラメーターが10B未満の言語モデルでも、OpenAIのGPT-3.5と同等のパ

                                                  Metaの大規模言語モデル「LLaMA」がChatGPTを再現できる可能性があるとさまざまなチャットAI用言語モデルのベンチマーク測定で判明
                                                • 1億3400万件のウェブページに基づくオープンソースのAIナレッジツール「Sphere」をMetaがリリース

                                                  Facebookの親会社であるMetaが、インターネット上に存在する膨大な情報を利用して、AIやその他のシステムが機能するためのナレッジベースを提供するためのAIツール「Sphere」を発表しました。 Introducing Sphere: Meta AI’s web-scale corpus for better knowledge-intensive NLP https://ai.facebook.com/blog/introducing-sphere-meta-ais-web-scale-corpus-for-better-knowledge-intensive-nlp/ How AI could help make Wikipedia entries more accurate https://tech.fb.com/artificial-intelligence/2022/07/

                                                    1億3400万件のウェブページに基づくオープンソースのAIナレッジツール「Sphere」をMetaがリリース
                                                  • Metaが日本語音声を入力するだけで文字起こしなどが可能なAI「SeamlessM4T」の改良版「SeamlessM4T v2」をリリース

                                                    Metaが2023年8月に公開したAI「SeamlessM4T」は、音声を入力するだけで文字起こしや別言語への翻訳、別言語への吹き替えが可能です。さらにMetaは2023年11月30日に、SeamlessM4Tの改良版となる「SeamlessM4T v2」を発表しました。この「SeamlessM4T V2」では、SeamlessM4Tのパフォーマンスを向上させているだけでなく、感情やスタイルを維持しながら、別の言語へ吹き替えを行うことも可能です。 Introducing a suite of AI language translation models that preserve expression and improve streaming https://ai.meta.com/blog/seamless-communication/ Seamless Communication T

                                                      Metaが日本語音声を入力するだけで文字起こしなどが可能なAI「SeamlessM4T」の改良版「SeamlessM4T v2」をリリース
                                                    • Meta、画像内アイテム識別のAIモデル「SAM」と大規模データセットを無償公開

                                                      米MetaのAI部門であるMeta AIは4月5日(現地時間)、画像内から個々のオブジェクトを選択できるAIモデル「SAM(Segment Anything Model)」(なんでもセグメントするモデル)をオープンライセンス(Apache 2.0)で公開したと発表した。 このモデルと共に、SAMのトレーニングに使われる大規模画像データセット「SA-1B」も公開した。このデータセットは、大手写真企業からの約1100万枚のライセンス画像と、そのセグメンテーションモデルで生成された11億枚以上のプライバシー保護された画像に基づくセグメンテーションマスクが含まれる。このマスク数は既存のセグメンテーションデータセットの400倍に相当するという。 セグメンテーションは、AIモデルが特定の画像内のオブジェクトを認識できるようにするコンピュータビジョンのタスク。正確なセグメンテーションには、強力なAIトレ

                                                        Meta、画像内アイテム識別のAIモデル「SAM」と大規模データセットを無償公開
                                                      • 膨大な科学知識から疑問に答える科学記事や講義ノートを作るAI「Galactica」をMetaの研究者が一般公開

                                                        Metaの研究者が、さまざまな疑問に対して答えを教えてくれる言語モデル「Galactica」をオープンソースとして一般公開しました。Galacticaは単に関連する話題の記事や論文のリンクを答えるのではなく、投げかけられた疑問に対する回答を生成し、その回答の生成に用いた論文の引用もしっかり提示した「オリジナルの科学記事や講義ノート」を作成することができます。 Galactica Demo https://galactica.org/ Galactica: A Large Language Model for Science (PDF)https://galactica.org/static/paper.pdf GitHub - paperswithcode/galai: Model API for GALACTICA https://github.com/paperswithcode/ga

                                                          膨大な科学知識から疑問に答える科学記事や講義ノートを作るAI「Galactica」をMetaの研究者が一般公開
                                                        • Meta、テキストや旋律から音楽を生成するAI「MusicGen」をオープンソース化 Hugging Faceでお試し可能

                                                          米Metaは6月9日(現地時間)、音楽生成LMの「MusicGen」を発表した。ディープラーニングによる音声処理と生成のためのライブラリ「Audiocraft」の一部として、GitHubでオープンソース化した。商用利用も可能だ。 曲のイメージをテキストプロンプトで入力することで音楽を生成できる。オプションで、mp3形式のメロディデータを追加することも可能だ。 MusicGenは、米Googleが2017年に発表した深層学習モデル「Transformer」をベースにした音楽生成モデル。Googleが1月に発表した「MusicLM」のような従来の類似モデルとは異なり、自己教師型でセマンティック表現が不要だ。 MusicGenのトレーニングには、1万件の高品質な音楽トラックの内部データセットと、ShutterStockとPond5の音楽データを利用した。2万時間分のライセンス音楽を使ったとしてい

                                                            Meta、テキストや旋律から音楽を生成するAI「MusicGen」をオープンソース化 Hugging Faceでお試し可能
                                                          • Metaがすべての言語をリアルタイムで翻訳するAI「バベルフィッシュ」を開発中

                                                            メタバース事業に注力するMetaが、あらゆる言語を瞬時に翻訳する独自AI「Babelfish(バベルフィッシュ)」を開発中であると発表しました。 Meta announces plans to build an AI-powered ‘universal speech translator’ - The Verge https://www.theverge.com/2022/2/23/22947368/meta-facebook-ai-universal-speech-translation-project Meta AI: company builds translation engine for the metaverse - Protocol https://www.protocol.com/bulletins/meta-ai-translation-metaverse-babelf

                                                              Metaがすべての言語をリアルタイムで翻訳するAI「バベルフィッシュ」を開発中
                                                            • Metaが写真に写っている物体を分離して選択できるAIモデル「Segment Anything Model」を公開

                                                              Metaが、画像や動画内に写っている個々のオブジェクトを、学習しなかったものまで識別できるAIモデル「Segment Anything Model(SAM)」を発表しました。 Segment Anything | Meta AI Research https://ai.facebook.com/research/publications/segment-anything/ Introducing Segment Anything: Working toward the first foundation model for image segmentation https://ai.facebook.com/blog/segment-anything-foundation-model-image-segmentation/ 画像やムービーを分割してセグメントごとに判別する「画像セグメンテーシ

                                                                Metaが写真に写っている物体を分離して選択できるAIモデル「Segment Anything Model」を公開
                                                              • 画像内のキャラを思うがままに抜群の精度で動かせる「Animate Anyone」、話した声をすぐに翻訳するMeta「Seamless」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                                                                2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 1週間分の生成AI関連論文の中から重要なものをピックアップし、解説をする連載です。第23回目は、AIアニメーションを次の段階に進ませる技術と大きな脚光を浴びた「Animate Anyone」、3D Gaussian Splattingを使った新しい3D応用技術など、生成AI最新論文の概要5つをお届けします。 生成AI論文ピックアップ画像内のキャラクターや写真内の人物を骨格動画に応じて動かせる「Animate Anyone」 アリババらが開発 話した言葉をリアルタイム翻訳できるシステムMeta「Seamless」 話し方や感情なども忠実に再現 リアルな動きを持つ高品質なアバターを生成するモデル「Animatable Gaussians」 写真から3D

                                                                  画像内のキャラを思うがままに抜群の精度で動かせる「Animate Anyone」、話した声をすぐに翻訳するMeta「Seamless」など重要論文5本を解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                                                                • Metaの無料AI画像生成ツール、試してみたら…こんな画像ができました | ライフハッカー・ジャパン

                                                                  4TBが9千円台だって。バッファローの静音HDDは在庫があるうちに回収しておこう【Amazonセール】

                                                                    Metaの無料AI画像生成ツール、試してみたら…こんな画像ができました | ライフハッカー・ジャパン
                                                                  • Meta、手書きキャラをアニメ化するAIツール「Animated Drawings」をオープンソースで公開

                                                                    米MetaのAI部門Meta AIのFAIRチームは、4月13日(現地時間)、手書きの絵をアニメーションに変換するAIツール「Animated Drawings」をオープンソースで公開した。クリエイターや開発者が、描画からアニメーション体験や製品を簡単に作成できるようにすることを目指す。 これは、FAIR が2021年に開発し、Web版をリリースした「Animated Drawings Demo」が基になっている。このデモは、コンピュータビジョンモデルを訓練するために必要な大量の描画とアノテーションを集める目的で公開したものだ。 Animated Drawings Demoは好評で、公開後数カ月で160万件以上の画像がアップロードされた。これらの画像は使用許可付きのものだ。そこで、FAIRはAnimated Drawings Demoで使用されているモデルとコードのオープンソース版をリリー

                                                                      Meta、手書きキャラをアニメ化するAIツール「Animated Drawings」をオープンソースで公開
                                                                    • OpenAIやMetaなどAI大手7社、米連邦政府に「責任あるAI開発」を“自主的に”約束

                                                                      米連邦政府は7月21日(現地時間)、AIを手掛ける7社の代表をホワイトハウスに招集し、AIの安全性、セキュリティ、透明性の高い開発に向けた取り組みを支援するため、これらの企業から自主的な取り組みを確保したと発表した。 サイバーセキュリティ対策やコンテンツがAIによって生成されたことをユーザーに示すための透かしへの投資などを約束するものだが、“自主的”なものであり、規制ではないので守れなくても責任は問われない。 主な内容は、Microsoftがまとめた以下の画像を参照されたい。 実際にホワイトハウスに集まった7社の代表は以下の通り。 OpenAI:グレッグ・ブロックマン社長 Microsoft:副会長兼プレジデントのブラッド・スミス氏 AlphabetおよびGoogle:グローバル担当社長のケント・ウォーカー氏 Anthropic:ダリオ・アモデイCEO Inflection AI:ムスタフ

                                                                        OpenAIやMetaなどAI大手7社、米連邦政府に「責任あるAI開発」を“自主的に”約束
                                                                      • テキストから音楽や効果音を生成するためのオープンソースなAIツール「AudioCraft」をMetaが発表

                                                                        近年はAI技術が急速に進歩しており、高精度なテキストや画像を生成するAIが登場しています。新たに、FacebookやInstagtramなどを運営するMetaが、テキストを基に音楽や効果音を生成するオープンソースのAIツール「AudioCraft」を発表しました。 AudioCraft: A simple one-stop shop for audio modeling https://ai.meta.com/blog/audiocraft-musicgen-audiogen-encodec-generative-ai-audio/ Meta releases AudioCraft AI tool to create music from text | Reuters https://jp.reuters.com/article/meta-platforms-ai/meta-release

                                                                          テキストから音楽や効果音を生成するためのオープンソースなAIツール「AudioCraft」をMetaが発表
                                                                        • MetaのザッカーバーグCEO、AGI開発宣言 「AIとメタバースは繋がっている」

                                                                          米Metaのマーク・ザッカーバーグCEOは1月18日(現地時間)、Threadsへの投稿で、同社の長期的なビジョンを、「general intelligence」の構築と、そのオープンソース化により、誰もが恩恵を得られるようにすることだと語った。 ザッカーバーグ氏がgeneral intelligenceとしているのは、米OpenAIや米GoogleがAGI(汎用人工知能)と呼ぶ、人間と同じような汎用的な知能を持つAIを指す。(本稿ではAGIとする。) ザッカーバーグ氏はこれを実現するために、2024年末までに米NVIDIAのHopper採用GPU「H100」を35万枚投入すると語った。 このデータセンターで、次期LLM「Llama 3」を「責任を持って安全にトレーニング」していくという。 同氏はまた、ユーザーが日常的にAGIを使うために、新たなデバイスを必要とすると語った。 「これにより

                                                                            MetaのザッカーバーグCEO、AGI開発宣言 「AIとメタバースは繋がっている」
                                                                          • Metaの大規模言語モデル「LLaMA」のトレーニングにも使用されたAIの学習用データセット「Books3」が削除される

                                                                            デンマークの著作権侵害対策グループ「Rights Alliance」が、約20万冊にも上る書籍のデータセット「Books3」を削除するよう、ホストする「The Eye」に対して要請し、データセットの削除が行われました。Books3はMetaの開発する大規模言語モデル「LLaMA」のトレーニングにも使用されたデータセットです。 Anti-Piracy Group Takes Prominent AI Training Dataset ''Books3' Offline * TorrentFreak https://torrentfreak.com/anti-piracy-group-takes-prominent-ai-training-dataset-books3-offline-230816/ Revealed: The Authors Whose Pirated Books Are P

                                                                              Metaの大規模言語モデル「LLaMA」のトレーニングにも使用されたAIの学習用データセット「Books3」が削除される
                                                                            • Metaが商用利用可能なコーディング支援AI「Code Llama」をリリース、Llama 2と同じライセンスで無料公開へ

                                                                              FacebookやInstagramを運営するMetaが、テキスト入力を元にプログラムのコードを生成するAI「Code Llama」をリリースしたと発表しました。モデルはLlama 2と同じ「Llama 2 Community License」で公開されており、月間アクティブユーザー数が7億人以下の場合は無償で商用利用することが可能です。 Introducing Code Llama, a state-of-the-art large language model for coding https://ai.meta.com/blog/code-llama-large-language-model-coding/ Introducing Code Llama, an AI Tool for Coding | Meta https://about.fb.com/news/2023/08/co

                                                                                Metaが商用利用可能なコーディング支援AI「Code Llama」をリリース、Llama 2と同じライセンスで無料公開へ
                                                                              • Metaが「テキストから画像」「画像からテキスト」の両方に1つのモデルで対応できる生成AI「CM3leon」を発表

                                                                                FacebookやInstagramといったSNSを開発するMetaの人工知能(AI)研究所であるMeta AIが、テキストから画像を生成したり、画像からテキストを生成したりすることができる単一のAIモデル「CM3leon(カメレオン)」を発表しました。 Introducing CM3leon, a more efficient, state-of-the-art generative model for text and images https://ai.meta.com/blog/generative-ai-text-images-cm3leon/ Introducing CM3leon, a first-of-its-kind multimodal model that achieves state-of-the-art performance for text-to-image

                                                                                  Metaが「テキストから画像」「画像からテキスト」の両方に1つのモデルで対応できる生成AI「CM3leon」を発表
                                                                                • [速報]マイクロソフト、Metaの最新大規模言語モデル「Llama 2 」をAzureとWindowsでサポート。独自の生成的AIを開発可能に

                                                                                  オープンソースで商用利用も可能な大規模言語モデル Llama 2はこのマイクロソフトの発表とほぼ同時にMetaが発表した最新の大規模言語モデルです。 オープンソースとして公開され商用利用も可能で、AI分野で高い実績を残してきたMetaが満を持して公開するモデルとして高い能力を備えていることが期待されています。 Llama 2はパラメータ数が7B、13B、70Bの3つのモデルに分かれており、Microsoft Azureではこの3つのモデルを現在パブリックプレビュー中のAzure AIモデルカタログから選択し、ファインチューニングし、デプロイが可能。 また、Windowsマシン上でもLlama 2が実行できるように最適化される予定です。 これらにより開発者は独自の生成的AIをMicrosoft AzureやWindows上で開発し、アプリケーションに組み込めるようになります。 マイクロソフト

                                                                                    [速報]マイクロソフト、Metaの最新大規模言語モデル「Llama 2 」をAzureとWindowsでサポート。独自の生成的AIを開発可能に