「Dream by WOMBO」というアプリに描いてもらいました
AIベンチャーのラディウス・ファイブ(東京都新宿区)は7月29日、AIを使って写真からアニメ用の美術背景を生成するサービス「Anime Art Painter」を始めた。写真をアップロードするだけでアニメ風の背景に変換できる。1枚の画像から4種類の背景を30秒程度で生成する。背景の生成は無料だが、画像のダウンロードは有料で料金は480円から。 大まかには、ディープラーニングを使い、写真のテクスチャ(質感)を簡略化。アニメやイラストに使われるような画風に変換する仕組みという。建物や夜景、山などの自然物、近距離で撮影した物体、屋内の背景など、物体に応じてテクスチャの変換や色合いを調整するという。生成される4種類の画像は、アニメでよく使われるような水彩風の絵を2種類と、べた塗りに近いアニメ風の絵が2種類。 同社は現在のアニメ業界について「制作が2年待ちといわれるほど行き詰まっている」と指摘する。
当たり前ですが、2次元のキャラクターは差分の画像がなければ、服を脱ぐことはできません。しかし、hobosoreさんの開発した「剥ぐやつ」を使えば、AIによる画像処理で2次元の服を脱がせることができます。どんな感じで脱がすことができるのか、実際に使って試してみました。 剥ぐやつ https://domainboy.site/ サイトにアクセスするとこんな感じ。右下のフォルダアイコンをクリックして、脱がしたい画像をアップロードします。 アップロードするとこんな感じ。今回はサイトで用意されているイラストを利用してみました。 左下のブラシアイコンを選択し、画像の上から脱がせたい服の部分を上から塗りつぶします。マスクをかけおわったら、右下にある保存アイコンをクリックします。 ポップアップが表示されるので「OK」をクリック。 「OK」をクリック。 30秒ほど待つと、画像が保存できます。 出力された画像
これ、作者の人や一部の人は「明らかにおかしい(botによって参考画像に寄せる攻撃が行われている)」と判断してるけど、素直に信じてる人が結構いるのが興味深い https://t.co/2rRPCHurkO
2021.02.16 「私はロボットではありません」はワンクリックでなぜ人間を判別できる? 仕組みとその限界を聞いてきた WebサイトにIDとパスワードを入力するとき、ときどき「私はロボットではありません」にチェックを求められることがあります。 僕はロボットではないので、当然チェックを入れて認証を進めるわけですが……。でもちょっと待ってください。なぜクリックひとつで、人間かロボットかを判断できるんでしょう。 これはきっと、人間ではないなんらかの不正アクセスを防ぐ仕組みのはず。でもチェックを入れるくらい、プログラムを作ってなんやかんやすれば、シュッとできるのでは? 「私はロボットではありません」は、どんな仕組みで人間とロボットを判別しているのか。もっといい方法はないのか。これまでの歴史的経緯も含め、情報セキュリティ大学院大学の大久保隆夫教授に聞きました。 気づかないうちに「人間かロボットか」
人間に近づいた時、AIに起こる問題 現在の機械に睡眠は必要ありません。 パソコンにはスリープ機能がありますが、これは別に機械に睡眠が必要なわけではなく、単に電気代節約のための機能です。 では、省エネ目的以外に機械が眠る必要とは何なのでしょうか? その変化は、生体脳を模倣したAIシステムが、私達の生活を1日中支援している機械に組み込まれたとき起きると考えられています。 この可能性はある実験中に発覚しました。 ロスアラモス国立研究所では、人間の学習行動を厳密にシミュレーションした神経ネットワークを開発し、それがどのように動作するか調査していました。 このシミュレーションで確認していたのは、見たものを学習するという行為についてです。 たとえば、子どもに見た目の異なる動物をグループ化させるという作業をさせた場合、知らない動物であってもライオンとペンギンを別のグループに分類します。 こうした見たもの
小猫遊りょう(たかにゃし・りょう) @jaguring1 毎日、数学をやっています。抽象度の高い数学が好きで、公理的集合論や数理論理学、圏論に興味があるけど、もっと具体的で実用的な数学も好きです。AI技術と、それがもたらす社会的影響についてよく考えていますが、基本的にテクノロジー全般の最新動向に興味があります。良さげな講義動画を見つけたら、ツイートするようにしてます。 小猫遊りょう(たかにゃし・りょう) @jaguring1 うおぉ、、新年早々、超激ヤバなニューラルネットをOpenAIが2つ発表してきた(DALL-EとCLIP)。視覚データとテキストの両方を用いたAIシステムで、DALL-Eは、テキストで説明すると、それっぽい画像を生成。こんなの創造性以外の何者でもない。テキスト+画像版GPT-3っぽい openai.com/blog/tags/mult… pic.twitter.com/
人工知能(AI)を研究する非営利団体のOpenAIが、自然言語処理と画像生成を組み合わせたAI「DALL・E」を発表しました。DALL・Eは人間と見分けが付かないほど高精度な文章を生成するAI「GPT-3」のパラメータを使用し、文章からイラストや写真を作り出すことができます。 DALL·E: Creating Images from Text https://openai.com/blog/dall-e/ OpenAI debuts DALL-E for generating images from text | VentureBeat https://venturebeat.com/2021/01/05/openai-debuts-dall-e-for-generating-images-from-text/ OpenAIの公式ブログでは、実際に「DALL・Eに入力したテキスト」と「DA
人工知能を研究している非営利団体OpenAIが開発した言語モデル「GPT-3」を使用して、何者かが海外掲示板のRedditに1週間近く投稿を続けていたことが分かりました。GPT-3による投稿は、最終的に開発者の手によって停止されましたが、発覚するまでの間GPT-3は誰にも気付かれることなく、Redditユーザーと言葉を交わしていたと報じられています。 kmeme: GPT-3 Bot Posed as a Human on AskReddit for a Week https://www.kmeme.com/2020/10/gpt-3-bot-went-undetected-askreddit-for.html Someone let a GPT-3 bot loose on Reddit — it didn’t end well https://thenextweb.com/neural
著者のCaleb Kaiser氏は、エンジェル投資家とスタートアップを志望する求職者のためのWebサイトを運営するAngelListに勤務した後、機械学習向け開発環境Cortexの開発に携わっています。同氏がMediumに投稿した記事『ディープラーニングはもう難しくない』では、近年、機械学習アプリの開発の敷居が低くなっていることとこの事実から導かれる帰結が論じられています。 機械学習とディープラーニングが活用されるようになった第三次AIブームが始まった数年前においては、AIモデルの開発には大規模な学習データ、巨大なアーキテクチャ、そして多額の資金が必要だったため、Googleのような資本力のある企業しか開発できませんでした。 こうしたなか、AI開発の敷居を下げる技術が登場しました。その技術とは、事前学習済みのAIモデルを特定の目的に最適化する転移学習です。転移学習を使えば大規模な学習データ
16 frames --> 128 frames たとえドット絵でも、綺麗にフレーム補間してくれる(8倍て!)。AI怖い。 https://t.co/1EbhIyyJDo
個人的にはこの技術、賛成寄りなんだけどね。 どんな形でもいいから、フレディの声が聴きたいんだよ。ボヘミアン・ラプソディでガチ泣きしたよ。 嫌だ、冒涜だ、って言ってる人達は何が嫌なんだろうなって思って、思いつく限りの理由をあげてみた。 亡くなった人の声を合成して歌わせた同じように亡くなってる方の合成音声って、知ってる限り、植木等さんと三波春夫さんとhideさん、後は淀川長治さんがいたはず。 多分今回のパターンと近いのは三波さんかな。 植木さんのは息子さんの声が元になってるからいいの? hideさんの「子 ギャル」の時も騒がれたような気がするけど、生前の声との合わせ技だったからまだ良かったの? 淀川さんは言葉を繋ぎ合わせた喋りだったからいいの? 三波さんのは娘さんがGOサイン出した上、合成音声は3DCGも含めて無料配布だったはずだよ? 名前がAI美空ひばりだからもしかしたら、ここなのかな? h
「本当にすごい」「感動してしまった」――9月29日にNHK総合で放送されたドキュメンタリー番組「NHKスペシャル AIでよみがえる 美空ひばり」に対し、Twitter上では絶賛する声が上がっている。同番組では、AI技術を用いて歌手の故・美空ひばりさんの歌声を再現。CG映像の美空ひばりさんが、新曲「あれから」を観客の前で披露し、Twitterでは「美空ひばり」がトレンド入りした。 歌声の再現には、ディープラーニング(深層学習)を活用したヤマハの歌声合成技術「VOCALOID:AI」を使用。生前の歌唱データから、AIに歌声や歌い方、話し方の癖などを学習させ、本人が歌ったことのない曲でも本人らしく歌えるようチューニングを繰り返した。 番組では、美空さんの等身大立体映像を4Kでステージ上に投影。作詞家の秋元康さんが手掛けた新曲「あれから」を披露した。衣装デザインは生前に美空さんの衣装を担当していた
言葉で伝えた動きがアニメーションになったら動画制作はがぜん楽になるだろう。将来的にはAIがこれを実現してくれるかもしれない。 文章をアニメーションに変換する技術の第一歩として、このほどカーネギーメロン大学(CMU)の研究チームが、シンプルな文章で棒人間を動かすことに成功したようだ。 研究を積み重ねることで、脚本からアニメ映画ができる…というような複雑な変換も可能になるかもしれない。・注釈と動きの関連を学習研究チームは、動きを表す文章を単純なアニメーションに変換できるコンピューターモデルを開発した。 Joint Language-to-Pose(JL2P)というニューラルアーキテクチャを使用。JL2Pでは、言葉と動きを一緒に埋め込み、その関連を学習させられる。 たとえば、「人が走りながら障害物を飛び越える」という文章では、「走りながら」といった動きの速度を表す言葉が入っていたり、「障害物を」
Search, watch, and cook every single Tasty recipe and video ever - all in one place! News, Politics, Culture, Life, Entertainment, and more. Stories that matter to you. 「コピペできるようになったら神→対応しました」Google、驚異のリアルタイム文字変換の進化2月にβ版がリリースされたGoogle製の音声文字変換(Live Transcribe)アプリ。もともと聴覚障害者のために作られたアクセシビリティ機能だが、精度の高さから文字起こしとしても使えるのではないかと話題だ。来日中のプロダクトマネージャー、ブライアン・ケムラー氏に話を聞いた。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く