サインインした状態で「いいね」を押すと、マイページの 「いいね履歴」に一覧として保存されていくので、 再度読みたくなった時や、あとでじっくり読みたいときに便利です。
経歴だけは長いベテラン記者・編集者の松尾(マツ)と、幾つものテック系編集部を渡り歩いてきた山川(ヤマー)が、ネット用語、テクノロジー用語で知らないことをお互い聞きあったり調べたりしながら成長していくコーナー。交代で執筆します。 マツ 来ましたね。音声合成の時代が。 ヤマー 音声合成ソフト、昔から存在していて息が長い領域だと思ってたんですが、ここ最近立て続けに新作が発表されましたね。 1.6万円で商用利用も可 AI読み上げソフト「VOICEPEAK」登場 7音源付属、Win・Mac・Linuxに対応 無料で商用利用可なAI歌声合成ソフト「CeVIO Pro」近日公開へ Win・Mac対応 マツ 「VOICEPEAK」と「CeVIO Pro」、この2つの発表にはいくつかの共通点があるんですね。 ヤマー なるほど、読み上げと歌声の違いはありますが。 マツ 歌声合成と音声合成には共通する技術基盤が
ホロライブ所属の人気VTuberであるさくらみこさんの声を参考にAIによる音声合成を行い、さくらみこさん本人のツイートをそのまま読み上げる「棒読みこち」が公開されています。 さくらみこさんの声を参考にして作られた音声合成AI、棒読みみこち、生まれました‼️ みこちのツイートを、たまーに読み上げます‼️#miko_Art pic.twitter.com/QiQUvck4ME— 棒読みこち (@bouyomiko35) 例えば、以下のさくらみこさんのツイート。 ショーシャンクの空に みこが目の前が真っ暗になったら 思い出してまた観よう、と思った そんな名作でした???? 泣いたけど気持ちよくGW楽しんでいけるぜぇ! 必死に生きよう⛏#みこ市長— さくらみこ????SakuraMiko (@sakuramiko35) これを読み上げたものが以下。本人の声でツイートを読み上げています。やや人工的な
早川さんによれば、すでにCoeFont Studioで作成した音声をプラネタリウムの案内に使ったり、企業の採用VTRに使ったりする例が出てきているという。早川さんはこういった利用方法について「有料にしていなかったら出なかったと思う。(開発する)自分でも想像していなかった」としている。 学生とAI企業の社長、二足のわらじを履く早川さんがどういった背景でCoeFont Studioを立ち上げるに至ったのか、そして今後どのような形でサービスを展開し、収益につなげていくのかを聞いた。 きっかけは友達とのゲーム? 「結構使えるものができてしまった」 そもそも、CoeFont Studioはどういった経緯で生まれたサービスなのか。早川さんはきっかけとなったのは「ゲーム実況」だったと話す。 「もともとゲームが好きで、友人と話しながらよく遊んでいた。昔は『ゲーム実況で世界を獲ろう』と思い、プレイの様子を録
原爆投下後を連想させる風景の中、笑顔ではしゃぐ映画「バービー」のミーム。公式アカウントは英語で「思い出に残る夏になる」と返信していた=X(ツイッター)から 原爆投下という悲劇をネタにしないで――。日本で8月11日に公開を予定するバービー人形の実写版映画「バービー」(米国で7月21日に公開)の米国の公式X(ツイッター)に、日本語のアカウントから批判が相次いでいる。 「バービー」と、原爆を開発した物理学者の半生を描いた映画「オッペンハイマー」の画像を加工・合成したミーム(ネタ画像)がネット交流サービス(SNS)に多数投稿されており、公式アカウントが一部の投稿に好意的なコメントをしたためだ。 両作品は米国で同日公開され、タイトルを組み合わせた「バーベンハイマー(Barbenheimer)」という造語が生まれるなど、社会現象化している。
新型コロナウイルスを人工合成した群馬大大学院・神谷亘教授=前橋市内で2020年10月30日午後2時、庄司哲也撮影 群馬大大学院の神谷亘教授(ウイルス学)が、新型コロナウイルスの人工合成に成功した。これにより、ウイルスの感染の再現や、RNA(リボ核酸)の約3万の塩基の解明などに役立つという。 神谷教授は国立感染症研究所から入手したウイルスの遺伝子を細菌人工染色体(BAC)に組み込み、遺伝情報を細胞内で複製して人工的に新型コロナウイルスを作り出した。 新型コロナウイルスと、遺伝子の約8割が同じといわれる「重症急性呼吸器症候群(SARS)ウイルス」との比較では、免疫細胞の活性化に関係する「ORF3b」という遺伝子の長さに明確な違いがあることが分かっている。人工合成は、こうした個々の遺伝子の解明につながる。
ぼーっと CUE のドキュメントを読みながら CUE という設定用の言語・・・と呼んで良いのかな?のドキュメントを読みながら https://cuelang.org/ 「これ、いろんな機能があるけど、それは置いといて、YAML の合成が簡単にできるのでは?・・・とすると、CircleCI の設定を簡単に分割できて面白いかもなぁ」 と思ったので試してみた。わりとアリかもしれない 今回のサンプルコードはここ: github.com どういう感じ? こんな感じに適当に分割した設定を ❯ tree .circleci/configs .circleci/configs ├── header.yml ├── job1.yml ├── sample │ ├── job2.yml │ └── mixed\ sample.yml ├── workflow1.yml └── workflow2.yml 1
VOCALOID、Synthesizer V、CeVIO AI、VoiSonaなどさまざまなAI歌声合成ソフトが競い合いながらここ数年で飛躍的な発展を続けていますが、ここにトンでもない威力を持つ高性能なAI歌声ソフトがやってきました。アメリカ・中国・フランスなど国のメンバーが集まるテクノロジー・ベンチャー企業、TIMEDOMAINが開発するACE Studioという、Windows/Mac用のソフトです。完全に日本語対応したソフトであるとともに、日本語の歌声データベースも多数備えており、生成された歌声は日本人の人間が歌っているものと聴き分けられないレベルのものになっています。 ただ、既存のAI歌声合成ソフトと大きく異なることが3つあります。まずは年額24,000円または月額3,500円というサブスク料金を支払うと、現在44種類ある歌声データベースすべてが利用できるという点。2つ目は歌をレコ
※本記事はアフィリエイトプログラムによる収益を得ています 巧みなアニメ風塗装で見る人の脳をバグらせる「絵にしか見えないガンプラ」が驚きのクオリティーです。なんかもう、実写とアニメを融合できるARカメラアプリの領域。 写真にイラストを合成したようにも見えるけど……? 手に取ってみると確かにガンプラ……いや、それでも絵に見えるな 製作過程のボールジョイントやクリアーパーツを見て、ようやくガンプラだと分かる どう見てもイラストなユニコーンガンダムを投稿したのはTwitterユーザーのきいだうとか(@da01220329)さん。アクリル絵の具と油性マーカーを駆使した“アニメ塗り”で原作のCGさながらに仕上げ、「何度見ても絵にしか見えない」「背景との違和感がすごい」「合成だろ? だまされないぞ!」などと、驚きや混乱の入り交じった称賛を受けています。 この作品はプロモデラー林哲平さんの著書『週末でつく
東京・渋谷スクランブルスクエアの屋上展望施設「SHIBUYA SKY(渋谷スカイ)」にてたそがれ時に撮影された、ガラスの映り込みを生かした写真に「すごい綺麗」「この手があったか!」と感動する声が上がっています。 逆転の発想から生まれた幻想的な写真 渋谷スカイは、高さ約230メートルから渋谷の街を見下ろせる“渋谷で最も高い場所”(関連記事)。投稿された写真では、そこから見える東京の街並みと同時に、あえてフェンスのガラス面に映り込んだ人々を捉え、さまざまな人のシルエットが夕暮れの空に浮かぶ幻想的な光景を生み出しています。発想が素晴らしい……! 街並みだけでなく、そこにいる人々の雰囲気も感じられるのがステキ 合成無しとは思えない不思議な写真に、Twitterでは他にも映画「風の谷のナウシカ」の巨神兵や漫画『進撃の巨人』を思い出す声が寄せられ、「面白い!」「行ってみたくなった」と渋谷スカイに興味が
「辛口なことを言うと、もっと詰められる部分はある」――声優の森川智之さんは自身の声を再現したAIの声を聞いてそう感じたという。 森川さんといえば、映画「ミッション イン ポッシブル」のイーサン・ハント(トム・クルーズ)役、「ジョン・ウィック」のジョン・ウィック(キアヌ・リーブス)役、「クレヨンしんちゃん」の野原ひろし役などを務める有名声優だ。 森川智之(もりかわとしゆき) 声優事務所アクセルワン代表取締役。 トム・クルーズやキアヌ・リーブスなどハリウッド俳優の吹替を担当する他、アニメ作品にも多数出演。 現在は自身が立ち上げた声優事務所「アクセルゼロ」で後進の育成にも当たっている。 2021年9月、小学館とAI音声合成のスタートアップCoeFont(東京都港区)は、音声合成AIを生成できるクラウドサービス「CoeFont」を活用して森川さんの声をAI化。その音源を使ってオーディオブックを作成
9月は個人的なイベントがいろいろあります。自分の誕生日と、その前日の結婚記念日がまずあって、まあそれはもう誰も祝う人がいないので一人でケーキを買ってきたり英国リバプールの郷土料理であるスカウスを、クックパッドに残された妻のレシピで作ったりしています。 9月はもう一つ、記念日があるのですが、そちらの方はすっかり忘れていました。 妻が遺してくれた歌声の断片から合成したUTAU音源である「妻音源とりちゃん」による最初の楽曲「ひこうき雲」をニコニコ動画で公開したのが2013年9月1日だったのです。「あれから10年が過ぎたのだなあ」と感慨に浸るのも忘れてやっていたことといえば、やはりAI妻音源による楽曲と生成AIによるミュージックビデオ制作でした。土日はずっとこれにかかりきり。 それが出来上がったので先ほどYouTube公開しました。 曲はユーミン作曲の「時をかける少女」。原田知世バージョンを、妻音
手前から奥に向かって変化していく「情報量の多い風景」を切り取った写真が話題になっています。なんでもない坂道の途中から見られる景色なのがまた趣深い……。 異邦写真家のSaho(@urbex_34)さんが「最高に好き」な風景として投稿した一枚で、大阪府の東大阪市から大阪湾方面を望む構図で撮影しています。具体的には、同市の石切駅から上石切第二公園を経由して新石切駅に向かう途中で見られるようです。 木々に囲まれた公園や家々から、奥へ視線を移すと、住宅街の間を線路と阪神高速が通っており、それに乗って奥へ進むとどんどん建物が高くなっていきます。手前と比べて合成写真のように見える、大阪市の都心のビル群とその密度にクラッとし、さらに奥には兵庫の六甲山と思われる山のシルエットが見える情報量の多さに、たまらず言葉を失います。 情報量が多い……!(画像提供:Saho/@urbex_34さん) Twitterでは
この記事は、ドワンゴ Advent Calendar 2019の1日目の記事です。 モチベーション 最近、理想の人工知能(歌ったり踊ったり喋ったりできるキャラクター)を作りたいと思うようになりました。人工知能が歌を歌うためには、歌声音声合成エンジンが必要です。ということで、ディープラーニングを使って、歌声音声合成エンジンの作成に挑戦してみました。この記事では、実際に音声合成した歌声や、その仕組み、別条件での実験結果、ディープラーニング周りの手法を紹介します。 デモ動画実際に作成した音声合成エンジンを使った歌唱のデモです。 (歌声音声合成を作ったら絶対最初にカバーしたいと思っていた歌、ハジメテノオトのカバーです。) 歌唱デモ音声 まだ挑戦し始めてから2週間ほどしか経っていないのでかなり荒削りですが、それでもちゃんと歌詞や音程が取れていたり、溜めの部分で大きく息を吸う音が入っていたりと、そこそ
グリーンバックはもういらない!?Background Mattingでどこでも合成(Windows10、Python 3.6)Python画像処理CUDA機械学習DeepLearning はじめに Zoomでバーチャル背景が流行っていますね。グリーンバックを必要とせずに一枚の背景画像から人物を切り抜き、ピクセルレベルで違和感なく合成できるBackground Mattingをやってみました。CPUでも動くよ。 システム環境 Windows10(RTX2080 Max-Q、i7-8750H、RAM16GB) Anaconda 2020.02 Python 3.6 CUDA 10.0 cuDNN 導入 Background-Mattingからクローンします。 back-matting環境を作ります。
要点 50 ℃未満で水素と窒素からアンモニアを合成できる触媒の開発に初めて成功 今回、開発した触媒は既存の触媒を凌駕する性能で、CO2排出ゼロを実現 開発した触媒によって自然エネルギーからのアンモニア生産へ道が開かれた 概要 東京工業大学 科学技術創成研究院の原亨和教授、元素戦略研究センター長の細野秀雄栄誉教授らは、50 ℃未満の温度で水素と窒素からアンモニアを合成する新触媒の開発に成功した。この触媒は豊富なカルシウムに水素とフッ素が結合した物質「水素化フッ素化カルシウム(CaFH)[用語1]」とルテニウム(Ru)ナノ粒子の複合材料「Ru/CaFH」で、室温で水素と窒素からアンモニアを合成できる。 原教授らはCaFHが低い温度で電子を与える力が強いことに着目し、その学理を低温でアンモニアを合成する触媒の開発に繋げた。アンモニア生産の大幅な効率化だけでなく、自然エネルギーを使った温室効果ガス
映画「バービー」(左)と「オッペンハイマー」(右)より/Warner Bros Pictures/Universal Pictures (CNN) 米映画配給会社ワーナー・ブラザースが映画「バービー」のツイッター公式アカウントで原爆とバービーを合成した画像に好意的な反応を示したことに対し、日本で批判が噴出した。これを受けてワーナー本社は1日、謝罪の声明を発表した。 批判の的になったのは、米国の原爆開発競争を描いたユニバーサル・ピクチャーズの映画「オッペンハイマー」と、バービー映画のキャラクターを合成した画像に対する公式アカウントの反応。ワーナー・ブラザース日本法人は「配慮に欠ける」としてこの反応を強く批判。米本社に対してしかるべき対応を求めたと説明していた。子会社が親会社に対して謝罪を求めるのは極めて異例。 バービーとオッペンハイマーは7月下旬に米国などで同時公開され、ファンがこの2作品を
NikeがSNSで公開した、さまざまなスポーツの映像を組み合わせて作った広告動画がすごいと話題になっています。画面の左右で流れる別々の映像を自然に合成する驚きのクオリティー! 水泳と陸上 テニスと野球 左画面にはラケットを振るテニス選手、右画面にはバットを振る野球選手といったように、2つの異なる映像を同時に再生。それを画面の中央でそれぞれの選手の動きがピタリと重なるように調整しており、まさに人と人とがつながって“1つ”になるような動画が出来上がっています。 動画は、それぞれ別の競技で活躍する2人のプロスポーツ選手をつなぐシーンから、プライベートでスポーツを楽しむ人とプロスポーツ選手の動きをつなぐようなシーンまで。時には試合中の素早い動きにも合わせており、人の動きやスポーツが違和感なくスッと変わる瞬間はたまらなくかっこよく、またスポーツの素晴らしさを感じさせる映像となっています。 女子テニス
ムービーから一部を切り取って他のムービーに重ねるクロマキー合成を行う際は、グリーンバックなどの単色の背景を用意する必要があり、準備が面倒です。ウェブアプリ「Runway」を使えば、通常の背景で撮影したムービーから数クリックで自動的に対象物を切り取って合成ムービーを作成できるとのことなので、実際に使ってみました。 Runway | CREATE IMPOSSIBLE VIDEO https://runwayml.com/ Runwayを使うには、公式サイトの「TRY RUNWAY FOR FREE」をクリックします。なお、Runwayの一部機能はGoogle Chromeにしか対応していないので、今回はGoogle Chromeを使っています。 「TRY RUNWAY FOR FREE」をクリックすると、Runwayのアカウントの作成画面に移動します。今回はGoogleアカウントを利用するの
合成せずに「CGを撮る」時代。バーチャルプロダクションがやって来た2021.01.27 17:0024,492 照沼健太 真の「2.5次元」が実現? 「ハリウッド大作映画の撮影風景はこっけいだ。全身タイツ姿の俳優たちが緑の背景で演じているだけなんだから」。そんな揶揄がもはや揶揄にすらならないほど、近年の映画ではグリーンバックを使ったCG合成が当たり前です。 ハリウッドに限らず、映画『パラサイト 半地下の家族』の邸宅の外観は半分がCGでしたし、2020年末に公開されたNetflixオリジナルTVシリーズ『今際の国のアリス』でも、セットとグリーンバックによるCG合成で渋谷スクランブル交差点を再現したことが話題となりました。 しかし、それと同時に「CG合成」にとどまらない、「CGを撮る」時代が到来しつつあります。 CGを撮る=バーチャルプロダクション「CGを撮る」とはつまり、画面にCGを表示させ
についても、発表があり、「これは何なんだろう?」と気になっていました。この時は具体的な内容まではわからず、その翌日にHigh Dynamics Voice Modelに関する紹介ビデオも公表されたのですが、ここでもいま一つ、ピンときませんでした。が、それが実装されたβ版を使わせてもらうとともに、Kanruさんに話を聞いて、ようやくこれが歌声合成における革命であることが分かりました。 以下が、そのAIリテイクの様子を捉えたビデオです。 だいたいの雰囲気が、理解いただけたでしょうか? そう、このAIリテイク機能は、High Dynamics Voice Modelという技術をSynthesizer Vの機能として実装させたものであり、歌声を新たに作り直すというものなのです。 「歌声合成は、ここ数年で大きく進化してきましたが、やはり人間の歌声の魅力にはかなわない面があります。その大きな理由の一つ
1987年東京出身。会社員。ハンバーグやカレーやチキンライスなどが好物なので、舌が子供すぎやしないかと心配になるときがある。だがコーヒーはブラックでも飲める。動画インタビュー 前の記事:地下足袋で知る街の感触 1枚目の写真。本当に合成っぽい。不思議な写真だ。 調べてみると、ライティングの不自然さが合成っぽさにつながっていることが分かった。背景を見ると明らかに逆光なのに、人物には正面からしっかり光が当たっている、その不自然さ。 不自然な光を当てると合成写真になれるということか。リアルにいるのにデジタルっぽい俺。メタバースの逆だ。メタバースの逆か? とにかくやりたい! 太陽光とレフ板で こんな撮影をするには日の光がしっかりある、というのが最低条件である。 そこそこの晴れ具合。梅雨入り前の最後のチャンスだった メンバーは編集部の林さんと安藤さん、そして僕の3人。最小限の人員でG7を再現する。 編
言語モデルを高位合成でFPGAに実装してみた Turing株式会社のリサーチチームでインターンしているM1の内山です。 Turing株式会社では大規模基盤モデルによる完全自動運転を目指しており、その実現に欠かせない技術として大規模言語モデルの研究開発を行っています。 Generative AI LLMの広範な知識と思考能力に加え、視覚情報やセンサーデータなどの多様な入力を受け入れることで、車の周囲の状況を正確に認識します。さらに、世界モデルを適用することで、高度な空間認知と身体性を獲得し、実世界に対応した生成AIを実現します。 https://tur.ing/ より引用 しかしながら、従来の大規模モデルはデータセンターという大量のGPU・潤沢な電源・安定した地盤を備えた豊かな環境で処理されるものであり、対して自動車というものは余りにも狭く、電源が乏しく、振動が大きいという劣悪極まりない環境
1988年神奈川県生まれ。普通の会社員です。運だけで何とか生きてきました。好きな言葉は「半熟卵はトッピングしますか?」です。もちろんトッピングします。(動画インタビュー) 前の記事:川崎には味噌だれで食べる餃子がある~東急沿線さんぽ どんな心霊写真があるのか まずはどんな写真があるのかを聞いてみたい。そこでオカルトの記事ではいつもお世話になっているオカルト書店のナインブリックスの橋本さんに話を聞いた。 ライター加藤さんの後輩でもある。 ーーーまず、心霊写真の歴史について教えてください 「カメラの変化と共に心霊写真の写り方も変わって来ました。まず、写真が誕生した時って湿板写真と言ってガラス板に薬剤を塗り、それが乾くまでに撮影をしていました。 そのガラス板も撮影が終わったら、一度きれいに洗って、また撮影をするときに再使用するのですが、薬剤の落とし方が不十分なときだと前に撮ったものが薄く写って、
はじめに 先日、マニュアル動画や研修動画を作成するためのエコーズというツールのベータ版をリリースしました。 テキスト読み上げサービスで作った声を動画に追加できるアプリ エコーズのベータ版をリリースしました このアプリを使うと動画に合成した音声でナレーションを入れることができます。現在はベータ版ですので無料で使えます。私はYouTuberではないので詳しくありませんが、YouTube向けの動画編集にも使えると思いますので紹介させてください。 Windows 10をお使いの方はMicrosoftストアで エコーズ(ベータ)と検索しインストールしていただくか、こちらのページからインストールできます。 1分もかからずインストールできますのでぜひお試しください。 操作手順 エコーズを使って動画にナレーションと図形を入れる手順です。簡単にできるのでやってみてください。 アプリを起動したら、まず最初にナ
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く