このところ、AIを使った簡単プログラミング環境の進化が著しいです。Claude Artifacts、ChatGPT-Artifacts、Poe Previews。そこに大元のClaudeが、「Publish Artifact」という新機能を投入してきました。
ノンプログラマーな自分が、大規模言語モデル(LLM)の助力で、初めてまともに動くプログラムを完成させることができました。
フリーランスライター。1969年京都府生まれ。バイク雑誌編集者に憧れて上京し経歴を開始。ラジコン飛行機雑誌、サンゴと熱帯魚の雑誌、デジモノの雑誌をそれぞれ7〜10年編集長として作る。趣味人の情熱を伝えるのがライフワーク。@takuta いよいよ、6月28日に日本でもVision Proが発売される。 米国から5カ月ほど遅れての日本発売とあって、待ち焦がれていた人も多いのではないだろうか。とはいえ、当初は『年内』と伝えられていたから、想定よりも早い日本導入ということになる。 米国での売行きがイマイチだったから、それ以外の国に販売する余裕があったとか、米国発売時に買いに来た日本人が非常に多かったから、日本発売の優先度合が高まったとか、いろいろな噂はあるが、アップル自体はそういう質問には回答しないので、真偽のほどは定かではない。 というわけで、WWDC24に取材に行ってきたので、そちらで得た情報
このサービスの有償プランに申し込んで使って、少しプロンプトのコツが掴めたので、お伝えしたいと思います。 ただ、自分が使った目的は映画などの映像制作ではなく、あくまでも静止画、それも人物を動かすことなのでご注意を。より具体的には、11年前に他界した妻の動く姿を見ることです。 ■フィルムカメラの写真を動かすまずやってみたのは、実際に撮った写真をDream Machineで動かすことです。 使った写真は、1978年から1987年にかけてフィルムカメラで撮影したもの。子供が生まれてビデオカメラ(ビデオ8mm)を買ったのが1987年なので、それまでは動いている映像がほとんどなかったのです。 例外として、学園祭の劇で主役を演じたものと、特捜最前線でエキストラをやったときのものは残っていますが。 多くの人にとって、1980年代以前の、動きのある映像は残っていないと思います(8mmフィルム愛好家がいる家庭
visionOS 2、iOS 18、iPadOS 18、macOS Sequoiaが披露されたアップルの開発者会議「WWDC24」基調講演の後半は、主要プラットフォームへの生成AI統合の話に終始しました。 今回のキーワードとなった「Apple Intelligence」(つまり、AI)は、オンデバイス処理とクラウド上のPrivate Cloud Compute(Appleシリコンベース)を組み合わせ、さらにOpenAIのChatGPTも統合できるという、ユーザーが望む姿に近いものを提示してきました。 ChatGPTはアカウントを作らずに使えるだけでなく、サブスクライバーであればその優先的な機能を利用することもできます。 長らく停滞気味だったSiriもコンテキストを理解できるようになり、ChatGPTなどのAIを活用した音声システムに近いところまで来たようです(まだ差はありますが)。画面に表
OpenAIは5月14日、ChatGPTのGPT-4oを使えるマルチモーダルなMacアプリを公開しました。chat.openai.comにアクセスしてダウンロードリンクが表示されれば利用できます(現在利用できるユーザーはPlusプランの購読者のみ)。ChatGPTアプリはこれでiPhone、Androidに続いてMac版が公開されたことになります。Windows版は年内に登場予定です。 機能としてはiPhoneアプリと同様で、現状ではGPT-4oの音声モデルや、カメラの映像を見ながら音声で対話したりといったことはできません。使われている音声モデルも、従来のものと同じで、遮られても会話をスムーズに続けたりといった機能は実装されていません。歌うこともできません。
10秒の歌声オーディオデータがあれば、本人そっくりのリアルタイム歌唱ができるという「Vocoflex」。ベータテスターの申し込みをしていたのですが、ついに試用できたので、そのファーストインプレッションをお届けします。
Meta が複合現実オペレーティングシステム「Meta Horizon OS」を発表しました。 Meta Horizon OS は「メタバースのためのオープンなコンピューティング・プラットフォーム」。 これまで Meta自身の Meta Quest シリーズに搭載してきたOSを Horizon OS と改名し、新たにサードパーティーのパートナー企業にも開放します。 アプリやソーシャルレイヤーで互換性を保ちつつ、ゲーム特化やフィットネス特化、PCと併用するプロダクティビティ特化など、様々なヘッドセットやグラス型デバイスを各社が販売できるようになります。 Meta Horizon OS発表にともない、Metaの公式ストアも Meta Horizon ストアに改称。 Horizonストアは各社のデバイスから利用でき、これまでQuest向けに購入したアプリを含め、アプリも同じものが動きます。 Ho
どのような変化が起きたのか? アドビ・Photoshop製品マーケティング担当シニアディレクターのエリン・ボイス氏に話を聞いた。 ▲アドビ・Photoshop製品マーケティング担当シニアディレクターのエリン・ボイス氏Firefly「Image 3」で画質が向上まずは以下のデモビデオをご覧いただきたい。 ▲Photoshopのアップデートに関するデモ。生成AIで面倒な作業がシンプルに。このビデオは新しいPhotoshopでできることをまとめたものだ。Fireflyで画像を生成し、実写と組み合わせていくという手法がわかりやすく示されている。 特に注目して欲しいのは「Reference image」「Generate similar(似たものを生成)」と、最後に出てくる「Generate background(背景の生成)」機能だ。 Fireflyを使って画像を作ることはできる。一方で、そこから
ガジェット全般、サイエンス、宇宙、音楽、モータースポーツetc... 電気・ネットワーク技術者。実績媒体Engadget日本版, Autoblog日本版, Forbes JAPAN他 平均的な人間よりも遙かに高い運動能力を備えていたBoston Dynamicsのヒューマノイドロボ「Atlas」はまだ引退したばかりですが、一夜明けたところでなんとオール電動の新型「Atlas」が、われわれの前にその姿を現しました。 Atlasの「さよなら動画」の解説文では「油圧式のAtlasロボットはくつろぎ、リラックスする時間を迎えた」と、これまで使っていなかった「油圧式の」という言葉がわざわざ使われており、それが心に引っかかっていた人は多いことでしょう。案の定、その言葉の裏には「オール電動」Atlasが控えていました。
パーソナルコンピュータの黎明期を知るベテランライターの荻窪圭さんの視点から見た、テクノエッジ主催「Apple Vision Proパーティー」第2回のイベントリポートをお伝えします。 テクノエッジ主催「Apple Vision Proパーティー」第2回が3月28日に開催されたので参加してきた。会場は秋葉原UDXのセミナールーム。 Apple Vision Proを前にして昔のことを思い出していた(ってかくと老人の戯れ言がはじまるようでたまらんですな)。 1980年代から90年代。パーソナルコンピュータの世界には未来があった、んじゃなくて未来しかなかった。 当時のパソコンは役に立ちそうなことはあまりできなかったけれども、必要がプログラムがなければ自分で組む、繋ぎたいハードがあれば自分でつなぐ、そういう人たちが生き生きとしてた時代だ。自分も含めてみんなワクワクした顔をしてたもんである。 そんな
NAB Show 2024にあわせて、Adobeが動画編集アプリ Premiere Pro に追加予定の生成AI機能を先行公開しました。 Adobeが公開したデモは、実写動画から不要な物体や部分を1クリックで選択して削除したり、AI生成で被写体を追加、衣装など部分を変更、クリップの長さを延長など。 動画生成にはAdobeが独自に開発中の Firefly 動画モデルに加えて、OpenAI Sora や Runway、Pika Labs といったサードパーティのモデルもPremiere Pro内から直接利用できるようにし、クリエーターが各モデルを必要に応じて選べるようになります。 Adobeが先行公開した機能は、 Generative Extend (生成拡張) すでにある映像から新たなフレームを生成して尺を伸ばす。トランジション効果の追加など編集の都合であと少し長さが欲しいときに。 Obje
Suno対抗のAI作曲サービスとして前評判の高かったUdioがパブリックベータとして一般公開されました。
Google Cloud Next 2024イベントを前に、Googleが新しいWorkspaceアプリ『Google Vids』を発表しました。 文書を作る Google Docs、スライドを作る Google Slidesのように、Google Vids は主にプレゼンテーションやプロモーション用の動画を作るためのアプリ。 動画を制作のさいに必要となるメッセージのライティングや、動画の絵コンテや流れの制作、音楽・画像・クリップといった素材の選定と展開にあわせた編集、ナレーション原稿の作成とAI音声による読み上げまでワンストップでアシストする点が特徴です。 Google ドキュメントやスライドのように多数のスタイルのテンプレートを用意しており、動画で伝えたいことを短い文章で形容して関連文書や素材を放り込めば、Google のAIモデル Gemini が動画の導入からストーリーボード(絵コ
1971年福井県生まれ。得意ジャンルは、パソコン・デジタルAV・家電、ネットワーク関連など「電気かデータが流れるもの全般」。主に、取材記事と個人向け解説記事を担当。 今回も少しApple Vision Proの話をする。といっても、Vision Proの話だけをするわけではない。Vision Proで改めて注目された「空間に配置する」という概念について、少し深く考えてみよう。 この概念、文章ではよく出てくるが、実際に体験したことがある人はまだ少ない。 というわけで、過去の機器で「空間に配置する」という要素がどう扱われ、Vision Proでどうなっていて、さらにMeta Quest 3が今後どうなる予定なのかについて整理しておきたい。 Vision Proは「空間を把握している」Vision Proが「空間コンピューティング・デバイス」と言われる理由は、いわゆる「Mixed Reality
1971年福井県生まれ。得意ジャンルは、パソコン・デジタルAV・家電、ネットワーク関連など「電気かデータが流れるもの全般」。主に、取材記事と個人向け解説記事を担当。 Adobeは春と秋に大きなイベントを開催する。秋は「Adobe MAX」。Adobeと言われて多くの人が思い出す、Photoshopなどのクリエイティブ・ツールのイベントだ。 では春は? それが「Adobe Summit」。同社のもう1つの柱である、デジタルマーケティング関係のイベントだ。今年も同社の協力で、米・ラスベガスに取材に来ている。 「Sneaks」は、Adobeが社内で開発中の新技術について「チラ見せ」するイベントだ。製品への導入時期などは公開されないが、反響によってはそのタイミングが早まったりする……かもしれないという、Adobeイベントの華でもある。Adobe Summitでも2日目夕方から「Sneaks」が開催
Claude 3に作詞させて音楽スタイル設定を決めるClaude 3 Opusに、次の問いかけをしてみました。 ローリングストーンズのAngieのような優れた曲を作るための音楽スタイルと歌詞を英語で記述して 回答はこちら。 Here are some suggestions for creating a song in a similar style to The Rolling Stones' "Angie", without reproducing any of the copyrighted lyrics: Musical style: Use a slow to mid-tempo ballad style with a melancholic feel Open with a memorable acoustic guitar riff or arpeggio Include p
米国のAIスタートアップSunoは、自社のAI作曲サービスである「Suno」をV3にバージョンアップしました。3月20日より、3からのカウントダウンをスタートしていましたが、日本時間の22日2時に、正式公開されました。 V3では、1回で作成できる曲の長さを従来バージョンであるV2の1分20秒をV3では2分までに伸ばし、インストゥルメンタル曲の指定、高音質化、多ジャンルへの対応など、多くの機能強化を行なっています。 これまではProおよびPremierの有償ユーザーのみがアルファ版を使えていましたが、正式版になったことで、無料ユーザーも1日10回、1回で2曲が同時に生成されるので、1日当たり最大20曲まで利用できることになります。 無料ユーザーアカウントで試してみましたが、V3がデフォルトとなっている他に、V3 Alpha版との大きな違いはありません(V2も選択できるようになっています)。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く