
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Google、テキストや画像からUIとフロントエンドコードを生成する「Stitch」を発表
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Google、テキストや画像からUIとフロントエンドコードを生成する「Stitch」を発表
Google Labsは5月20日(現地時間)、ユーザーがテキストや画像を入力するだけで、UIデザインやフロント... Google Labsは5月20日(現地時間)、ユーザーがテキストや画像を入力するだけで、UIデザインやフロントエンドコードを自動生成できる実験的ツール「Stitch」を発表した。Stitchは、デザインと開発の連携をスムーズにし、従来の手作業や調整にかかる負担を軽減することを目的としている。 Stitch(出典:Google) Stitchは、Gemini 2.5 Proのマルチモーダル機能を活用し、自然言語や画像入力をもとに複雑なUIを短時間で生成できるのが特徴。たとえば「このような配色で、ユーザー体験はこうしたい」といった要望を自然言語で記述すると、それを反映したビジュアルインターフェースを自動で作成する。また、ホワイトボード上の手描きスケッチやUIのスクリーンショット、ワイヤーフレーム画像をアップロードすることで、それらをもとにアプリケーションのUIとして再現することも可能。 最終