【CEDEC2025】現場を理解して実現!ゲーム開発を効率化するWebサービスの開発と、利用促進のための継続的な改善

Introducing GLM-4.5 and GLM-4.5 Air: new flagship models designed to unify frontier reasoning, coding, and agentic capabilities. GLM-4.5: 355B total / 32B active parameters GLM-4.5-Air: 106B total / 12B active parameters API Pricing (per 1M tokens): GLM-4.5: $0.6 Input / $2.2… pic.twitter.com/ummGTd6QLl — Z.ai (@Zai_org) July 28, 2025 両モデルは、独自開発のMixture‑of‑Experts(MoE)アーキテクチャを採用しており、推論・コーディング・エージェ
※この投稿は米国時間 2025 年 8 月 5 日に、Google Keyword blog に投稿されたものの抄訳です。 今年 6 月に、ターミナルで Gemini の力を活用できるオープンソース AI エージェント Gemini CLI をリリースしました。リリース以来、ご利用いただいた開発者の方々から寄せられた熱狂的な反応は想像以上のものでした。多数の機能リクエストやコントリビューションが続々と寄せられる中、私たちは自ら Gemini CLI を活用し、イシューの振り分けやプルリクエストのレビューを自動化しました。この新しいワークフローがコミュニティ メンバーの目に止まり、「ぜひ共有してほしい」という声が多数寄せられたことから、この度公開を決定しました。 本日、Gemini CLI GitHub Actions を発表します。これは、あなたのリポジトリで無料でご利用いただける、強力な
OpenAIの「オープンなAI(gpt-oss-120b)」はGPUサーバじゃないと動かない?→約30万円の自作PCで動かしてみた これまで「クローズドなAI」を提供してきた米OpenAIが、8月5日(現地時間)についに「オープンなAI」を公開した。「gpt-oss-120b」と「gpt-oss-20b」の2種類で、前者はGPUサーバに搭載されるようなグラフィックスカード「NVIDIA H100」1枚で、後者はハイエンドなデスクトップ・ノートPCで動作するとしている。いずれも無料でダウンロードできる。 H100は80GBのビデオメモリ(VRAM)を持つ一方、家庭向けのグラフィックスカードはハイエンドな「NVIDIA GeForce RTX 5090」でもVRAM 32GBと、H100に比べれば少ない。LLMの実行にはそのパラメータ(120bや20bの部分。bは10億の意味)をメモリに展開し
Last update 8-1-2025 ※ インストール自体はバッチファイルを実行するだけです。 ※ アップデート等のメンテナンス手順は別の記事で公開予定です。 ■ 0. 概要▼ 0-0. はじめに 本記事では、Geforce RTXを装着したWindows PCにComfyUIをインストールする手順等を説明します。 手順を簡単にするため、インストールや実行のためのバッチファイルを用意しました。インストール前に必要なドライバーやプログラムの導入、GeForce RTX 5xxxへの対応も行っています。 なお、ComfyUIのポータブル版や、Stability Matrix等のプログラムは利用していません。 ▼ 0-1. 記事の流れ1. GeForceのドライバー等のインストール 2. GitとPythonのインストール 3. ComfyUIのインストール(バッチファイル付き) 4. 起動
あとはケースファンをケース標準のものから交換&増設していたりします。 OSのインストール WindowsよりLinuxのほうがLLMの推論が早いそうなのでLinuxを入れることにしました。 ディストリビューションは DistroWatch.com のランキング を参考にしつつ、 Pop!_OS を選定してみました。 他には Ubuntu、Linux Mint、EndeavourOS あたりのディストリビューションが候補でしたが、ネット上に情報が多いUbuntuの派生であることと、NVIDIAのドライバが標準でインストールされるという点を重視して Pop!_OS を選んでいます。 以下のような流れでセットアップしました。 公式サイトから Pop!_OS 22.04 LTS with NVIDIA のisoイメージをダウンロード isoイメージを、 Rufus を使用してUSBメモリ書き込み
こんにちは、とまだです。 先日、こんな記事を書かせていただきました。 【AI 駆動開発】Cursor を使いこなして 1 ヶ月でプログラミング学習サイトを作ったのでノウハウを伝えたい Cursor と Claude を使った AI 駆動開発で、1 ヶ月でプログラミング学習サイトを作ったという内容でした。 おかげさまで多くの方に読んでいただけたようで、お役に立てて嬉しいです。 ただ、前回の記事では 「デザインの統一感で苦労した」 という反省点もお伝えしていました。 今回はその続編として、Apple 風のデザインルールを策定することで UI 調整が劇的に改善した 経験をお伝えしたいと思います。 ※「デザインルール」「デザインルール」「デザインシステム」など、同じような意味で使われる言葉ですが、ここでは「デザインルール」と呼ぶことにします。 この記事でわかること Claude を使ったデザインル
はじめにAmazon Web Services(AWS)が2025年7月、生成AIを統合した新しい統合開発環境(IDE)「Kiro」をプレビュー公開しました。 Kiroの概要Kiroは、「Agentic IDE」として話題の新しいAIコードエディタです。CursorやWindsurfの延長線上にありながらも、そのアプローチには少し違いがあります。 Kiroと他のツールとの大きな違いは、「仕様駆動(spec-driven)」という思想を強く打ち出している点です。多くのAIツールが即座にコードを生成する「vibe coding」の体験を提供する一方で、Kiroはまずプロンプトから仕様書や設計図を生成し、開発の土台を固めることを重視しています。 これにより、アイデア先行で生まれがちなドキュメント不足や仕様の不整合といった「Vibe Coding時に発生しがちなバグやトラブル」を事前に防ぎ、実用的
最近、次々と高性能なAIモデルが現れ、クリエイティブ・ライティングの性能も格段に向上しています。 そこで、同じプロンプトで短編小説を作成した場合に、どのAIモデルの作品が最も優れているか比較してみました。 比較に使ったAIモデルは以下の通りです。 ChatGPT o3 ChatGPT 4o ChatGPT 4.1 ChatGPT 4.5 Gemini 2.5 Pro Claude Opus 4(Thinkモード) Grok 4 Kimi K2 DeepSeek R1 1.作品の評価基準各モデルが作成した作品は、ChatGPT o3によって評価します。作品の評価にChatGPT o3を使うのは、現時点で分析能力が最も高いモデルだと考えられるからです。本来は、複数のモデルで評価するべきですが、煩雑になるのを避けるため、今回はChatGPT o3のみで評価します。 まず、ChatGPT o3に各
「ClaudeCodeフレンドリーなログを作るシステムがあれば、バイブコーディングの効率があがるのでは?」という仮説から、GenAI時代のロガーを作ってみた。お暇な方は、仮説検証にお付き合いください。 AI時代のログ作成術:あなたのAI助手がコードを理解できるログを作ろう 従来のログは人間向けでしたが、今やClaude CodeやGemini CLIなどのAI助手がコードを理解し、デバッグを手伝ってくれる時代です。 VibeLoggerは、コーディングエージェントが活用しやすい「構造化されたログ」を簡単に作成できるPythonライブラリです。 🎯 なぜVibeCoding Loggerが必要なのか?従来のログ(人間向け)import logging logging.info("User profile fetch failed for user 123")→ AIには「何が起きたか」しか
3週間で、100話のAI怪談を作りました。 この記事では、その具体的な創作プロセスと、実際に使用したプロンプト内容をノウハウとして公開します。 ※怪談として設計してますが、他の短編でもいけます なぜ、私はAIと怪談を100話も創ることになったのかはじめまして。花笠と申します。 普段はAIを活用した実験作品やAIイラストを生成して遊んでいます。ChatGPT 3.5登場以降、例に漏れずAIの世界にのめり込み、AIを活用し、さまざまな事に挑戦しています。 そんな中、私はずっと物語が作りたい、と思いがありました。ただ、私には文才がない。それは、手の届かない夢物語のはず、でした。 怪談を作るきっかけとなったのは、いつもの実験精神です。 普段からコーティングや企画作業ではCursorを通じて Gemini 2.5 Proモデルを愛用していました。 その一環で「Gemini 2.5 Proの物語生成能
何ができるか ちょい強い GPU を使った Stable Diffusion Web UI 環境を比較的安価に作れる ※Billing は 2,3 時間ぐらいずつ使った参考値 Stable Diffusion WebUI については作成上限などの観点から自前で用意するメリットが多くあります。しかし自前で実行環境を用意するとなると、5万~10万ぐらいの GPU を用意する必要があり、かなりコスト面でハードルが高いです。 そこで、使いたい時だけサーバー建てて Stable Diffusion WebUI 実行できるようにして、 極力低コストで使いたいとみなさん思ってることでしょう。 そこで、私が今回目を付けたのが Runpod というクラウドサービスです ❗ 選定理由は、おおよそ使い方簡単そう+AWS や GCP に比べて安価そう、という点です。 最安を狙うなら vast.io が良さそうです
Google Gemini CLI発表:最高峰モデル「Gemini 2.5 Pro」がほぼ無制限に無料で利用可能、物量作戦で市場を掌握か? Googleが2025年6月25日、オープンソースのAIエージェント「Gemini CLI」を公開した。大々的な発表はなく、ニュースリリースのみの静かな物だったが、これが開発者市場にもたらす影響はまさに“地殻変動”と呼ぶに相応しい巨大な物だ。なぜなら、今回のリリースにより、開発者の「聖域」であるターミナルに、Googleの最強AIモデル「Gemini 2.5 Pro」が、ほぼ無制限の無料アクセスという形で降臨したのだ。この衝撃は、競合他社を震撼させると同時に、開発者コミュニティに熱狂と、そして一抹の不安を投げかけている。 ターミナルに降臨した「黒船」- Gemini CLIとは何か? Gemini CLIは、開発者が日常的に使用するコマンドラインインタ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く