ゲーム・エンタメ最新情報のファミ通.com取材・リポートモバイル・アプリ『学マス』AIによってリリース前にレッスンを10億回、人力なら1900年分の検証を実現。バランスブレイカーを効率的に見つけ出すAI学習とデッキ探索【CEDEC2024】
「Graph Game」はニューラルネットワークの構造をグラフで作成するゲームです。AI技術の発展と共に頻繁に目にするようになった「ニューラルネットワーク」をどの程度理解しているか試せるゲームとのことなので、実際にプレイしてみました。 Graph Game - By Sabrina Ramonov https://graphgame.sabrina.dev/ サイトにアクセスするとこんな感じ。「RNN」「LSTM Cell」「GRU Cell」「ResNet Block」「Deep RNN」という5つのステージが用意されています。まずは「RNN」をクリックしてみます。 「x_t」「h_t」「y_t」という3つの箱が出現しました。それぞれの箱はデータを表しており、上が出力で下が入力となっています。「x_t」の上の○をクリックし、ドラッグして「h_t」の下に接続します。 緑の線で接続が表示され
Believable proxies of human behavior can empower interactive applications ranging from immersive environments to rehearsal spaces for interpersonal communication to prototyping tools. In this paper, we introduce generative agents--computational software agents that simulate believable human behavior. Generative agents wake up, cook breakfast, and head to work; artists paint, while authors write; t
AI(人工知能)を用いてゲームの内容をプレイヤーごとに変化させることで、ゲーム開発社や運営者が得る収益の増加を図るという手法が昨今注目されている。モバイル広告関連ビジネスを手がけるTapjoyによると、AIを使ってプレイヤーのプレイ状況を分析して動的に難易度を調整したり、有料アイテムをレコメンドするといったことはすでに行われている、もしくは近い将来に導入されるという。 一方でこういった技術はプレイヤーに対し不公平な形で使われる可能性もある。先月には、プレイヤーに対しストレスを与えるとともに、それを解決するための有料アイテムを提示する、といった手法などを説明する資料がネットにリークされ、批判を受けている(TechPowerUp、NeoGAF、GIGAZINE)。 プレイヤーのゲームプレイ傾向を分析し、それに応じて難易度を変えるといった手法は昔からあり、また昨今ではゲーム内で有料アイテムの購入
2016年、Google DeepMind社から恐ろしい論文が出された、AlphaGoその名を冠した囲碁プログラムが既存の囲碁ソフトに勝率99%を叩き出したのだ。AlphaGoは強化学習とDeep Learningを組み合わせた囲碁プログラムで、その年に最強の囲碁棋士の一人である李世ドルさんに4勝1負で勝利した。その後も進歩を続けて今のAlphaGoの強さは人類が体感できるレベルを超えるほど強くなったと予想される。 2017年も終わりのころ、Google DeepMind社からまた途方もない論文が発表された。囲碁とほぼ同じ手法で最強レベルのチェスや将棋プログラムを超えたということだった。実際のところ正確に超えたのかどうかちょっとだけ疑問もあるのだが、まず前提として彼らの新手法が途方もない成果をあげたこと素直に祝福したい。彼らは自分たちのプログラムをAlpha Zeroと名付けた。 コンピュ
ポーカーは手札の情報がすべて公開されていないため「不完全情報ゲーム」だと言われており、人工知能(AI)が人間を打ち負かすのは難しいと考えられてきました。しかし、2017年1月にカーネギー・メロン大学の開発したAI「Libratus」はこの難題を見事にクリアし、人間のプレイヤー相手にポーカーで完勝することに成功しました。そのLibratusを開発した研究者が、どのような戦略をLibratusが採ったのかに関する論文を公開しました。 Superhuman AI for heads-up no-limit poker: Libratus beats top professionals | Science http://science.sciencemag.org/content/early/2017/12/15/science.aao1733.full Inner workings of vic
I trained a recurrent neural network to play Mario Kart human-style. MariFlow Manual & Download: https://docs.google.com/document/d/1p4ZOtziLmhf0jPbZTTaFxSKdYqE91dYcTNqTVdd6es4/edit?usp=sharing Mushroom Cup: https://www.twitch.tv/videos/183296063 Flower Cup: https://www.twitch.tv/videos/183296268 Star Cup: https://www.twitch.tv/videos/183296400 SethBling Twitter: http://twitter.com/sethbling Set
Research AlphaGo Zero: Starting from scratch Published 18 October 2017 Authors David Silver, Demis Hassabis Artificial intelligence research has made rapid progress in a wide variety of domains from speech recognition and image classification to genomics and drug discovery. In many cases, these are specialist systems that leverage enormous amounts of human expertise and data. However, for some pro
囲碁のトップ棋士に勝った人工知能「AlphaGo」が進化し、打ち手を全く教えずに白紙の状態から学習して従来型の人工知能を破ったと開発した会社が発表し、人工知能はもはや人間の知識に制約されなくなったとしています。 この会社が開発した人工知能「AlphaGo」は、囲碁の名人の打ち手のデータを基に学習を重ね、ことし世界最強とされる中国のトップ棋士を破り、大きな話題となりました。 今回、新たに開発した「AlphaGoZero」は答えを導くデータがなくても、人工知能がみずから試行錯誤を繰り返して、よりよい答えにたどり着く、「強化学習」という手法を取り入れたということです。 そして、囲碁の基本ルール以外には何も教えず、わずか3日間で500万回の対戦をひとりでに繰り返して強さを身につけた結果、トップ棋士を破った従来型の人工知能に圧勝したということです。 さらに、新型の人工知能は白紙の状態から学習する中で
Usually, when we get AI systems to watch video games, we expect them to play the games afterward. That’s how computers have beaten everything from the board game Go to various Atari titles. But a group of researchers from the Georgia Institute of Technology are trying something different: they’re getting AI to learn how video games work instead. In a recent paper titled “Game Engine Learning from
ゲームAI専業の会社・モリカトロンを、ゲームクリエイターの森川幸人氏が起業。ゲームAI専業の企業は「日本初」という。 人工知能(AI)を採用したプレイステーション用ゲーム「がんばれ森川君2号」などを手掛けたゲームクリエイターの森川幸人氏が8月16日、ゲームAI専業企業・モリカトロン(東京都新宿区・資本金200万円)を創業した。20年以上にわたってゲームのAIを研究してきた氏のノウハウを生かし、ゲームAIのコンサルティングや設計、開発、運用を担う。ゲームAI専業の企業は「日本初」という。 森川氏はプレイステーションの初期からゲームにAIを取り入れ、自ら設計・開発してきた。「ジャンピングフラッシュ!」(ソニー・インタラクティブエンタテイメント)、「がんばれ森川君2号」(同)、「ここ掘れ!プッカ」(同)、「アストロノーカ」(スクウェア・エニックス)などを手掛けてきた。 新会社は、キャラクターの自
複雑なゲームの場合は人間が実際に打った棋譜などを膨大な量用意することになりますが、今回は○×ゲームという簡単なお題を使った練習なので、筆者が予め最善手を打った場合のデータを作成しておきました。 モデルの詳細 盤面のデータをニューラルネットに入力する際には、×は「-1」、○は「+1」、空いている場合は0として扱うことにします。○×ゲームの盤面は 9マスなので、ニューラルネットの最初の層のノード数は 9 個になります。 そして、全結合のネットワークを経て最終的には、×が勝つ確率・○が勝つ確率・引き分けの確率の3つの数値が出力されるというモデルです。 図3 学習モデルの概要 TensorFlow を使った実装 本稿で使用するサンプルコードのうち、TensorFlow で記述された学習用コード train.py の重要な部分について簡単に解説をしておきましょう。 TensorFlow にはニューラ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く