Twitterユーザーの春さん(@haruofhennano)が制作した、「ソーシャルゲームによる、属性相関図によるゲーム全体のバランス構築時における問題と傾向」にさまざまな意見が集まっています。あなたの遊んでいるゲームは属性相性バランス、ちゃんと取れていますか? 現在運営されている多くのソーシャルゲームでは、キャラに「属性」が設定されています。「属性」はゲームによってさまざまで、「火水雷」でじゃんけんのような3すくみのシンプルなものから、そこに「土」や「風」が加わって4すくみ5すくみになっているもの、独立した「無」属性があるもの、「光闇」の2すくみが別に存在するもの、属性の名称が「天・明・魔」とか独特なもの、とにかく属性の数が多いもの……などなど、ゲームの数だけ属性相性が存在するといっても過言ではありません。 よくある属性相性相関図 今回の春さんの考察では、最初に「パズドラ」でおなじみの
Python標準実装より速い!?Oracleが作ったGraalPythonをJython・CPythonとベンチマークしてみた!!Pythonoracleベンチマークgraalvmgraalpython GraalVM・GraalPythonとは GraalVMは2018年4月27日にOracleから公開された仮想マシンです. GraalVM is a universal virtual machine for running applications written in JavaScript, Python, Ruby, R, JVM-based languages like Java, Scala, Clojure, Kotlin, and LLVM-based languages such as C and C++. GraalVMはJavaScript,Python,Ruby,R
ふりかえりで使える手法としてKPTやYWTなどがありますが、新しくファン・ダン・ラーン(Fun/Done/Learn)というアプローチを作ったので紹介します。チームがやったことを、Fun、Done(またはDeliver)、Learnという3つの軸とその重複で見直します。上の図のように、Fun、Done(Deliver)、Learnのを重ね合わせた図をボード上に書いて、そこに分類していきます。 この図を見れば、経験のあるファシリテーターやスクラムマスターなら自分なりのやり方が思いつくのではないでしょうか。ぜひ自由に使ってみてください。以下では、私たちが実際に試してみた方法を紹介します。 まずホワイトボードや模造紙に、上のFun/Done/Learnの図を描く。重なり合う領域が狭くなりすぎないよう気をつけること メンバー1人ひとりで、やったことを付箋に書き出す 付箋の内容を共有して会話しながら
今DL for NLP界で、BERTというモデルが話題です。PyTorchによる実装が公開されていたので、日本語Wikipediaコーパスに適用してみました。 コードはこちらに公開しております。 2018/11/27 作成したBERTのモデルを使って内部動作の観察とその考察を行いました。単語の潜在表現獲得の部分で感動的な結果を見せてくれました。ご興味あればご覧ください↓ https://qiita.com/Kosuke-Szk/items/d49e2127bf95a1a8e19f この記事ではBERTのポイントの解説と、ポイントごとの実装を紹介します。 尚、記事の執筆にあたってこちらのリポジトリを参考にさせていただきました。 https://github.com/codertimo/BERT-pytorch 本記事は以下の4つで構成されています。 ・BERTとは ・BERTのキモ ・BER
「ロボットは東大に入れるか」プロジェクトで開発した大学入試センター試験1990年度~2017年度の電子化問題データを公開します。 このデータは、本プロジェクトにおいて、川添愛氏を中心としてXMLによる構造化仕様を策定し、アノテーションを実施したものです。 元データの著作権者である独立行政法人大学入試センターのご厚意により、人工知能などに関する研究のための資源として一般に公開します。 試験問題データ 開発用データ(development data) [1993年以降4年ごとに2017年度までのセンター試験 本試験および追試験] 開発テスト用データ(development test data) [1991年以降4年ごとに2015年度までのセンター試験 本試験および追試験] 最終テスト用データ(final test data) [1990年度以降2年ごとに2016年度までのセンター試験 本試験お
今DL for NLP界で、BERTというモデルが話題です。PyTorchによる実装が公開されていたので、日本語Wikipediaコーパスに適用してみました。 コードはこちらに公開しております。 2018/11/27 作成したBERTのモデルを使って内部動作の観察とその考察を行いました。単語の潜在表現獲得の部分で感動的な結果を見せてくれました。ご興味あればご覧ください↓ https://qiita.com/Kosuke-Szk/items/d49e2127bf95a1a8e19f この記事ではBERTのポイントの解説と、ポイントごとの実装を紹介します。 尚、記事の執筆にあたってこちらのリポジトリを参考にさせていただきました。 https://github.com/codertimo/BERT-pytorch 本記事は以下の4つで構成されています。 ・BERTとは ・BERTのキモ ・BER
sangmin.eth @ChoimiraiSchool @gijigae アリババの人工知能チームが @Stanford 大学の読解力テストで人間に始めて勝ったのが、今年の1月。スコアは、 ・人:82.304 ・AI:82.44 グーグルの《BERT》でトレーニングさせた人工知能のスコアは何と、87.433!10カ月で5ポイントも上げている。人間とマシン、読解力の差は今後更に広がる🤖。 twitter.com/GoogleAI/statu… 2018-11-03 16:51:29 Google AI @GoogleAI We have released @TensorFlow code+models for BERT, a brand new pre-training technique which is now state-of-the-art on a wide array of
シリコン(ケイ素)の大きな単結晶(純度99.999999999%)を、ダイヤモンドブレードでスライスして、薄いシリコンウェーハを作ります。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く