これは、プレイヤーがキャラクターになりきって、 朗読劇を演じながら謎を解き明かしていく 体験型推理ゲームです。 制限時間 なし 所要時間 4~5時間※中断や休憩も可能です。 推奨人数 4人※2〜4人でのプレイが可能です。 プレイ環境 オンライン (パソコン推奨) 開始時間 いつでもOK 『時間旅行と7つの謎』ってどんなゲーム? 各キャラクターの台詞は、そのキャラクターを選択したプレイヤーだけに表示される。 お互いに担当キャラクターの台詞を朗読し、協力してシナリオを進行しよう。
宇宙飛行士の食事の要である「宇宙食」は、厳しい条件の数々をクリアした限られた食品に限定されます。半世紀以上に渡る宇宙開発の歴史では宇宙食の改善も進みましたが、それでもまだ課題はあります。 例えば、アメリカの有人宇宙ミッションで食品貯蔵用の冷蔵庫が設置された例は1970年代の宇宙ステーション「スカイラブ」だけであり、大半のミッションで冷蔵庫は使用されていません。そのため宇宙食は室温で保管できるような形に加工された上で無菌状態で密封されますが、このような形態の食品は長期保管で栄養成分や食感などの品質が劣化する恐れがあります。また、これまでの有人宇宙ミッションは短期間で終了するか、補給のしやすい地球低軌道で行われてきたため、宇宙食の補給は地上からの輸送に頼っています。 【▲ 図1: 長期宇宙ミッションで摂取が推奨される1日の栄養素。過ごす環境の違いから、推奨摂取量は地上にいる人向けのものとは異な
Scaling a design across all form factors and platforms has become the new challenge in the software industry. From watch to phone to tablet to desktop, teams must also consider iOS, Android, Win8 and HTML5 implementations. Opinions on native vs. HTML5 aside, most companies use a mix of both to balance the best user experience with time to market and reusability cross-platform. So, how the heck do
靴下を自分で作りたい! と試行錯誤するうちに、19世紀半ば頃に発明された手回し式の靴下編み機の存在にたどり着きました。3Dプリンターを使って、自分の靴下を編むのにちょうどいい機械を作ってみました。 靴下は楽しい。カラフルなものだったり、動物や恐竜の総柄だったり、ちょっと表に着るのは勇気がいるものでも身に着けやすいところが好きです。自分の着るものはできるだけ自分で作るのが私の信条。靴下も自分で作ってやろうと試行錯誤してきました。 靴下は伸縮性が大事なため、布を縫うのではなく編んで作られています。市販の靴下の中には薄くて布のようなものもありますが、よく見ると編み目があるのが分かります。そのため、ミシンを使った縫物ではなく、編み物の技術が必要となってきます。 靴下を作ろうとして初めに試したのは、おもちゃの編み機。取っ手を回すと筒状に毛糸を編める子ども用のおもちゃです。小さいころ大好きで、おばあち
庵野の作品より庵野本人に興味がありすぎて だいたいのことは「庵野だから仕方ないか」と許してしまう程度の庵野ファンが見た完全ネタバレ感想 怪人蜘蛛男とのバトル 地味だが中々いい。期待が高まる。 ロボット刑事Kとキカイダーが出てくる。 コントラスト強めの白黒映像についていけない独自設定を早口で解説され、 人を殺してしまった主人公の苦悩などを忙しないカット割で表現され、 実写版キャシャーンを見ている気持ちになり、不安が高まる。 なんか本郷猛は常にプルプル震えている。メンタル大丈夫かこの人 緑川ルリ子の顔面のクオリティが高すぎ、どアップで映してもアニメの綾波レイ以上に美しいのでずっと見ていられる。 怪人蝙蝠男の顔面のクオリティがキモすぎてドン引き。飛び方もキモい。 バイクが発進したと思ったらもう敵のアジトについているなどTV版を踏襲した荒っぽいカット割が多い。 劇場を埋め尽くしたルリ子の複製が拍手
実際にOculus Questで使用しているときのスクリーンショット: 何が嬉しいのか ブラウザ(Chrome)だけあれば動く(※1) 起動や接続が速い 大きなスクリーンをたくさん配置できる 画面の映像やマウス操作が中継サーバを通らないので安心 ※1:ブラウザ上のJavaScriptからはマウスやキーボードを制御できないので,マウス操作のためには別プロセスが必要です(後述) 他のOculus Questで動作するリモートデスクトップアプリは起動時に待たされるものが多く,特にWebXRコンテンツをOculus Questをかぶったまま開発したいとき,動作確認のたびにアプリを切り替えるのは現実的ではありませんでした.ブラウザ上で動作すれば,キャッシュ済みであればほとんど待たされることなく起動しますし,タブの切り替えだけなら一瞬です. デモ PCの画面をOculus Questで表示するだけなら
MetaがメタバースじゃなくてAIに本気出すってよ2023.03.20 12:3025,146 Lauren Leffer - Gizmodo US [原文] ( mayumine ) そうだよね、AIのビッグウェーブに乗り遅れるわけにはいかん。 ChatGPTのような大規模な言語モデルを活用したチャットボットの台頭により、人類皆AIに没頭中。Microsoft、Google、Amazon、Snapchat、LinkedInといったテック企業は、必死にテキスト生成技術の開発を急いだり、ChatGPTを自社サービスに取り込んだりする動きが活発になっています。もちろん、Facebook、Instagram、WhatsAppの親会社であるMetaも例外ではありません。 唯一最大の投資はAIを進化させることMetaは、先月新たな大規模言語モデル「LLaMA」をリリースし、その数日後、マーク・ザッカ
ウクライナ西部で爆発音 岸田首相訪問中、ロシア軍が攻撃か 2023年03月22日12時20分 ウクライナを訪問した岸田文雄首相=21日(AFP時事) ウクライナ紙ウクラインスカ・プラウダ(電子版)によると、22日未明(日本時間22日午前)、西部フメリニツキーで爆発音が聞こえた。市当局が「爆発音が聞こえた。避難せよ」と呼び掛けた。キーウ(キエフ)州や北部チェルニヒウ州、キーウ西方のジトミル州などでも空襲警報が鳴っており、ロシア軍が各地を一斉に攻撃した可能性がある。 松野官房長官、首相警護は「ウクライナが実施」 浜田防衛相、自衛隊関与せず 岸田文雄首相は21日にキーウを訪問した。ゼレンスキー大統領との会談を終えて21日深夜(同22日早朝)、キーウを出発した。 政治 ウクライナ情勢 コメントをする
本記事では、Transformerの基礎として、Multi-Head Attentionの仕組みを分かりやすく解説します。 本記事の構成は、はじめにTransformerおよびTransformer Blockについて紹介し、TransformerにおけるMulti-Head Attentionの重要性について説明します。その後に、Multi-Head Attentionがどのような仕組みで実現されているのかを説明します。本記事を読めばMulti-Head Attentionについて、概要から計算式に至るまで、ほぼ全てをご理解いただけると思います。 解説動画は以下になります。 Transformer Transformer[1]とは2017年に高精度な機械翻訳モデルとして登場した機械学習モデルです。Transformerが提案された論文のタイトルは「Attention Is All You
ChatGPTから効率よく知識を得られた。 と自分では思っていても、それがウソ知識であることは、よくあります。 そこで、なるたけChatGPTのウソに騙されないようにする方法について書きました。 たとえば、今、僕はガリア戦争(紀元前58~50年)を舞台にしたSF娯楽小説の戦闘シーンを書いているのだけど、ローマ兵の剣の刃渡りの長さがわからないと戦闘シーンの駆け引きの描写がリアルにならないし、挿絵も描けない(プロの方にカラー挿絵を描いてもらうことになっている)。 そこで、以下のようにChatGPT(GPT4)に聞いてみた。 ガリア戦争に従軍したローマ兵の剣の刃渡りはどれくらいの長さでしたか? ChatGPT(GPT4)の回答は以下の通り: ガリア戦争に従軍したローマ兵は、主にグラディウスと呼ばれる剣を使用していました。グラディウスの刃渡りはおおよそ45センチメートルから60センチメートル(約1
1. マルチヘッドアテンション (Multi-head Attention) とは [概要] マルチヘッドアテンション (Multi-head Attention) とは,Transformerで提案された,複数のアテンションヘッドを並列実行して,系列中の各トークン表現の変換を行うブロック部品である [Vaswani et al., 2017].端的に言うと「並列型アテンション」である. この記事では,Transformerの主部品としての「マルチヘッドアテンション」について,処理の詳細や利点についてみていく(2節).旧来の系列対系列変換でも用いられていた「ソース・ターゲット系列間の相互アテンション」の役割も引き続きTransformerで担当するが,それに加えて,自己アテンションとしての役割もTransformerで担当する点が,特に重要である(3節). 親記事:Transformer:
そして、今回の事件はスタートアップ企業や金融システムにどのような影響を与えるのだろう? 現在、テック・金融業界の双方で大きなニュースとなっているのが、シリコンバレー銀行の経営破綻だ。SVB(シリコンバレー銀行)は、知られているように、スタートアップ企業(「スタートアップ」とは認知度がまだ高くないテック企業)に多額の資金を融資し、スタートアップ企業や他のテック企業に様々な金融サービスを提供していた銀行だ。ここに良いまとめ記事がある。 「何が生じたか」と過去形を使ったのは、木曜日(つまり昨日)、多くの人が、SVBから預金を引き出したからだ。SVBは、お金の返却を求める人たち全員に支払うだけの現金を保有していなかったため、経営破綻することになった。銀行の経営破綻の予防と救済を行っている政府機関FDIC(連邦預金保険公社)は、SVBを管理下に置いた。 これは何を意味しているのだろう? まず、SVB
このところ,メディアでさかんに論議されているものといえば,アメリカに押し寄せてる十代の不幸の原因はいったいなんなのかってテーマだ.先日,『ワシントンポスト』記者のテイラー・ローレンツが連続ツイートでこう論じていた――いま十代の子たちが不幸せになっている主な理由は,単純に,自分たちを取り巻く世界が「地獄めいた場所」だと彼らが認識しているからにすぎないんだそうだ: きらびやかな悲観論は,なんの役にも立たないよ このところ,メディアでさかんに論議されているものといえば,アメリカに押し寄せてる十代の不幸の原因はいったいなんなのかってテーマだ.先日,『ワシントンポスト』記者のテイラー・ローレンツが連続ツイートでこう論じていた――いま十代の子たちが不幸せになっている主な理由は,単純に,自分たちを取り巻く世界が「地獄めいた場所」だと彼らが認識しているからにすぎないんだそうだ: タイラー・ローレンツ:みん
どんどん進化しているAI。ホントに人間と会話しているかのような感じでチャットできるようになっています。 ……だったらもう、実在の人間にインタビューする必要もないのかも!? ということで、AIに架空の珍スポットと、それを作った(という設定の)面白おじさんの人格を生成してもらい、面白おじさんにインタビューしてみました。 1975年群馬生まれ。ライター&イラストレーター。 犯罪者からアイドルちゃんまで興味の幅は広範囲。仕事のジャンルも幅が広過ぎて、他人に何の仕事をしている人なのか説明するのが非常に苦痛です。変なスポット、変なおっちゃんなど、どーしてこんなことに……というようなものに関する記事をよく書きます。(動画インタビュー) 前の記事:立体映像ブームが来ると信じてずっと待ってるんですが……いつ来るんですか!? > 個人サイト Web人生
1983年徳島県生まれ。大阪在住。散歩が趣味の組込エンジニア。エアコンの配管や室外機のある風景など、普段着の街を見るのが好き。日常的すぎて誰も気にしないようなモノに気付いていきたい。(動画インタビュー) 前の記事:木ではなく家電にとまって鳴き出す「セミのおもちゃ」をつくる > 個人サイト NEKOPLA Tumblr 工事現場にある旗振りLED看板の魅力 車やバイクに乗っている人は、一度は目にしたことがあるのではないだろうか。この看板のことである。 警備員が無限に旗を振り続ける看板たち(セフテック株式会社の画像素材データより) セフテック株式会社が発売しているLED看板で、サイズやアニメーションの違いでいろんなバリエーションがあるようだ。本当は動画があればいいんだけど、私が見かけるのはほとんどがバイクに乗っているときなので、まだ撮影する機会に恵まれていない。 お辞儀をするだけの看板も見たこ
Java 20が2023/3/21にリリースされました。 https://mail.openjdk.org/pipermail/jdk-dev/2023-March/007517.html The Arrival of Java 20! 今回、正式導入された大きな機能はありません。プレビューとしても新しいものはScoped Valueひとつだけです。次回Java 21がLTSなので、ウォーミングアップなバージョンという感じですね。 詳細はこちら JDK 20 Release Notes Java SE 20 Platform JSR 395 OpenJDK JDK 20 GA Release APIドキュメントはこちら Overview (Java SE 20 & JDK 20) 追加されたAPIまとめはこちら https://docs.oracle.com/en/java/javase/
GPTでAI界隈が沸騰している。開発者も含めて誰も急激な性能向上の理由を理解出来ていない。普段は半年や1年で古くなるような時事ネタはあまり呟かないことにしているが、このところの動きがあまりに早く、未来に向けての不確実性が高まってい… https://t.co/1BCs8cXavs
ChatGPTで独自データを利用できるLlamaIndexはどんな仕組みで動いているのか?調べてみました ChatGPT APIがリリースされて、すでにさまざまな試行錯誤が始まっていますね。 なかでも、「自社の独自のデータを使ってChatGPTに質問を答えさせたい」というのは興味を持っている方が多いのでは、と思います。しかしながら、この記事を書いている2023年3月12日現在では、最新のモデルであるgpt-3.5-turboに、標準機能で追加で独自のデータをユーザーが学習させることはできません。 この「独自のデータをChatGPTで使う」ことを簡単に実現させる手段の1つとして、LlamaIndex(旧GPT Index)に注目が集まっています。 このDevelopersIOでも、LlamaIndexを使ってブログ記事を読み込ませて質問してみる、という試みを紹介する記事がいくつか投稿されてい
The Shawshank Redemption is a true masterpiece of cinema, a movie that deserves every bit of its status as one of the greatest films ever made. From its stellar performances to its unforgettable storytelling, everything about this film is a testament to the power of great filmmaking. Hugging Face is a technology company that was founded in 2016 by Clément Delangue, Julien Chaumond, and Thomas Wolf
完全自動運転車両の開発、販売に取り組むTuringは3月20日、完全自動運転を実現するための国産の大規模言語モデル(Large Language Model:LLM)開発に着手したと発表した。 LLMは、大量のテキストデータから学習し、人間のような自然な文章を生成したり、質問に答えたりすることができるAIモデル。Turingは、完全自動運転の実現には、人間と同等以上にこの世界を理解した自動運転AIが必要と説明している。生成AIやChatGPTに代表されるLLMの本質は、「言語を通じて極めて高いレベルでこの世界を認知、理解している」ことにあるため、自動運転AIの開発にLLMのアプローチは有効だという。 Turingは、「現実世界への適応力」「リアルタイム性と計算効率」「安全性と堅牢性」の3点に注力しながらLLMの開発を進める。 現実世界への適応力では、自動運転AIが状況に応じた適切な判断と行
2023/3/23 追記: こちら半年以上前に執筆したもので、その後私の理解も進んで内容的に更新したいところが結構あるため、近日中に非公開とさせていただき,更新後に再公開させていただくつもりです。現時点での本記事の内容は、大きく間違ってはいないけどちらほら微妙なところがあるという感じです。 (ざっくり理解するだけでも良いという人にはそれでも良いかもしれませんが、そういう方向けには 今執筆中のこちらの記事 をおすすめします。) −−−− 最近話題のmidjourneyやDALL-E、凄いですよね。中身はディープラーニング(DNN)のようです。DNNといっても色んな技術がありますが、それらにはTransformerという手法が使われています。本記事は、その手法がどんなものであるかを数式を使わずに説明してみよう、という主旨になります。 ※なお本記事は機械学習のプロの研究者ではない私の独自の解釈が
GPT4が登場してChatGPTが盛り上がってますね。 本記事は、GPT(を支えるTransformerという仕組み)をChatGPTユーザにとって分かりやすく説明し、その能力と限界についての見通しをよくしよう、という趣旨になります。 少し長くなりそうなので、全部で記事を3回に分けようと思います。 (1)大まかな背景と概要:本記事 (2)GPTの能力と可能性:実際の使用例とTransformerの仕組みを踏まえて説明 (3)GPTの限界と未来展望:Transformerの仕組みが持つ限界と研究の進展を予想 GPT3と4の違い: トークン長とは何か? まずここから話を始めます。GPT-3は、パラメータ数が750億個(850GBの容量を食う)でトークン長が4097(GPT-3.5)でした。GPT-4は、パラメータ数は非公開でトークン長は32768ですので、ちょうど8倍になります。 さて、トーク
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く