野球ってルール理解してないと見ても楽しめないスポーツだと思うんだけどみんなどこで野球覚えるんだ
![野球ってルール理解してないと見ても楽しめないスポーツだと思うんだけど..](https://cdn-ak-scissors.b.st-hatena.com/image/square/b1638cdb5807a4788e4ba3c1109a984166e095fc/height=288;version=1;width=512/https%3A%2F%2Fanond.hatelabo.jp%2Fimages%2Fog-image-1500.gif)
江戸時代の浮世絵師、葛飾北斎の代表作の一つとして知られる版画が、アメリカで開かれたオークションで3億6000万円余りで落札されました。オークション会社によりますと、事前の予想額を大きく上回り、北斎の版画としては過去最高額だということです。 落札されたのは、葛飾北斎の版画の代表作「富嶽三十六景」のうち、富士山を背景に荒波と船を描いた「神奈川沖浪裏」です。 21日、アメリカ ニューヨークで開かれたオークションで、276万ドル、日本円で3億6000万円余りで落札されました。 オークション会社によりますと、今回の版画は初期に刷られたもので、コレクターからの人気が高かったうえに、保存状態もよかったことから、希少価値が高く、事前に予想されていた落札額を大きく上回ったということです。 2021年には、今回と同じ「神奈川沖浪裏」の別の版画が159万ドルで落札されていましたが、今回はそれを上回り、北斎の版画
Isao Tsuyumoto / 露本伊佐男 @tsuyu2011 ニュースによってはWBCの映像使用料が高いからか、試合の動画映像でなく、静止画像を使っているが、石川県ローカルの情報番組になると、おもちゃの野球盤を使って、試合展開を説明するんだ。字幕で「映像を使う予算がありません。大人の事情をご賢察ください」と出てたり(笑)。 2023-03-21 12:40:57 Isao Tsuyumoto / 露本伊佐男 @tsuyu2011 だいたい平日の午前10時台か、午後4時から5時台までの石川ローカルの情報番組。ネタがないときは出演者らが、スタジオで小学校みたいな楽器を演奏して、童謡を合唱してたりする。あれで視聴率何%くらいなんだろう(笑)。 2023-03-21 18:51:46
ChatGPTから効率よく知識を得られた。 と自分では思っていても、それがウソ知識であることは、よくあります。 そこで、なるたけChatGPTのウソに騙されないようにする方法について書きました。 たとえば、今、僕はガリア戦争(紀元前58~50年)を舞台にしたSF娯楽小説の戦闘シーンを書いているのだけど、ローマ兵の剣の刃渡りの長さがわからないと戦闘シーンの駆け引きの描写がリアルにならないし、挿絵も描けない(プロの方にカラー挿絵を描いてもらうことになっている)。 そこで、以下のようにChatGPT(GPT4)に聞いてみた。 ガリア戦争に従軍したローマ兵の剣の刃渡りはどれくらいの長さでしたか? ChatGPT(GPT4)の回答は以下の通り: ガリア戦争に従軍したローマ兵は、主にグラディウスと呼ばれる剣を使用していました。グラディウスの刃渡りはおおよそ45センチメートルから60センチメートル(約1
ソニー懐かしの電子書籍リーダー、今月末で完全に終了2023.03.22 07:0031,158 Andrew Liszewski - Gizmodo US [原文] ( 湯木進悟 ) まだあったんですね…。 本は紙で読みたいという要望は根強いものです。 でも、いまやKindleとかiPadで読書するという人が圧倒的に増えてきました。いつからこういう時代になったのでしょう? 実はその先駆けは、ソニーだったって思い入れがある方に、サヨナラのニュースですよ。 電子書籍向けソフトも完全終了世界で最初にE Inkの電子ペーパーを採用した、コンパクトなタブレット型の電子書籍リーダーを発売したのは、ソニーなんです。 2004年に「Librie」を発売して以来、次々とPortable Reader System(PRS)シリーズのモデルを投入。 ですが、後発のAmazonのKindleシリーズには、通信機
2023/3/23 追記: こちら半年以上前に執筆したもので、その後私の理解も進んで内容的に更新したいところが結構あるため、近日中に非公開とさせていただき,更新後に再公開させていただくつもりです。現時点での本記事の内容は、大きく間違ってはいないけどちらほら微妙なところがあるという感じです。 (ざっくり理解するだけでも良いという人にはそれでも良いかもしれませんが、そういう方向けには 今執筆中のこちらの記事 をおすすめします。) −−−− 最近話題のmidjourneyやDALL-E、凄いですよね。中身はディープラーニング(DNN)のようです。DNNといっても色んな技術がありますが、それらにはTransformerという手法が使われています。本記事は、その手法がどんなものであるかを数式を使わずに説明してみよう、という主旨になります。 ※なお本記事は機械学習のプロの研究者ではない私の独自の解釈が
2023年3月21日にGoogleの新しいジェネレーティブAI、「Bard」のパブリックテストが米国と英国で開始しました。(対象国は順次増えるとのこと。) We're expanding access to Bard in US + UK with more countries ahead, it's an early experiment that lets you collaborate with generative AI. Hope Bard sparks more creativity and curiosity, and will get better with feedback. Sign up: https://t.co/C1ibWrqTDr https://t.co/N8Dzx1m0fc — Sundar Pichai (@sundarpichai) March 21,
GPT4が登場してChatGPTが盛り上がってますね。 本記事は、GPT(を支えるTransformerという仕組み)をChatGPTユーザにとって分かりやすく説明し、その能力と限界についての見通しをよくしよう、という趣旨になります。 少し長くなりそうなので、全部で記事を3回に分けようと思います。 (1)大まかな背景と概要:本記事 (2)GPTの能力と可能性:実際の使用例とTransformerの仕組みを踏まえて説明 (3)GPTの限界と未来展望:Transformerの仕組みが持つ限界と研究の進展を予想 GPT3と4の違い: トークン長とは何か? まずここから話を始めます。GPT-3は、パラメータ数が750億個(850GBの容量を食う)でトークン長が4097(GPT-3.5)でした。GPT-4は、パラメータ数は非公開でトークン長は32768ですので、ちょうど8倍になります。 さて、トーク
MIT researchers found that massive neural network models that are similar to large language models are capable of containing smaller linear models inside their hidden layers, which the large models could train to complete a new task using simple learning algorithms. Large language models like OpenAI’s GPT-3 are massive neural networks that can generate human-like text, from poetry to programming c
OpenAIから発表されたGPT-3の論文。基本的にはGPT-2をスケールアップした内容であり、NLPの様々なタスクを自己回帰型の推論形式に落とし込むことでパラメータの更新なしに各タスクを処理することができる。論文は付録も含めて74ページから構成されるが、ここでは冒頭のIntroductionとApproachを紹介する。 1 Introduction Transformerベースのアーキテクチャをファインチューニングすることで、文章読解や質問回答などといった多くのタスクで優れた性能を得ることができている。一方で、こうしたアプローチはタスクを既知として学習しており、目標タスクの学習データが必要になるという制約がある。この制約を乗り越えることは、以下の観点から重要であると言える。 タスクによっては、十分な教師ありデータを用意するのは大変な場合がある。タスク固有の教師ありデータの必要性は、言語
もとから、ゆるっとふわふわ、ぷくぷくのキャラクターなのかと思いきや初期設定は割とホラーだったようだ。むしろ子どもにトラウマを与えかねないレベルだったようだ。 フランスの老舗タイヤメーカーのキャラクター「ミシュランマン」は、今はマショマロみたいにかわいいけれど、デビュー当時はかなり容姿が異なっていたのである。 B級ホラー映画に出てきそうな外見から、いつのまにやらイメチェンしてたミシュランマンの変遷にせまってみよう。
メタバースへの注目は過去最大に高まっている。さまざまな企業がメタバース、そしてVRのビジネスへの活用進めているだけでなく、個人の楽しみ方もこれまで以上に広がった。しかし、現在注目されているメタバースやVRの活用の大半は、健常者に向けたものと感じられる。 没入感の高いVRは、脳に働きかけて体験者の行動を変えることも可能だ。障がい者のアクセシビリティ(利用しやすさ)を考える際、移動やモノを扱うときに物理的な障壁が生じることは多くの人が想像できるだろう。その一方、気づかれにくいのがデジタル世界へのアクセシビリティである。イギリスでは、障がい者以外の人々のインターネット利用率が75%であるのに対し、障がい者コミュニティでは41%にとどまるとされている。 リモートでの働き方やオンラインイベントなど、テクノロジーの発展は、我々の生活に選択肢を増やし続けているが、VRは身体障がいを持つ方の生活にどのよう
以下で今回使用する三つのタスクについて紹介します。 XL-Sum:2021年に公開された44言語を含むニュース要約データセットです。BBCの記事の本文やヘッドラインの要約文から作られていて、本文から要約文を生成するタスクです。 人手評価や自動評価で高品質であることが示されています。 日本語の部分は合計8891本文-要約ペアがあり、GPTの応用先として要約が期待されているためこのタスクを採用しています。 本実験ではROUGEを評価指標として自動評価を行います。 JNLI:2022年に公開された日本語言語理解ベンチマークJGLUEのタスクです。 2つの文の間に含意関係があるかを含意/中立/矛盾の3段階で判定する自然言語推論(Natural Language Inference, NLI)タスクで、BERT系モデルの評価でよく使われています。 日本語GPTに対しては、入力の文ペアをモデルに与えて
Both leaders are on strategic foreign visits on opposing sides of the conflict.
ファーストリリースでは記事のタイトルとブコメしか読んでいなかったはてのちゃんですが、やはりそれだけだとワードサラダ感が強く自分の理想とするAIブックマーカーではなかったため、ちゃんと記事の中身を読ませるようにしました。 もちろんすべてのwebページで的確に読めているわけではありませんが、ある程度テストしたところそこそこ読めるようになったと思います。 ロジックとしては汎用的には下記の記事を参考にさせてもらいました。 増田とかはてなブログはホットエントリー率が高いので、もうちょっと個別に抜き出しロジックを作ってます。 srbrnote.work これで抜き出した本文全部に対してコメントさせているのではなく、いったんこれをある程度のところまででGPTに要約させて、その要約とブコメを元にコメントさせるスタイルに変更しました。 何度かテストしたところ質は格段に上がったと思います。 ちなみに、漫画のエ
かつては大学生だった。今から約20年前のことだ。地元の公立高校で必死に勉強して、勉強して、勉強して、青春のすべてを犠牲にして京都大学法学部に合格した。一浪だった。いわゆるイカ京みたいな京大生がたくさんいる中で、自分もその1人から脱出しようと頑張ってみたが、結局だめだった。 40歳が間近になった今では、没落というか、いや元々高い位置にはいなかったのだが……今は、普通に非正規労働者をやっている。契約社員みたいな仕事に就くこともあるが、あまり続かない。1年くらいで辞めることが多い。結局、学歴って大したことはないんだよなぁ、と実社会で働くようになった今では感じる。 これから、大学時代の話をさせてほしい。暗い話になる。みんなジメジメした話は嫌いだろう。だから、すぐに終わらすよ。頑張って五千字以内に収める。リアル一人称が僕なので、以降は僕でいくことにする。 入学式を終えて大学生になった僕は、どこかのマ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く