\好評につき視聴期限を半年間延長いたしました/ ■ \ イベントレポート公開 / AIは「本物の愛」を語れるか──成田悠輔×東浩紀「民主主義に人間は必要なのか」 - webゲンロン|考えるを育てる https://www.genron-alpha.com/article20221206_01/ 無料ダイジェスト動画 https://youtu.be/W1d6MMKuKv8 ■ タイムスタンプ(クリックで該当時間にジャンプします) 第1部開始 00:09:35 第2部開始 02:22:33 第3部開始 05:13:36 ■ 【イベント概要】 『22世紀の民主主義』(SB新書)が22万部を突破し、メディアで引っ張りだこの経済学者・成田悠輔さんがゲンロンカフェにやってきます。 成田さんは同書で、ビッグデータをアルゴリズムによって分析することで、選挙にはあらわれない真の民意を抽出し、自動的に政策立
■東浩紀による後記 最初の2時間半はたいへん真面目に展開します。まさに表題どおりのイベントです。ぼくもスライドまで作っています。 けれども休憩後、我らが清水"UberEats"亮氏が登壇したあたりから急速にトークは明後日な方向に向かい始め、偏差値が乱高下する異様なカオス領域に突入します。夜がふけるにつれグルコースの安達真さんはじめさまざまな人々が召喚され、ゼロ年代を想起させる祝祭空間に。大手アプリ創業者がこんなアナーキーなイベントに10時間もつきあっていていいのか、投資家にバレないのかと、驚きしかありません。鈴木健さん、ありがとう。 ■ 無料ダイジェスト動画 https://youtu.be/lH0du7-V4nU 本編開始 00:06:05 ■ 【イベント概要】 このたびゲンロンカフェでは、SmartNews創業者であり、『なめらかな社会とその敵』の著者である物理学者、経営者、エンジニア
鈴木健と成田悠輔の対談をリアルで見てきた。鈴木健さんは全く存じ上げず、成田悠輔さんは、メディアでなんとなく拝見したことがあるくらいだった。ただ、ちょうどその数日前、たまたまアナザースカイで取り上げられていたので、ふんわり気になってはいた。メディアに積極的に出るようになって、まだ1年にも満たないのではないかと思うのだが、センセーショナルな発言が取り立たされる一方、テレビで取り上げられるときには、その発言の意図を全く捉えていないような取り上げられ方をされているとは思っていた。なんとなく、頭が良くって、刺激的な物言いをする人は違う、というキャラクターとして扱われていることはわかっても、どのような方なのかはわからなかったし、あまり興味もなかった。しかし、偶然にリアルの場で対談が聞けるようだったので、行ってみることにした。予定も空いていたし、チケットは1500円だった。それで興味を持ったら、両者の著
$ gdown --help usage: gdown [-h] [-V] [-O OUTPUT] [-q] [--fuzzy] [--id] [--proxy PROXY] [--speed SPEED] [--no-cookies] [--no-check-certificate] [--continue] [--folder] [--remaining-ok] url_or_id ... $ # a large file (~500MB) $ gdown https://drive.google.com/uc?id=1l_5RK28JRL19wpT22B-DY9We3TVXnnQQ $ md5sum fcn8s_from_caffe.npz 256c2a8235c1c65e62e48d3284fbd384 $ # same as the above but with the file
いまいち成果出ないので気分転換にブログをだらだら書いてみるテストです。 まえがき 半年くらい前に、某深層学習に興味を持ってやってみようかなーと思っていた時期があって、その時にGoでいくつかニューラルネットを書きました(参考:Restricted Boltzmann Machines with MNIST - LESS IS MORE、githubに上げたコード)。なぜGoだったかというと、僕がGoに興味を持ち始めていたからというのが大きいです。Goを知る前は、たくさん計算するようなコードを書くときはC++だったけれど、C++は色々つらいものがあるし、GoはC++には速度面で劣るもののそこそこ速く、かつスクリプト的な書きやすさもあります。C++のデバッグやメンテに費やす膨大な時間に比べれば、計算時間が1.5~2倍に増えるくらい気にしないというスタンスで、僕はC++のかわりGoを使おうとしてい
こんにちは。マイクロアドで機械学習エンジニアをしている大庭です。 マイクロアドの機械学習チームでは機械学習関連のメイン言語として長らくPythonを利用していました。 しかし最近は機械学習の成果物をAPIとしてリリースすることも多くなり、並列処理に強い言語のGoを利用することも多くなってきました。 私自身、Goは学び始めの段階で慣れない静的型付け言語に苦戦しているのですが、使えば使うほどGoの洗練された文法や機能が好きになり、最近ではPythonと同じくらいに好きな言語になっています。 今回の記事では、「Python ばっかり書いていたエンジニアGo に入門してみて感動したこと」と題して私が最近感じているGoの素晴らしさを何点か紹介させていただきます。 この記事で Go を学ぼうか悩んでる方に少しでも Go の魅力を伝えられれば幸いです。 テストが標準コマンドラインツールで行える Goはg
Send feedback Common design patterns Stay organized with collections Save and categorize content based on your preferences. Empty Responses The standard Delete method should return google.protobuf.Empty, unless it is performing a "soft" delete, in which case the method should return the resource with its state updated to indicate the deletion in progress. For custom methods, they should have their
Service Overview The Example Game Service allows Android and iPhone users to play a game with each other. The app runs on users’ phones, and moves are sent back to the API via a REST API. The data store contains the states of all current and previous games. A score pipeline reads this table and generates up-to-date league tables for today, this week, and all time. League table results are availabl
In Generative AI with Large Language Models (LLMs), you’ll learn the fundamentals of how generative AI works, and how to deploy it in real-world applications. By taking this course, you'll learn to: - Deeply understand generative AI, describing the key steps in a typical LLM-based generative AI lifecycle, from data gathering and model selection, to performance evaluation and deployment - Describe
Few-shot NER: Entity Extraction Without Annotation And Training Based On GPT March 23, 2022 Pre-trained entity extraction models based on spaCy or NLTK give great results but require a tedious annotation and training process in order to detect non-native entities like job titles, VAT numbers, drugs, etc. Thanks to large language models like GPT-3, GPT-J, and GPT-NeoX, it is now possible to extract
How To Use GPT-3, GPT-4, ChatGPT, GPT-J, And Other Generative Models, With Few-Shot Learning June 13, 2023 GPT-3, GPT-4, ChatGPT, GPT-J, and generative models in general, are very powerful AI models. We're showing you here how to effectively use these models thanks to few-shot learning, also known as prompt engineering. Few-shot learning is like training/fine-tuning an AI model, by simply giving a
SpaCyは、数年前からエンティティ抽出プロジェクトを立ち上げようとするすべての企業にとってデファクトスタンダードとなっています。何がspaCyをこれほどまでに普及させたのでしょうか?また、2023年にエンティティ抽出プロジェクトを始めようとする人にとって、spaCyの良い代替品はあるのでしょうか?この記事では、これらの点について議論してみましょう。 SpaCy エンティティ抽出用 2015年にspaCyの最初のバージョンがリリースされ、瞬く間にエンタープライズグレードのエンティティ抽出(NERとも呼ばれる)の標準フレームワークとなった。 構造化されていないテキスト(例えばウェブからのもの)があり、そこから日付、名前、場所などの構造化されたデータを抽出したい場合、spaCyは非常に良いソリューションです。 SpaCyが面白いのは、約20の言語に対応した学習済みモデルがいくつか用意されている
GPT-3.5 and GPT-4 are the two most widely used large language model (LLM) services. However, when and how these models are updated over time is opaque. Here, we evaluate the March 2023 and June 2023 versions of GPT-3.5 and GPT-4 on several diverse tasks: 1) math problems, 2) sensitive/dangerous questions, 3) opinion surveys, 4) multi-hop knowledge-intensive questions, 5) generating code, 6) US Med
はじめにこんにちは、Lightblueの園田です。 四畳半のオフィスで70億パラメータのLLMを事前学習した話ではエンジニアの樋口さんがlightblue/japanese-mpt-7bの開発・性能評価について報告しました。 本記事では、四畳半のオフィスで70億パラメータのLLMを事前学習した話で語りきれなかったしくじりも含めた開発裏話について紹介します。 LLM開発に必要なリソース一般的に、LLMの開発にはA100やH100といった最新の高性能のGPUが使われます。 本日公開されたLlama2の70Bモデルでは、A100を1,720,320時間分利用し学習されています。 このようなリソースはGPUボードの費用だけでなく、電気代も高額になることから、LLMの開発には資本力が必要とされています。 H100はパブリッククラウドでほとんど提供されていないことから、LightblueでもA100を
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く