ところてん @tokoroten 株式会社NextInt 代表 著書「ChatGPT攻略」 共著「仕事ではじめる機械学習」「データサイエンティスト養成読本 ビジネス活用編」 データ分析、コンサル、ゲームディレクター、技術顧問、企業での研修・講演などで出稼ぎ労働中。 お仕事相談はDMからどうぞ。 nextint.co.jp slideshare.net/TokorotenNakay…
カリフォルニア大学バークレー校などの研究チームがオープンソースの大規模言語モデル「Vicuna-13B」を公開しました。Vicuna-13BはOpenAIのChatGPTやGoogleのBardに近い精度で回答を生成でき、日本語にも対応しているとのこと。実際に動かせるデモも公開されていたので、使ってみました。 Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality | by the Team with members from UC Berkeley, CMU, Stanford, and UC San Diego https://vicuna.lmsys.org/ GitHub - lm-sys/FastChat: An open platform for training, serving, a
この1週間はGPT-3のユースケースの広さに驚かされる毎日でした. シリコンバレーでは話題騒然ですが日本ではほとんど話題になっていないので,勢いで書くことにしました. GPT-3はOpenAIが開発した言語生成モデルです.名前の由来であるGenerative Pretrained Transformerの通り,自然言語処理で広く使われるTransformerモデルを言語生成タスクで事前学習しています. 先月申請すれば誰でもGPT-3を利用できるOpenAI APIが発表され,様々な業種の開発者によって驚くべきデモンストレーションがいくつも公開されています. 特に話し言葉からJSXやReactのコードを生成するデモは著名なベンチャーキャピタルから注目を集め,誇大広告気味だと警鐘を鳴らす事態に発展しています. This is mind blowing. With GPT-3, I built
僕は1年ちょっと前に、長らく使っていたATOKを離れて、Google日本語入力に乗り換えた。 ありがとうATOK。30年間お世話になりました。— aikawame (@aikawame) 2017年10月25日 そしてこの度、めでたく出戻りを果たすこととなった。 我慢の限界に達したのでATOKに出戻り。今回はプレミアムにしてみた。— aikawame (@aikawame) 2019年1月12日 出戻りの背景 ツイートにもあるように、僕は30年来のATOKユーザーだ。一太郎Ver.3(昭和62年発売)の頃から使っていて、人生で一番長く使ってきたソフトウェアなのは間違いない。 ただ、最近ではGoogle日本語入力のユーザーが増えていて、ATOKと比べても遜色ないという話もちらほらある。僕自身はATOKの変換精度に満足していたし、毎月300円払う価値は十分にあると思っていたけれども、他のIME
前の記事 段ボール製、3000円の電子楽器シリーズ(動画) 「書くことの効果」実証される 2011年1月25日 サイエンス・テクノロジー コメント: トラックバック (0) フィードサイエンス・テクノロジー Brandon Keim Photo:Renato Ganoza, Flickr 学習し、記憶するには、それを題材にして文章を書くことが一番良い効果があるようだ。 1月21日付けで『Science』に掲載された研究では、大学生200人が科学に関する短い文章を5分間読むように求められた。 学生にはその後、次のいずれかの指示が与えられた。テスト向けの詰め込み勉強のように何度か読み返す、題材に関する「コンセプトマップ」[概念等の相関を表す地図]を作る、読んだ文章に関する自由形式のエッセー(小論文、作文)を10分間で書く、という指示だ。 1週間後、学生は覚えていることに関する簡単なテストを受け
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く