Discover amazing ML apps made by the community
以下の記事が面白かったので、簡単にまとめました。 ・Introducing MPT-7B: A New Standard for Open-Source, Commercially Usable LLMs 1. MPT-7B「MPT-7B」は、「MosaicML」が開発した、テキストとコードの1Tトークンでゼロから学習したLLMです。オープンソースで、商用利用可能で、LLAMA-7Bと同等の品質を持ちます。約20万ドル、人間介入なし、9.5日間、MosaicMLプラットフォームで学習しています。 2. モデル一覧ベースモデルに加えて、3つのファインチューニングモデルも提供しています。 2-1. MPT-7B (ベースモデル)「MPT-7B」は、6.7Bパラメータを持つベースモデルです。MosaicMLのデータチームが収集したテキストとコードの1Tトークンで学習しました。 ・ライセンス :
7期連続で赤字だった動画配信サービス「ABEMA(アベマ)」が、いよいよ収穫期へ入ろうとしている。サイバーエージェントは4月26日、2023年9月期中間決算(2022年10月~2023年3月期)を発表した。売上高は3632億円(前年同期比0.3%増)と前年同期並みだったが、営業利益は175億円(同61.5%減)と大幅に後退した。 2021年2月にリリースし、爆発的に収益を押し上げたスマートフォンゲーム『ウマ娘 プリティーダービー』の収益が漸減。さらに広告事業の先行投資を増やしたことが響いた。 厳しい決算はある程度、織り込み済みだったが”サプライズ”もあった。アベマを擁するメディア事業が大幅に改善し、5億円の営業赤字にとどまったのだ。これは2016年4月のアベマ本開局から最小の部門赤字額となる。 わずか3カ月で赤字が急減 今第1四半期決算(2022年10~12月)では、FIFAワールドカップ
ブログ「読書猿 Classic: between/beyond readers」主宰。「読書猿」を名乗っているが、幼い頃から読書が大の苦手で、本を読んでも集中が切れるまでに20分かからず、1冊を読み終えるのに5年くらいかかっていた。 自分自身の苦手克服と学びの共有を兼ねて、1997年からインターネットでの発信(メルマガ)を開始。2008年にブログ「読書猿Classic」を開設。ギリシア時代の古典から最新の論文、個人のTwitterの投稿まで、先人たちが残してきたありとあらゆる知を「独学者の道具箱」「語学の道具箱」「探しものの道具箱」などカテゴリごとにまとめ、独自の視点で紹介し、人気を博す。現在も昼間はいち組織人として働きながら、朝夕の通勤時間と土日を利用して独学に励んでいる。 『アイデア大全』『問題解決大全』(共にフォレスト出版)はロングセラーとなっており、主婦から学生、学者まで幅広い層か
私は個人でwebツールを開発したりその手順を公開する弱小のコンテンツ提供者です。 あれどうよ。個人開発でも企業でもいいけど、コンテンツ提供者としてどう思う?私の感想はこんな感じです。 いちゃもんに話の腰を折られたくないので先に言っとくけど、私は変化には寛容な方なのでグチとかじゃなくて現状認識です。 ・広告収入モデルはほぼ終わり 広告収入モデルとは、情報やサービスを無料でユーザーに提供するから広告を見る(またはクリック、成約する)ことで対価を企業に支払ってもらうことだと認識している。しかし、bingでは情報はAIにまとめられるので、情報提供では広告収入が得られなくなると感じた。 ・アッパーとボトム以外は淘汰 bingの回答は「〜が一般的です」と「詳しくはこちら」で構成される。今までは検索ワードから提案される10〜20のサイトから、自分に合うサイトを選ぶため「検索ワードの組み合わせ数×ユーザー
Audio Classification • Updated Sep 6, 2023 • 202M • • 226
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く