メルカリは社員の博士号取得を支援する制度を導入する。国内の大学院の博士課程に通う学費を年間200万円まで支給する。選ばれた社員は最大で勤務時間の全てを研究活動に充てられる。分野を限らず社員の自発的な研究を後押しし、メルカリの新規事業創出を狙う。2月から募集を始める。メルカリに2年以上在籍する正社員が対象。2022年秋からの入学を想定し、6月をめどに5人程度を選ぶ予定。入学金や学費などを原則3年
![メルカリ、社員の博士号取得支援 年200万円支給 - 日本経済新聞](https://cdn-ak-scissors.b.st-hatena.com/image/square/9abdbe26550bead622374e29afcd26e86cc36ea6/height=288;version=1;width=512/https%3A%2F%2Farticle-image-ix.nikkei.com%2Fhttps%253A%252F%252Fimgix-proxy.n8s.jp%252FDSXZQO1528754027012022000000-1.jpg%3Fixlib%3Djs-3.8.0%26auto%3Dformat%252Ccompress%26fit%3Dcrop%26bg%3DFFFFFF%26w%3D1200%26h%3D630%26fp-x%3D0.5%26fp-y%3D0.5%26fp-z%3D1%26crop%3Dfocalpoint%26s%3D0bc76bc07e9db1efe105a94b227f48bb)
Neural Network Libraries v1.25.0をリリースしました!BERTのファインチューニングスクリプトが追加されました! BERTについては、nnabla ディープラーニングチャンネルでも解説動画を用意しているので、ぜひご覧ください。 また、v1.25.0のリリースに際して、nnabla-examples内のディレクトリ構造を大幅に変更しました。タスクベースでディレクトリを整理するようになったため、以前とはディレクトリ名が変更されていたり、属している親ディレクトリが異なるものもありますので、以前の構造に慣れている方は注意するようお願いします。 Spotlight BERT ファインチューニング BERT (Bidirectional Encoder Representations from Transformers)はトランスフォーマーベースの言語モデルであり、自然言
It’s been quite a year for Graph ML — thousands of papers, numerous conferences and workshops… How do we catch up with so many cool things happening around? Well, we are puzzled as well and decided to present a structured look at Graph ML highlighting 🔥 trends and major advancements. The image was generated by ruDALL-E with a prompt “graphs floating in space”.Whether you are working on a narrower
関連キーワード BI(ビジネスインテリジェンス) | データ分析 新型コロナウイルス感染症(COVID-19)が世界経済にもたらした混乱は金融犯罪の急増を引き起こし、マネーロンダリング(資金洗浄)が社会の脅威となっている。国際連合(UN)は、毎年最大2兆ドルが違法に動いていると推定している。金融業はAML(反マネーロンダリング)を目的として、ML(機械学習)などのAI(人工知能)技術への投資に、一層力を入れている。 約3割の金融機関が利用を加速 マネーロンダリング対策としてのAI技術 併せて読みたいお薦め記事 AI技術を活用した意思決定 金融機関が「予測分析」に基づく意思決定をためらう理由 「Appleは信頼を失いかねない」 Apple“人の心を読むAI”を専門家が不安視 犯罪者は組織犯罪とつながった金を隠すため、よく大手銀行を利用する。架空口座を利用して資産を転々と移転させることで、犯罪
進む製造機械の「知能化」、学習済みAIを搭載する動きが拡大へ:MONOist 2022年展望(1/2 ページ) AI(人工知能)の活用が広がりを見せている。こうした中で、新たな動きとして定着が進んでいるのが、工作機械や射出成形機など、製造機械へのAI機能の組み込みである。2022年はこうした動きがさらに加速し、AIの学習までを機械メーカーが担って出荷する動きが進む見込みだ。 ≫「MONOist新年展望」のバックナンバー AI(人工知能)の活用が広がりを見せている。一時期の行き過ぎたブームが落ち着きを見せてきたことから、強みや弱みを見極めた上で、使用されるケースが増えてきている。こうした中で、新たな動きとして定着が進んでいるのが、工作機械や射出成形機など、製造機械へのAI機能の組み込みである。2022年はこうした動きがさらに加速し、AIの学習までを機械メーカーが担い、機械の機能を拡張する動き
Artificial intelligence is largely a numbers game. When deep neural networks, a form of AI that learns to discern patterns in data, began surpassing traditional algorithms 10 years ago, it was because we finally had enough data and processing power to make full use of them. Today’s neural networks are even hungrier for data and power. Training them requires carefully tuning the values of millions
人工知能(AI)はデータのパターンを識別して学習するため、とにかく十分なデータと処理能力が必要です。AI開発現場における処理能力の要請は年々増大しており、AIの開発者は数百万から数十億のパラメータを注意深く調整しなければいけません。これを達成するために設計された「ハイパーネットワーク」について、インドの作家兼ジャーナリストのアニル・アナンサスワーミー氏が解説しています。 Researchers Build AI That Builds AI https://www.quantamagazine.org/researchers-build-ai-that-builds-ai-20220125/ 人工知能の構築には「最適化」と呼ばれるプロセスで限りなく理想に近い値を見つけていくことが肝要ですが、ここに到達するためにネットワークをトレーニングすることは簡単ではありません。そんな難解なプロセスにつ
やること 一世を風靡したお笑い芸人、コウメ太夫氏のネタは、白塗りメイクと派手な着物に身を包み、甲高い裏声で「Xかと思ったら、Yでした〜!」と歌い上げてから、絹を裂くような金切り声で「チクショー!」と叫ぶというものです。その面白さを言葉によって説明するのは極めて難しいですが、「Xかと思った」という前振りの文Aと、「Yでした」というオチの文Bの接続の突拍子のなさが可笑しみを生み出しているというのは間違いないでしょう。しかし、ただ脈略のない二文を繋げればよいというわけではなく、理解不能ではあるけれどまるで無関連というわけではない、その飛躍具合の妙でネタの出来が決まると考えられます。 そこで、今回はコウメ太夫氏のネタを構成する二つの文の飛躍の程度を定量化し、ネタの面白さにどのような関係があるかを分析します。 文の意味を捉えるために、自然言語処理モデルであるBERTを使います。また、ネタの面白さの指
日立製作所は2021年12月24日、従来のブラックボックス型AI(人工知能)を判断基準が明確なAIに変換する「AI単純化技術」を開発したと発表した。同技術の一部を、同社グループにおいて製品出荷前の自動検査ラインに適用し、熟練者不足の解消や検査速度の向上効果を確認している。 信頼できるAIには、精度だけでなく、説明性、透明性、品質、公平性などが必要になる。従来のブラックボックス型AIは、予測精度が高い一方、数式が複雑で判断基準が不明確のため、未知のデータに対して意図しない予測結果を導く不安やリスクを抱えていた。 同社はあらゆる入力に対して、人が理解できる単純な予測式を作り、明確な判断基準の下で予測結果を提示できる技術を開発した。さらに、経験や知識に基づいてユーザー自身で予測式を調整可能とし、信頼できるAIの構築を容易にした。
山形県酒田市の離島・飛島と酒田港を結ぶ定期船が出航するかどうかを予測する人工知能(AI)を、仙台高専(仙台市)の園田潤教授らが開発した。過去10年間の気象データと運航実績の関係をAIに学習させ、現段階で約8割の確率で出航か欠航かを予測できるという。今後はより詳細なデータを加味し、精度のさらなる向上…
GPTは、人間が使う会話や文章に出てくる単語の確率の組み合わせから次の単語の確率を計算する言語モデルだ。 例えば、「確率(吾輩は猫である)=確率(吾輩)×確率(は|吾輩)×確率(猫|吾輩,は)×確率(で|吾輩,は,猫)×確率(ある|吾輩,は,猫,で)」のような方法で計算する。この性質を用いて、「吾輩は」という単語を入力したとき、次の単語として確率が高い「猫」を予測できる。 性能は14パープレキシティー 関連記事 2021年の「AI/機械学習」はこうなる! 5大予測 2020年は、自然言語処理(NLP)のTransformer技術に基づくBERT/GPT-3や、画像生成のディープフェイクが大注目となる一方で、倫理に関する問題がさまざまな方面でくすぶり続けた。2021年の「AI/機械学習」界わいはどう変わっていくのか? 幾つかの情報源を参考に、5個の予測を行う。 Microsoft、自然言語処
","unk_token":"","pad_token":"[PAD]","bos_token":"","cls_token":"[CLS]","sep_token":"[SEP]","mask_token":"[MASK]"}},"discussionsDisabled":false,"downloads":1941,"downloadsAllTime":682916,"id":"rinna/japanese-gpt-1b","isLikedByUser":false,"isWatchedByUser":false,"inference":"Yes","lastModified":"2024-04-03T07:17:07.000Z","likes":92,"pipeline_tag":"text-generation","library_name":"transformers","lib
rinna株式会社(本社:東京都渋谷区/代表取締役:ジャン“クリフ”チェン、以下rinna社)は、日本語に特化した13億パラメータのGPT言語モデルを開発し、公開しました。 ■背景 rinna社はこれまでに、日本語の自然言語処理 (NLP) に特化したGPT (3.3億パラメータ) やBERT (1.1億パラメータ) の事前学習モデルを公開し、多くの研究・開発者にご利用いただいています。最近のNLPに関する研究では、モデルのパラメータ数が多いほど高い性能であることが知られています。 そこでrinna社は、これまでに公開してきたモデルより大規模な13億パラメータを持つ日本語に特化したGPT言語モデルを開発し、日本語のNLPコミュニティに貢献するために、この言語モデルをNLPモデルライブラリ Hugging Face に商用利用可能なMITライセンスで公開しました。 ■ Hugging Fac
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く