2023年9月27日 AVILEN[5591]の開示資料「事業計画及び成長可能性に関する事項について」 が閲覧できます。資料はPDFでダウンロードできます
Rapidly self-serve the assembly of customized dashboards in minutes - without the need for advanced coding or design experience - to create flexible and scalable, Python enabled data visualization applications Use a few lines of simple configuration to create complex dashboards, which are automatically assembled utilizing libraries such as Plotly and Dash, with inbuilt coding and design best pract
仕事で Ubuntu + Docker を使うシーンが出てきて環境を構築したので、備忘録を兼ねて環境構築方法を記録しておこうと思います。 これまで何度も Ubuntu + Docker 環境を作ってきましたが、Windowsの WSL(Windows Subsystem for Linux)で Ubuntu + Docker 環境を構築するのは初だったので思った以上にハマってしまいました。 WSLのバージョン、Ubuntuのバージョンによって難易度が左右されることを思い知らされました。 Windows環境と Linuxディストリビューション、Docker # 今回 Ubuntu + Docker 環境を構築するベースになるWindows環境は以下です。 OS: Windows 10 pro OSバージョン: 22H2 OSビルド: 19045.3324 導入したい Linuxディストリビュ
apt install で 404 になってたので先に apt update すっかーと思ったらそっちが謎のエラー。”not valid yet” って。”yet” って。 Release file for http://security.ubuntu.com/ubuntu/dists/focal-security/InRelease is not valid yet (invalid for another 1h 12min 24s). $ sudo apt update [sudo] password for ginpei: Hit:1 https://download.docker.com/linux/ubuntu focal InRelease Get:2 http://security.ubuntu.com/ubuntu focal-security InRelease [114
ABEJAでデータサイエンティストをしている小林です。 今回は、もしかしたらいつか業務や機械学習コンペに役立つかもしれない情報、LightGBMで弱教師あり学習を行う方法についてお話します。 コードはこちらで公開しております。 目次 はじめに 弱教師あり学習の例(マルチインスタンス学習) LightGBMで弱教師あり学習がしたい! PU分類 問題設定 解き方 LightGBMの実装 実験 Partial Label Learning 問題設定 解き方 LightGBMの実装 実験 マルチインスタンス学習 問題設定 解き方 LightGBMの実装 実験 おわりに はじめに 機械学習を行うためには、一般的に、大量の入力データと、それら一つ一つに対応した正確なラベルが必要です。 例えば、犬と猫の画像分類を行う場合には、それぞれの画像一つ一つに犬か猫のラベルがついていてほしいですね。 一方で場合に
「Googleの組織的強さ」ってどこにあると感じますか?ちなみに、日本の会社にそれに近い強さ、をもつ会社はありませんでしょうか。 眼の前の仕事を上手くやる、という技芸レベルの話では実はそれほど他社との決定的な差はなく、組織として上手く行ってるのはとにかくスケールする事を意識しているのがポイントではないかと思っています。 組織構造のデバッグが上手仮に全社員が優秀で与えられたタスクを誠実にこなしていても、組織を大きくしていくと部署間で細かい矛盾が起きたり正義が衝突することは珍しくありません。また衝突しなくても特定の問題を解決する部署が事実上存在しなかったり問題自体が放置される事は一般的な組織において珍しくありません。 Googleが組織として上手くやっているなと感じるのはそういった組織内での矛盾を早期に見つけて自発的に解決しようとし続けているという点です。技術の創造と設計という本から図を引用し
本記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 ブレインパッドは、LLM/Generative AIに関する研究プロジェクトを立ち上げ、この「Platinum Data Blog」を通じてLLM/Generative AIに関するさまざまな情報を発信をしています。 今回は、LLMの学習・推論の高速化・効率化をテーマに3つの論文をご紹介します。 目次 今回のテーマ A Survey on Model Compression for Large Language Models 選定理由 論文概要 モデル圧縮の基本的な手法 課題と将来の方向性 レビュー会FB 関連論文 Retentive Network: A Successor to Transformer for Large Language Models 選定理由 論文概要 Transf
Google Cloud の法人向け AI、生成 AI サービスまとめ こんにちは、クラウドエース編集部です。 昨年登場した ChatGPT を皮切りに大量のデータと学習をもとに、新たなコンテンツを生み出す生成 AI 技術への注目が高まっています。また、従来の AI 技術もあらゆるビジネスやサービスで活用されており社会にとって不可欠な存在となっています。 また、それを裏付けるかのように、AI 開発に欠かせない GPU(Graphics Processing Unit)市場を独占するエヌビディア社の 2023 年 8 月 24 日の決算発表は市場予想を大幅に超える凄まじい数字が報告され、世界の AI 需要の急拡大が実態を伴うものであることが証明されました。 そんな中、Google Cloud でもビジネスニーズや開発シーンにおいて最先端の AI 技術や生成 AI 技術を活用できるプロダクトが
(論文解説) Making Small Language Models Better Procedural Knowledge Models for (Counterfactual) Planning
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く