![[Pythonコードあり] サポートベクター回帰(Support Vector Regression, SVR)のハイパーパラメータを高速に最適化する方法](https://cdn-ak-scissors.b.st-hatena.com/image/square/81fd569fb92d28a405ecad284d013d9019663c37/height=288;version=1;width=512/https%3A%2F%2Fdatachemeng.com%2Fwp-content%2Fuploads%2Fcharacter_program_fast.png)
すごいニュースが飛び込んできた。オセロの必勝法が見つかったのだ。正確に言うとオセロが弱解決された。まずはその論文を紹介する。 Othello is Solved : https://arxiv.org/abs/2310.19387 「弱解決(weakly solved)」を簡単に言うと、初期局面からの双方最善手を打つ時の結論(勝敗)がわかったと言う意味である。8×8のオセロの結論は引き分けなのだそうだ。「必勝法が見つかった」と本記事のタイトルで書いたが、その結果として双方最善を尽くした時のオセロの結論が引き分けだったことが判明したので正しくは「必勝法(必ず勝てる方法)が存在しないことが証明された」とでも言うべきか。 今回は、初期局面から到達できるあらゆる局面についての結論(勝敗)がわかったわけではない。こちらは「強解決(strongly solved)」と呼ばれる。 弱解決と強解決とでは、
最近、ある企業が「AIイニシアチブは大成功だった」と話してくれました。3年間、プロジェクトの失敗は「ゼロ」で、7人からなるデータサイエンティストチームが毎年2つのAIユースケースを本番稼動させているとのことです。この失敗率は低すぎると思いませんか? 仮に、あなたの組織に1000のAIユースケース候補があり、そのうちの25%はROIが大きくプラスになる可能性があるとしましょう。適切なコストで、良いユースケースを見つけるにはどうすればよいでしょう?多くの企業は、成功を確信できる少数のユースケースから始めますが、その確信を正当化するためには経験が不足しています。その結果、少数のユースケースに全リソースを注ぎ込み、ROIを見出すのに何年もかかっています。 一方、AIに成功している多くの企業では、リーンで(無駄を省いた)フェイルファストな(早く失敗する)別のアプローチをとっています。興味深い例として
今回は、何も知らないところからバンディットアルゴリズムを学びました。 シンプルなバンディットアルゴリズムから、各ユーザーごとに最適化するContextual Bandit、順序を最適化するCascading Banditまで解説します。 学んでいて疑問に思ったことを解消しつつ記載しています。 ソースコード https://github.com/birdwatcherYT/bandit 対象読者 バンディットアルゴリズムを理解して実装したい人 ユーザーごとにカスタマイズしたバンディットを理解して実装したい人(Contextual Bandit) 順序を最適化するバンディットを使いたい人(Cascading Bandit) バンディットアルゴリズム バンディットの問題設定を説明します。 スロットマシンN台がある スロットマシンの腕を引くと報酬がもらえる 累積報酬を最大化したい バンディットアル
2023年10月31日11:07 【画像】トヨタ「仕事における7つのムダがこれです」 Tweet 1: 以下、5ちゃんねるからVIPがお送りします 2023/10/31(火) 08:29:58.834 ID:akXbXXR8dHLWN 自白強要、証拠改ざんで死刑執行があった以上もはや死刑廃止が妥当。←感情論抜きで反論出来る? 2: 以下、5ちゃんねるからVIPがお送りします 2023/10/31(火) 08:30:09.683 ID:akXbXXR8dHLWN お前らやってないか? 3: 以下、5ちゃんねるからVIPがお送りします 2023/10/31(火) 08:31:59.236 ID:m5Xc0UaZ0HLWN そもそもニートだからやってない 4: 以下、5ちゃんねるからVIPがお送りします 2023/10/31(火) 08:32:17.112 ID:BmPBPAHH0HLWN 最初
マスタリングとは? DTM(デスクトップミュージック)におけるマスタリングは、音楽制作の最終段階で行われる重要な工程です。 このプロセスでは、ミックスダウンされたトラック全体のサウンドを調整し、音楽の品質を最終的に磨き上げます。マスタリングには、EQ(イコライザー)による周波数のバランス調整、コンプレッサーを使ったダイナミクスの管理、必要に応じて特定の帯域のブーストやカット、そして全体の音量レベルを適切なdBに調整する作業が含まれます。 DAW(デジタルオーディオワークステーション)上で行われるこのプロセスには、様々なプラグインが使用されます。 これらのプラグインには、マキシマイザー、EQ、コンプレッサーなどがあり、楽曲の音質を向上させるために必要な調整を行います。また、ボーカル、キック、ベースなどの主要な音源に対して、MS(ミッドサイド)処理やステレオイメージの調整など、さらに細かなエフ
はじめに 先日、PCを2台程、Intel 第12世代 Core i5 12600KF(Alder Lake)に更新したと言う記事を書きましたが、Intel 第4世代Core i7 4790K(Haswell Refresh)からの更新となるので、大幅な性能アップを実感しており、また動作も非常に安定しており、2台とも大変調子良く動いてくれています。 ただ、12600K を含む Alder Lake の上位モデルは、高性能コアのPコアと高効率コアのEコアのハイブリッド構成となっており、この事が起因して、一部のアプリケーションでパフォーマンスが出ない現象を経験しています。 今回は、この件について症状や原因、それと解決策などについて少し書きたいと思います。 不適切なコアの割り当て 今回組んだ Core i5 12600KF も ハイブリッドアーキテクチャを採用しており、構成は10コア16スレッド(
さっき書いたエントリで「GPT-4Vに旅先の写真を見せて本は書けるか」というのをトライしようとしたら予想の斜め上になったので共有する。 神の雫か?誰だよリナって 旅行記を書かせてみる世界一周の配達員: 砂漠の楽園への到着 彼の名はタカシ。かつて日本の小さな町でUberEatsの配達員として日々を過ごしていた彼が、ある日、世界一周の旅に出ることを決意した。バイクでの配達の経験を活かし、彼は自らのバイクを相棒に、未知なる地へと足を進めた。 アジア、ヨーロッパ、アフリカと彼は数々の国々を渡り歩き、その途中で多くの文化や料理、そして人々との出会いに心を温められてきた。一度は高山の頂上でバイクが故障し、夜を迎える寸前に現地の住民に助けられたことも。その度に、彼の心には新しい経験とともに感謝の気持ちが刻まれていった。 そして、彼が辿り着いたのは、砂漠の中に突如現れる壮大な人工の楽園、ドバイ。画像からも
博報堂テクノロジーズの坂井です。 業務で機械学習に取り組む際に「誤差」についてどう考えているかを共有します。 機械学習モデルの誤差を減らしたい 機械学習では完璧なモデルを学習するのは難しく、何らか誤差が残ってしまうのが普通です。 誤差は主に何が原因なのか どうしたら減らせる可能性があるのか を実務家向けに系統的に整理してみました。 誤差を “四階層” に分解 機械学習モデルの誤差は、次の四階層に分解できます: ベイズ誤差 - “誤差の理論限界” モデル誤差 - “仮定したモデルの表現力が原因の誤差” 推定誤差 - “データ量が原因の誤差” アルゴリズム誤差 - “学習アルゴリズムが原因の誤差” 4つの層はそれぞれ、誤差を減らすための方策が違います。「このモデルにはどの誤差が一番多く乗っているんだろう」ということを推測しながら、筋の良い手立てを試していくことが有効です。 以下、各層をそれぞれ
今や機械学習と言えばほぼディープラーニング、つまり多層のニューラルネットワークを指すようになった。ニューラルネットワークによる識別手法や生成手法で溢れる昨今だが、それらとは別の用途にニューラルネットワークを活用する例も増えてきている。 Ne... ブログにディープラーニング関連の手法まとめ記事を投稿するのは3年ぶりか。 自分の疑問に答えるように、自分の理解の穴を埋めるように改めて関連分野も調べて図に起こしていたらだいぶ手間がかかってしまった。 3Dコンピュータビジョンは概念を3次元的に図示できるので直感的に理解しやすいはずだが、作図に手間がかかるのか論文にはちゃんとした概念図があまり載っておらず、過去のCG分野の論文の引用で説明が済まされている範囲が多く感じた。 精読することで、参考図書に載っていた概要説明に一部誤りがあることにも気づけた。 自分の理解度の確認には、やはり自分なりに記事にま
以下の記事が面白かったので、かるくまとめました。 ・Methods and tools for efficient training on a single GPU 1. LLMを単一GPUで効率的に学習する方法大規模モデルの学習では、次の2つを考慮する必要があります。 ・スループット・学習時間 ・モデルのパフォーマンス 「スループット」 (サンプル / 秒) を最大化すると、学習コストの削減につながります。これは通常、GPUメモリを限界まで利用することで実現されます。必要なバッチサイズがメモリオーバーする場合は、「Gradient Accumulation」などの「メモリの最適化」が必要になります。 ただし、「推奨バッチサイズ」がメモリに収まる場合は、学習が遅くなる可能性があるため、「メモリの最適化」を適用する必要はありません。どのバッチサイズが最良の結果をもたらすかを決定し、それに応じ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く