サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
大谷翔平
github.com/mlse-jssst
機械学習は結果が100%保証されるものでないというのは共通認識だが、ロボット系などでは「正しい出力ができなかった場合にシステムを停止する動作」を担保する必要がある。そのあたりの連携についても観点に含まれるか。→Yes 自動運転で判断を迷ったとき、ドライバーの人命が大事なので安全な状態に移動する(停止する)というのが求められる 安全弁は2重3重の機構が必要になる★ MLのシステムは入力データによっては落ちることがあるので皆さんどうしていますか? 例えば、アルゴリズム部分が落ちても、何かしら値を返すようにしておくなど工夫が必要 たとえば人命がかかわらない領域(アドテクなど)の監視観測はどのような例があるか?(人命がかからないからと言ってクリティカルではない、というわけではないが) 広告システムの例。レコメンドなど。精度が悪くなった場合にどういう被害があるかという話がある。ダイナミック広告(商品
このページを最初にブックマークしてみませんか?
『github.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く