You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert
2023/01/022024/04/10M1グランプリ,R,データサイエンス,データ分析の活用 こんにちは。M1コンサルタントのKです。今年もM1の季節がやってきました。 昨年書いた記事が少しだけ反響ありましたので、今年もM1の結果分析と、優勝するための戦略について考えてみようと思います。(年末でドタバタしていて、記事書くの遅くなってしまってすみません。) 昨年と同様、準決勝の採点を元に分析を行っています。準決勝に進んだコンビの決勝戦への進み方を考え、本分析におけるKGIは決勝進出とします。(とはいえ、M1全体の勝ち方として共通する事も多いとは思います。) 本記事の内容 2021年の分析の振り返り 分析の前に 基礎分析 山田邦子の採点はおかしかったのか? キーとなる審査員は誰? 採点の傾向は、昨年と変わったのか? まとめと戦略 今後の課題 2021年の分析の振り返り 昨年の記事にて、
はい、こんちゃーす(eyden)、Stailerのプロダクト責任者の矢本です。この記事はCEO/創業者という立場ではなく、一人のプロダクトに関わる人間として書いています。この記事の焦点はStailerのエンドユーザーでもある、お客様の”買い物体験”です。 早速ですがこの記事の結論をお伝えします。 スーパーでの買い物体験は多量の”意思決定”で構成されています Stailerはお店の買い物体験を補完するプロダクトです ネットスーパーの買い物体験を支えるのは”検索”と”推薦”という技術です つまり、検索エンジニアや、推薦を支えるMLエンジニア、推薦のアルゴリズムを作る Data Scientist、MLをプロダクト価値に落とし込んでいくテクニカルプロダクトマネージャー、これらを多数の制約からプロダクトデザインへ落とし込むデザイナーも強く募集しています。ここまででピンと来た方は10XのMLエンジニ
Who we are MissionValuesHistoryLeadershipAwardsImpact and progress Frontiers' impactProgress Report 2022All progress reportsPublishing model How we publishOpen accessFee policyPeer reviewResearch TopicsServices SocietiesNational consortiaInstitutional partnershipsCollaboratorsMore from Frontiers Frontiers ForumPress officeCarbon footprintCareer opportunitiesContact us
卒論のスライドを作るときに、over-parametrizationは凄いんだぞ!みたいな軽い気持ちでいわゆるdouble descentのグラフを載せたところ、専門外の人たちには結構衝撃*1だったようで、卒論の内容じゃなくてこれに関する質問が飛んできた 生憎その時はちゃんと論文を読んでた訳でもなく、最先端の話すぎてキチンと現象が解明されてないこともあって質問にうまく答えられたかは微妙なところだったので、これからはスライドによくわからんものを使うのはやめようと思ったのでした、、、 double descent自体結構興味深くて、この方向の研究も面白そうだなぁ、、、ということで少し読んでみた(相変わらず感想文 Deep Double Descent: Where Bigger Models and More Data Hurt [1912.02292] Deep Double Descent
この記事について 『Rユーザのためのtidymodels[実践]入門』(『tidymodels本』)を参考にしつつ、tidymodelsとtextrecipesを使って著者分類をやります。 モチベーションとしては、XGBoostを使いつつ、訓練データとしてTF-IDFで重み付けされた疎行列を与えるという『tidymodels本』ではやられていないパターンをやってみて、Feature Hashingの場合と比べてみたいと思います。 suppressPackageStartupMessages({ require(tidyverse) require(tidymodels) require(textrecipes) }) tidymodels::tidymodels_prefer() データセットの準備 ここでは、青空文庫にある以下の10人の作家の文章のうち「新字新仮名」で書かれているもののな
今年もあと3時間で終わろうとしています(記事執筆開始時点)。AWSに転職して1年、子供が生まれて1年、と変化が大きく振り返りがいがある一年でした。本記事では個人的に2022年の振り返りと2023年の抱負をしたためたいと思います。 2022年の仕事の振り返りAWS1人目のMachine Learning Developer Relationsとして、戦略の立案と実行をしました。機械学習を導入する顧客の体験を6段階に区分して、Developer Relationsは機械学習の学びから検証までの前半3段階、機械学習とSageMakerの扱いに長けたSpecialist SAがモデルの開発からスケールまでの後半3段階を受け持ち連携する体制を取りました。 AWSでの機械学習開発体験の定義競合に比べてLearningの段階で認知が取れていなかったので(※)、2022年はLearningに注力しました。
1. はじめに 前回に引き続きPyTorchを用いたarXiv実装の2回目になります。今回紹介する論文はVISUALIZING THE LOSS LANDSCAPE OF NEURAL NETSになります。 扱う内容は前回と同じニューラルネットの可視化です。ただし前回は中間層の可視化でしたが、今回は出力層の可視化です。本論文ではディープラーニングのロス関数を可視化する手法を提案しています。 ディープラーニングの学習においては、SGDやAdaGradなどのアルゴリズムを用いてロス関数を最小とするパラメータの探索を行います。凸関数は局所最適化を繰り返すことで大域的最適解が得られますが、非凸関数ではその保障はありません(参照ページ)。そしてディープラーニングのロス関数は一般に凸関数とは限らないため、学習により適切なパラメータが求まる保障はありません。 しかし、適切なバッチサイズ・フィルタサイズを
ええそうなんです、19%~20.7%を推移する博麗霊夢より1%~3%高い水準で一押し率を保ち続けており、これを上回ることができるのはリグル・ナイトバグ1匹しかいないわけです。 この高い水準を維持したまま1位になったということも含めて、今回の魂魄妖夢の1位は自機化やソシャゲの影響が少なからずあれども、ただただひたすら上がり続けてきた結果がこれだよ!というような見方になります。 ソーシャルゲームの影響はあったのか? ところで、魂魄妖夢が東方LostWordの影響は少なからず、と言及しましたが。今回の人気投票の結果にソーシャルゲームの影響はあったのでしょうか。 ここでは東方キャノンボールと東方LostWordの2つに関してみていきたいと思います。(GROOVE COASTERや太鼓の達人の東方アレンジとか、Bang Dream!にBad Apple!! feat. nomicoのカバーが来たとか
こんばんは、蓬莱です! 2017年、東方projectが始まって15年が経ちました。当初はキャラクターも十数人だったのに対し、毎年のように新作が出てきて、今や100以上の数になりましたね。 そんな膨大なキャラを抱えた東方。15年間の人気の推移を今一度確かめることは、興味深いことだと思います。こんな膨大な年月が立っているコンテンツでは、きっと熾烈な変動があったに違いありません! せっかく修士の研究で集計技術が身に着いたのですから、今回はこれを調べてみることにしましょう! 東方人気投票とは? 東方projectにおいて、人気投票は1年に1回のペースで開催されています。 部門としては、キャラクター部門、音楽部門、スペルカード部門などがあります。ベストパートナー部門とかいうのもありますから、結構幅広い投票になりますね。 参考サイト:東方シリーズ人気投票結果 – 東方wiki 投票期間は1週間と短い
昨日まで投票が行われた、第10回東方シリーズの人気投票の結果が出ていました。去年が開催されていないので、2年ぶりですね。 順位変動とか、一押し率、新キャラの得票などの結果については、それなりに考察も出てきているみたい。うちも時間を見て簡単にまとめる予定ではあります。 まずは、いつものポイント率(全ポイントのうち該当キャラに投票された率)についての推移をグラフにしてみました。総ポイント数は投票者数によって毎回大きく変動しますが、ポイント率は全体が100%ですので、相対的な人気度が判ると行ったところでしょうか。また、順位だけの比較では判りにくい、他のキャラとの位置関係などや、相対的な人気の推移が判りやすいかなと思います。 今回は6回〜10回の上位キャラをグラフにしました。今回(第10回)の上位50キャラのこれまでの推移および、第9回までは40位以内に入ったキャラなどがグラフに記載されています。
追記 (2015/02/21) いくつか抜けてるところがあったなぁと思ったので、後から追記や加筆修正してみました。最初のオリジナル版から少し内容が変わっているところがありますがご了承ください。 ちょっと前の記事でこんなネタをやってみたわけですが。 世の中には色々な「データ分析」のやり方があるなぁと思った時に、この同じ2013年のテニス四大大会のデータからそれぞれのやり方をしている人たちがどんな異なるアプローチを取るのかなぁとふと想像したもので、半分ネタ的に書いてみました。便宜的に以下のようにステージを分けてあります。 集計ステージ 検定ステージ 相関ステージ 重回帰分析ステージ 機械学習を含めたモデリングステージ 厳密性に拘るステージ なお、データは以前の記事と同じこちらのものをお使い下さい。 その上で、Rで分析する際は以下のように前処理しておきます。単にプレイヤー名・獲得ゲーム数・総獲得
活発なSNS、研究には最適 水面下の動向は把握困難 民間のルグラン、驚きの予想も 6月17日に沖縄で開かれる予定のAKB48選抜総選挙を前に、今年もネット上のつぶやきや書き込みなど膨大なデータを独自の方法で解析した順位予測が、相次いで発表されています。論文発表やビジネスに直結はしないのに、大学や企業が取り組む「ワケ」は? 人間の心理にデータで迫ろうと、飽くなき挑戦をする姿がありました。 鳥取大の石井教授「世代交代が進むのでは」 鳥取大の石井晃教授の研究室は6月14日、順位予想をまとめました。 1位指原莉乃さん(HKT48)、2位渡辺麻友さん(AKB48)、そして3位に宮脇咲良さん(HKT48)を予想。速報発表で1位になり、驚きが広がった荻野由佳さん(NGT48)も5位としました。 石井さんは「荻野さんは3月以降ずっと勢いを示す指数が高い」と話し、「世代交代が進むのではないか」と期待していま
Taste of Wine vs. Data Science from Takashi J OZAKI 先日、とある勉強会で話してきた内容がこちらです。ネタとしてはもう皆さんお分かりでしょうが、以前書いた記事の続きみたいなものです。 ある程度自動的にテイスティング・スコアが付けられれば、世の中にゴマンとあるWine AdvocateやWine Spectatorのサーチに引っかからないようなワインの数々にも化学測定指標だけからスコアを付けることができて、僕のような素人がワインを選ぶ際の良い参考になると思うんですよね。そんな思いを込めた発表をしてきました。 ところで会場での質疑でもあったんですが、この手の「ヒトの手で教師ラベルをつけた学習データ」を扱う上での最大の問題は、当然ながら「教師ラベルをつけた個々人の好みが出てしまう」点かと。なのでこれはもう仕方ないので、例えば「Wine Advoc
Plotly Dash User Guide & Documentation
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く