各クエリに対しそれぞれ上位 k 個の予測を出すようなシステムを評価する指標をまとめます。 Recall@k 各クエリに対して、上位 k 個の予測に含まれる正解数が、総正解数のうちどの程度の割合含まれているかを計算します。そして最後にクエリ全体で平均を取ります。 MRR (Mean Reciprocal Rank) 各クエリ i の予測を上から見たときに最初に正解が出てきた時の順位を rank_i とします。それに対して、以下のような式を計算します。 MRR = \dfrac{1}{|Q|} \sum_{i=1}^{|Q|} \dfrac{1}{rank_i} なお、予測に正解が一つも含まれない場合は \dfrac{1}{rank_i} = 0 とします。 MAP (Mean Average Precision) まず、Average Precision について説明します。これは y_j
![レコメンド指標の整理: Recall@k・MRR・MAP・nDCG](https://cdn-ak-scissors.b.st-hatena.com/image/square/7a920c0c135d4a87bfa82126a58140f249f2b3b5/height=288;version=1;width=512/https%3A%2F%2Fres.cloudinary.com%2Fzenn%2Fimage%2Fupload%2Fs--ssNf3GTc--%2Fc_fit%252Cg_north_west%252Cl_text%3Anotosansjp-medium.otf_55%3A%2525E3%252583%2525AC%2525E3%252582%2525B3%2525E3%252583%2525A1%2525E3%252583%2525B3%2525E3%252583%252589%2525E6%25258C%252587%2525E6%2525A8%252599%2525E3%252581%2525AE%2525E6%252595%2525B4%2525E7%252590%252586%25253A%252520Recall%252540k%2525E3%252583%2525BBMRR%2525E3%252583%2525BBMAP%2525E3%252583%2525BBnDCG%252Cw_1010%252Cx_90%252Cy_100%2Fg_south_west%252Cl_text%3Anotosansjp-medium.otf_37%3AKaito%252520Sugimoto%252Cx_203%252Cy_121%2Fg_south_west%252Ch_90%252Cl_fetch%3AaHR0cHM6Ly9zdG9yYWdlLmdvb2dsZWFwaXMuY29tL3plbm4tdXNlci11cGxvYWQvYXZhdGFyLzYxMTZhZmU1YmMuanBlZw%3D%3D%252Cr_max%252Cw_90%252Cx_87%252Cy_95%2Fv1627283836%2Fdefault%2Fog-base-w1200-v2.png)