このブログを検索
POPULAR POSTS
SPONSORED LINK
RECENT POSTS
TWEETS
LABEL
Tech
(139)
プログラミング
(91)
機械学習
(75)
Python
(69)
論文紹介
(39)
diary
(36)
深層学習
(22)
競技プログラミング
(21)
読書
(14)
Factorization Machines
(12)
振り返り
(12)
Flask
(9)
自然言語処理
(9)
C++
(8)
大学生活
(7)
数学
(6)
雑記
(6)
Kaggle
(5)
Keras
(5)
Shell Script
(5)
bash
(5)
学生
(4)
邦ロック
(4)
Atom
(3)
Heroku
(3)
React
(3)
linux
(3)
terminal
(3)
インターン
(3)
ギター
(3)
スプラトゥーン
(3)
Azure
(2)
Blogger
(2)
git
(2)
pytorch
(2)
ゲーム
(2)
ブログ
(2)
健康
(2)
理系
(2)
資格
(2)
趣味
(2)
CFML
(1)
GitHub Pages
(1)
Hugo
(1)
JavaScript
(1)
MySQL
(1)
PostgreSQL
(1)
PythonAnywhere
(1)
luigi
(1)
まとめ
(1)
エラー解決
(1)
バンディット
(1)
小説
(1)
書評
(1)
異常検知
(1)
経済
(1)
統計学
(1)
始めまして。
返信削除コメント失礼します。
元論の2.2節で「マハラノビス距離のグローバル最適化は常に実現可能とは限らないが、Weinberger等は~」という文脈があるのですが、これは何を言っているのでしょうか?
お時間ありましたら、ご教授お願い致します。
元の最適化問題では(制約が強すぎて)実行可能でない場合があるが、kNN classificationに使うmetricを学習するだけなら、あるデータ点のk近傍だけを同じclassにするだけでよく、最適化問題が扱いやすくなるので、このCMLの論文でも緩和した問題に沿って考える、ということだと認識しています。
削除ご返答ありがとうございます。
削除理解できました。
ちなみに、同じ節に出てくる「target neighbor」は、k近傍と同じ意味でしょうか?
そうだと思います。
削除ありがとうございます。
削除度々申し訳ありません。
返信削除自分でも考えたのですが、分からなかったのでいくつか質問させていただきます。
①元論2.3.2節で、BPRの問題点として、「低ランクアイテムにペナルティが十分にかからないので、TopK推薦で適切でない」とありますが、低ランクアイテムにペナルティをかけなければならなのは、低ランクのほうが外しやすいからでしょうか?
②元論3.4節で、「次元の呪いを解消するために、単位超球内にすべてのデータポイントをバインドする」とありますが、こうしても依然として単位超球の表面近くにデータが集まるだけなのでは?と思うのですが、どうでしょうか?
③元論3.2節のランク近似の方法は、ある程度納得できたのですが、近似式がガウス記号だとしたら、ランクが被る可能性はないのでしょうか?
また、U固定だとMが0になる可能性はないのでしょうか?
④この論文のモチベーションの原点は、「Implict Feedbackを用いてkNNでTopK推薦をしたい」であっているでしょうか?
長々とすみません。よろしくお願いします。m(__)m
コメントありがとうございます。
削除以下、自分の解釈ですので正しい保証はありません。参考程度にお願いいたします。
1 について
本来高ランクに予測すべきものを低ランクと予測した場合により大きくペナルティをかけた方が自然、という解釈でした。
2について
僕もそう思います。ノルムで割ってクリップするというのは原始的で本当にうまくいくのかなあと読んだときは疑問でした。
3について
ランクは被る可能性歯あると思います。重みを作るためなので大まかな大小がつかめればいいのかなと思っています。Mが0になることはもちろんあると思います。wの定義を見るとlogの中身に1足されているのはrankが0になることを考慮したものでしょう。
4について
そう思います。
ありがとうございます。
削除大変参考になりました。
このコメントは投稿者によって削除されました。
返信削除