【論文紹介】Collaborative Metric Learning (WWW2017)

【論文紹介】BPR: Bayesian Personalized Ranking from Implicit Feedback (UAI 2009) 【論文紹介】WSABIE: Scaling Up To Large Vocabulary Image Annotation (IJCAI 2011)

コメント

  1. 始めまして。
    コメント失礼します。
    元論の2.2節で「マハラノビス距離のグローバル最適化は常に実現可能とは限らないが、Weinberger等は~」という文脈があるのですが、これは何を言っているのでしょうか?
    お時間ありましたら、ご教授お願い致します。

    返信削除
    返信
    1. 元の最適化問題では(制約が強すぎて)実行可能でない場合があるが、kNN classificationに使うmetricを学習するだけなら、あるデータ点のk近傍だけを同じclassにするだけでよく、最適化問題が扱いやすくなるので、このCMLの論文でも緩和した問題に沿って考える、ということだと認識しています。

      削除
    2. ご返答ありがとうございます。
      理解できました。
      ちなみに、同じ節に出てくる「target neighbor」は、k近傍と同じ意味でしょうか?

      削除
    3. そうだと思います。

      削除
    4. ありがとうございます。

      削除
  2. 度々申し訳ありません。
    自分でも考えたのですが、分からなかったのでいくつか質問させていただきます。

    ①元論2.3.2節で、BPRの問題点として、「低ランクアイテムにペナルティが十分にかからないので、TopK推薦で適切でない」とありますが、低ランクアイテムにペナルティをかけなければならなのは、低ランクのほうが外しやすいからでしょうか?

    ②元論3.4節で、「次元の呪いを解消するために、単位超球内にすべてのデータポイントをバインドする」とありますが、こうしても依然として単位超球の表面近くにデータが集まるだけなのでは?と思うのですが、どうでしょうか?

    ③元論3.2節のランク近似の方法は、ある程度納得できたのですが、近似式がガウス記号だとしたら、ランクが被る可能性はないのでしょうか?
    また、U固定だとMが0になる可能性はないのでしょうか?

    ④この論文のモチベーションの原点は、「Implict Feedbackを用いてkNNでTopK推薦をしたい」であっているでしょうか?

    長々とすみません。よろしくお願いします。m(__)m

    返信削除
    返信
    1. コメントありがとうございます。
      以下、自分の解釈ですので正しい保証はありません。参考程度にお願いいたします。

      1 について
      本来高ランクに予測すべきものを低ランクと予測した場合により大きくペナルティをかけた方が自然、という解釈でした。

      2について
      僕もそう思います。ノルムで割ってクリップするというのは原始的で本当にうまくいくのかなあと読んだときは疑問でした。

      3について
      ランクは被る可能性歯あると思います。重みを作るためなので大まかな大小がつかめればいいのかなと思っています。Mが0になることはもちろんあると思います。wの定義を見るとlogの中身に1足されているのはrankが0になることを考慮したものでしょう。

      4について
      そう思います。

      削除
    2. ありがとうございます。
      大変参考になりました。

      削除
  3. このコメントは投稿者によって削除されました。

    返信削除

コメントを投稿