-
Notifications
You must be signed in to change notification settings - Fork 28
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
EHCF_Sin 在ML1M上的结果 #13
Comments
我不太清楚你是怎么把loss跑成nan的,或许你可以试试https://github.com/chenchongthu/ENMF 的代码,EHCF_Sin和ENMF是一致的。 关于代码核心,我们不仅是做Positive rating的User-Item Matrix拟合,而是在全样本数据上做非采样学习,可以看一下论文里的推导。 |
嗯,谢谢回复!
这边的不是loss为nan,而是代码最后的:
希望您那边能检查一下代码! 论文核心推导结论是公式(8),虽然从推导开始是 全样本,但是因为中间作了一些假设,所以才可以简化成公式(8)的样子,而单纯看公式(8)的话,其实是U-I matrix的拟合。 |
我看了ENMF的代码,跟EHCF逻辑和实现上一样,没有看出来有这两个类有什么明显的区别?还请赐教~? ENMF的我正在跑~ |
ENMF我这边是可以跑出来,但是结果跟report的差比较多。 |
因为你用的数据不一样 chenchongthu/ENMF#9 |
好的,谢谢啦! diff了一下,ENMF和EHCF类的代码完全一样。 |
是完全一样 |
Hi, 作者,您好。 感谢您分享代码,我用您的原始代码跑了ML1M的数据集(无改动),Test的结果是这样的:
不知道 您那边自己跑过没?看原代码核心就是对 Positive rating的User-Item Matrix进行拟合,虽然不进行negative sampling,但是这样理论上效果不会好于MF之类的。
算法的核心在公式(8):
不知道我理解的对吗? 请教如何能跑出您论文中的结果,谢谢啦!
The text was updated successfully, but these errors were encountered: