以下是本例的简要目录结构及说明:
├── data #样例数据
├── sample_data
├── train.csv #训练数据样例
├── test.csv #训练数据样例
├── config.yaml # sample数据配置
├── config_bigdata.yaml # 全量数据数据配置
├── dygraph_model.py # 构建动态图
├── infer.py # 预测脚本
├── movielens_reader.py #数据读取程序
├── net.py # 模型核心组网(动静统一)
├── readme.md #文档
注:在阅读该示例前,建议您先了解以下内容:
ENSFM 是一个只有一层预测层的浅 FM 模型,跟 DeepFM, CFM 相比在复杂度和参数量上都更少,却在模型效果上表现显著的优势。结果验证了论文Eicient Non-Sampling Factorization Machines for Optimal Context-Aware Recommendation的观点:负采样策略并不足以使模型收敛到最优。与之相比,非采样学习对于优化 Top-N 推荐任务是非常有效的。
本模型使用论文中的数据集ml-1m(即MovieLens数据集)、lastfm和frappe
PaddlePaddle>=2.0
python 2.7/3.5/3.6/3.7
os : windows/linux/macos
本文提供了样例数据可以供您快速体验,在任意目录下均可执行。在ensfm模型目录的快速执行命令如下:
# 进入模型目录
# cd models/recall/ensfm # 在任意目录均可运行
# 动态图训练
python -u ../../../tools/trainer.py -m config.yaml # 全量数据运行config_bigdata.yaml
# 动态图预测
python -u infer.py -m config.yaml
为了方便使用者能够快速的跑通每一个模型,我们在每个模型下都提供了样例数据。如果需要复现readme中的效果,请按如下步骤依次操作即可。
在全量数据下模型的指标如下:
模型 | HR@5 | HR@10 | batch_size | epoch_num | Time of each epoch |
---|---|---|---|---|---|
ENSFM | 0.058 | 0.1 | 512 | 500 | 约2分钟 |
- 确认您当前所在目录为
PaddleRec/models/recall/ensfm
- 进入
Paddlerec/datasets/ml-1m_ensfm
- 执行该脚本,会从国内源的服务器上下载我们预处理完成的movielens全量数据集,并解压到指定文件夹。
cd ../../../datasets/ml-1m_ensfm
sh run.sh
cd - # 切回模型目录
# 动态图训练并得到指标
python -u ../../../tools/trainer.py -m config_bigdata.yaml
python -u infer.py -m config_bigdata.yaml