这是一个部署在GitHub上的自动化项目,用于每日自动获取最新的节点订阅链接并生成固定链接。
- ✅ 自动从指定网站获取最新文章链接
- ✅ 智能提取文章中的订阅链接信息
- ✅ 将订阅内容存储在GitHub仓库中
- ✅ 生成固定的GitHub订阅链接
- ✅ 每日定时执行(早上9点和下午14点)
- ✅ 反爬虫机制处理
- ✅ 自动重试和错误处理
- ✅ 手动触发更新功能
- 点击GitHub页面右上角的"Fork"按钮
- 将此仓库复制到你的GitHub账户
- 进入你的仓库页面
- 点击"Actions"标签
- 如果提示启用Actions,点击"Enable Actions"
你的固定订阅链接为:
https://raw.githubusercontent.com/你的用户名/仓库名/main/subscription.txt
将 你的用户名 和 仓库名 替换为实际值。
- 项目会自动在每天早上9:00和下午14:00(北京时间)执行
- 如果早上9:00成功更新,下午14:00将不再执行
- 更新成功后,当天不再重复执行
- 进入你的仓库页面
- 点击"Actions"标签
- 选择"Update Subscription"工作流
- 点击"Run workflow"按钮
- 可选择"强制更新"选项忽略今日已更新检查
├── .github/workflows/
│ └── update-subscription.yml # GitHub Actions工作流
├── enhanced_crawler.py # 增强版爬虫脚本
├── crawler.py # 基础版爬虫脚本
├── requirements.txt # Python依赖
├── README.md # 项目说明
└── .gitignore # Git忽略文件
- 随机User-Agent轮换
- 请求间隔随机化
- 自动重试机制
- 多种解析策略
- 网络请求失败自动重试
- 内容格式验证
- 执行状态记录
- 详细的日志输出
- 获取最新文章:访问目标网站首页,查找最新的文章链接
- 提取订阅链接:从文章内容中智能提取订阅链接
- 下载订阅内容:下载订阅链接中的节点信息
- 保存到仓库:将内容保存到
subscription.txt文件 - 自动提交:通过GitHub Actions自动提交更改
项目会生成以下状态文件:
subscription.txt- 最新的订阅内容last_updated.txt- 最后更新时间crawler_status.json- 爬虫执行状态
- 首次部署后需要等待定时任务执行或手动触发
- 如果网站结构发生变化,可能需要更新爬虫脚本
- 请遵守目标网站的robots.txt和使用条款
- 建议定期检查订阅链接是否正常工作
Q: 订阅链接无法访问 A: 检查仓库是否公开,链接格式是否正确
Q: 自动更新失败 A: 查看GitHub Actions日志,检查网络连接和网站可访问性
Q: 订阅内容为空 A: 可能是网站结构变化,需要更新爬虫脚本
如果遇到问题,请检查:
- GitHub Actions执行日志
- 仓库的公开/私有设置
- 网络连接状态
- 目标网站是否可访问
最后更新: 2025-09-30