ScatterAI 是面向 AI 从业者的每日情报服务。我们发布两款产品:Brief,覆盖 AI 研究论文;Signal,覆盖 AI 行业动态。
我们解决的问题:信号量已超出任何个人的跟踪能力。arXiv 每天发布 200–400 篇 AI 论文,AI 行业每周产生数十项重大进展。结果是大多数从业者处于信息盲区——只能碎片化地捕捉 Twitter、Slack 链接和偶尔的时事通讯,而这些往往不解释新闻背后的机制。
ScatterAI 的编辑理念:知道什么是真实的,知道什么才重要。我们不为每次模型发布欢呼。我们不在无证据时进行推测。我们解释机制、给出数字、说明注意事项,并提供从业者视角的实践意义。
Brief 如何运作
Brief 是面向从业者——创始人、产品经理、工程师和分析师——的每日 AI 研究论文精选。每期精选 3–5 篇论文,帮助没有时间阅读 arXiv 的专业人士了解最新进展及其影响。
论文筛选机制
每天,系统从 arXiv(涵盖 cs.AI、cs.CL、cs.LG、cs.CV、cs.MA、cs.IR 类别)及 HuggingFace 每日论文收集 200–400 篇论文,并通过 8 个信号进行评分:
| 信号 | 分值 | 标准 |
|---|---|---|
| S1 机构 | 0–3 | 顶级实验室(Google/OpenAI/Anthropic/Meta/DeepMind/MSR):+3;顶尖高校:+2;其他研究机构:+1 |
| S2 HF 收录 | 0–4 | 出现在 HuggingFace 每日论文榜:+4 |
| S3 HF 点赞数 | 0–3 | >100 票:+3 / 30–100 票:+2 / 10–30 票:+1 |
| S4 会议收录 | 0–3 | ICLR/NeurIPS/ICML/CVPR/ACL/EMNLP/ICCV 已收录:+3 |
| S5 代码 | 0–2 | 论文中含 GitHub 链接:+2;提及但未链接:+1 |
| S6 关键词 | 0–2 | 标题/摘要含从业者关键词(inference、agent、benchmark 等):每个 +1,上限 2 分 |
| S7 引用数 | 0–2 | >50 次引用:+2 / 10–50 次:+1 |
| S8 GitHub 热榜 | 0–2 | 相关代码库出现在 GitHub 趋势榜:+2 |
得分 ≥12 分的论文进入精选(Featured)板块(每期 3–5 篇);得分 6–11 分的进入"值得关注"(Also Worth Noting)板块(每期 8–12 篇)。若精选候选论文不足 3 篇,则取分数最高的 3 篇。
期刊结构
- 今日概览 — 3–5 条要点,每条对应一篇精选或重要论文的核心发现及实践意义
- 精选解读(01–05) — 完整分析:背景与惊喜、机制、实践影响、三条关键要点、来源链接
- 值得关注(06–14) — 一句话要点:粗体洞察陈述、话题标签、核心意义
- 今日观察 — 3 段综合分析,将 2 篇以上精选论文在结构层面进行关联
内容标准
精选解读由 Claude Sonnet 生成,值得关注板块由 Gemini Flash 生成,均遵循严格的风格规范:从业者优先视角、数字优于模糊表述、零学术腔调。
禁止模式包括:"This paper proposes..."、"The authors suggest..."、无数字支撑的"breakthrough"/"revolutionary",以及"Furthermore"/"Additionally"等填充词。
发布时间
Pipeline 每天 PT 上午 10:00(UTC 18:00)运行,采集前 48–72 小时发布的论文——以积累 HuggingFace 点赞和引用信号。
Signal 如何运作
Signal 是每日 AI 行业简报。每期包含 3 则重点报道(含竞争格局与结构性分析),以及 5–8 条新闻速览。
信源采集
Signal 监控三个层级的信源:
第一层 — 核心 AI 媒体
- TechCrunch AI
- The Verge(AI 筛选)
- Ars Technica(AI 筛选)
- VentureBeat AI
- MIT Technology Review
第二层 — 实验室与企业博客
- OpenAI Blog
- Anthropic Blog
- Google DeepMind Blog
- Meta AI Blog
- Mistral Blog
- xAI Blog
- DeepSeek Blog
- HuggingFace Blog
第三层 — 社区信号
- Hacker News(首页,AI 相关筛选)
- X/Twitter — 实验室 CEO(@sama、@DarioAmodei、@demishassabis)、核心研究者(@karpathy、@ilyasut、@ylecun),以及领域内关键构建者与分析师
报道筛选
系统通过语义相似度对采集内容进行话题聚类。来自不同层级 3 个以上信源的聚类获得优先处理权。编辑引擎依据信源数量、层级权重、话题新颖性(7 天内未覆盖)及从业者相关性选取 3 则重点报道和 5–8 条速览。
期刊结构
- 重点报道(1–3 则) — 完整分析:5 段(事实、竞争动态、历史背景、信号关联、综合飞轮)+ 为何重要 + 信源
- 新闻速览 — 5–8 条简短报道,每条 2–4 句,散文格式,末尾附信源链接
内容标准
重点报道采用记者 + 分析师复合视角:第一性原理商业推理、具体数字与明确信源、结构性思维(飞轮效应、激励机制),以及在讽刺真实存在时适度使用含蓄幽默。
"为何重要"板块是前瞻性预测,而非事件摘要。每条明确指出受影响的特定利益相关方(纯模型公司、开源权重生态、云服务商、Agent 创业公司),并陈述二阶后果。
禁止模式:"Company Announces X" 标题、"According to reports..." 引用、以"businesses"或"people"笼统指代利益相关方,以及速览内含完整分析。
发布时间
Pipeline 每天 PT 上午 10:00(UTC 18:00)运行,汇编当日累积的信源生成一期简报。