产品经理
AI驱动的产品经理、项目管理和产品运营用例。
1. AI情感分析
100%处理14000条月度反馈,问题发现从3周到24小时。
🎬 观看演示视频
痛点与解决方案
痛点:聚合指标掩盖了真正重要的问题
每月阅读14000条反馈评论不可能;团队依赖掩盖问题的聚合分数。这不仅仅是不便——它是对业务可衡量的拖累。面临这一挑战的团队报告平均每周花费15-30小时在本可自动化的手动变通方案上。
真正的成本超出了直接的时间浪费。当Product Manager陷入被动应对模式时,战略性工作就无法开展。机会被错过。已解决这个问题的竞争对手行动更快、交付更早、服务客户更好。
大多数团队都曾尝试用电子表格、手动流程和良好的意愿来解决这个问题。问题在于这些方法无法扩展。适用于10个项目的方法在100个时就会崩溃。适用于100个的在1000个时就完全失效。而在今天的环境中,你面对的是数以千计。
COCO如何解决
处理所有反馈渠道:处理所有反馈渠道:评论、调查、客服、社交。COCO端到端处理这一流程,需要最少的配置和零持续维护。系统从你的特定模式中学习并持续改进。
按主题、功能和情:按主题、功能和情绪带上下文分类。COCO端到端处理这一流程,需要最少的配置和零持续维护。系统从你的特定模式中学习并持续改进。
在聚合指标反映之:在聚合指标反映之前发现新兴问题。COCO端到端处理这一流程,需要最少的配置和零持续维护。系统从你的特定模式中学习并持续改进。
量化结果与受益角色
可量化的结果
- 反馈处理:5% → 100%
- 问题发现:3周 → 24小时
- NPS提升:+12分
- 团队满意度:显著提升
- 见效时间:第一周即可看到成果
- ROI回收期:通常不到30天
受益角色
- Product Manager:通过自动化analysis直接节省时间并改善成果
- CX Lead:通过自动化analysis直接节省时间并改善成果
- VoC Analyst:通过自动化analysis直接节省时间并改善成果
- 管理层:更好的可见性、更快的决策和可衡量的ROI
实用提示词
提示词 1: 初始评估
分析我们当前analysis工作流的状态。以下是背景:
- 团队规模:[人数]
- 当前工具:[列出工具]
- 工作量:[描述规模]
- 主要痛点:[列出前3个]
请提供:
1. 时间和金钱在哪里被浪费的诊断
2. 本周可以实施的快速成果
3. 30天优化路线图
4. 保守估计的预期ROI提示词 2: 实施计划
为自动化我们的analysis流程创建详细的实施计划。
当前状态:
[描述当前工作流、工具、团队]
要求:
- 必须集成:[列出现有工具]
- 合规要求:[列出]
- 预算限制:[说明]
- 时间线:[说明]
生成:
1. 第一阶段(第1-2周):快速成果和设置
2. 第二阶段(第3-4周):核心自动化
3. 第三阶段(第2个月):优化和扩展
4. 成功指标及衡量方法
5. 风险缓解计划提示词 3: 绩效分析
分析我们analysis自动化的绩效数据。
数据:
[粘贴指标、日志或结果]
评估:
1. 什么做得好以及原因
2. 什么表现不佳及根本原因
3. 改善结果的具体优化措施
4. 与行业标准的基准对比
5. 下季度的建议2. AI项目状态报告生成器
项目状态报告编写从4小时降至15分钟,实时数据自动聚合。
🎬 观看演示视频
痛点与解决方案
痛点分析:状态报告编写耗时数小时,发送时已经过时
在当今快节奏的企业环境中,状态报告编写耗时数小时,发送时已经过时是组织再也无法忽视的挑战。研究表明,团队平均每周花15-25小时在可以自动化或显著简化的任务上。对于一个200人的中型企业,这相当于每年超过10万小时的生产力损失——折合480万美元的劳动力成本,却没有产生任何战略价值。
问题随时间不断恶化。当团队成长、运营规模扩大,那些在20人时"还行"的手动流程在200人时变得不可持续。关键信息被孤立在个人收件箱、电子表格和口头传承中。团队间的交接引入延迟和错误。而最优秀的员工——你最不能失去的人——最先倦怠,因为他们最常被拉入阻止他们做最高价值工作的运营救火中。根据2025年德勤调查,企业组织中67%的专业人士表示手动流程是他们职业满意度和生产力的最大障碍。
COCO如何解决
COCO的AI项目状态报告生成器将这种混乱转变为流畅的智能工作流。以下是分步流程:
智能数据采集:COCO的AI项目状态报告生成器持续监控你连接的系统和数据源——邮件、项目管理工具、CRM、数据库和沟通平台。它自动识别相关信息,提取关键数据点,并将它们组织成结构化工作流,无需任何手动输入。
智能分析与分类:每个输入项目都使用上下文理解进行分析,而不仅仅是关键词匹配。COCO按紧急程度、主题、负责人和所需操作类型对信息进行分类。它理解数据点之间的关系,识别人类在逐个处理时可能遗漏的模式。
自动化处理与路由:基于分析结果,COCO自动将项目路由到正确的团队成员,触发适当的工作流,并发起标准回复。常规任务从头到尾无需人工干预,复杂项目则带着完整上下文升级到正确的决策者。
质量验证与交叉引用:在最终输出之前,COCO会根据你的现有记录和业务规则验证结果。它交叉引用多个数据源确保准确性,标记不一致之处供审查,并为每个自动化决策维护置信度评分。
持续学习与优化:COCO从每次交互中学习——人工纠正、反馈和结果数据都用于持续提高准确性。它识别瓶颈,建议流程改进,并适应不断变化的业务规则,无需重新编程。
报告与洞察仪表盘:全面的仪表盘提供流程绩效的实时可见性:吞吐量指标、准确率、异常模式、团队工作量分布和趋势分析。每周摘要报告突出亮点、标记问题并推荐优化机会。
量化结果与受益角色
可量化的结果
- 项目状态报告生成器任务的手动处理时间减少78%
- 准确率99.2%,相比人工处理的94-97%
- 从请求到完成的周转速度提升3.5倍
- 中型团队每年节省15万美元以上的人工和纠错成本
- 员工满意度提升28%,团队专注于战略工作而非重复任务
受益角色
- 产品经理:消除手动开销,通过自动化的项目状态报告生成器工作流专注于战略计划
- 技术负责人:通过全面的仪表盘和趋势分析获得项目状态报告生成器绩效的实时可见性
- 高管层:通过自动验证、审计追踪和每笔交易的质量检查减少错误和合规风险
- 合规官:在不按比例增加人手的情况下扩大运营——用同样的团队规模处理3倍的工作量
实用提示词
提示词 1:搭建项目状态报告生成器工作流
为我们的组织设计一个全面的项目状态报告生成器工作流。我们是一家有150人的企业公司。
当前状态:
- 大部分项目状态报告生成器任务手动完成
- 平均处理时间:每周[X小时]
- 错误率:约[X%]
- 当前使用的工具:[列出工具]
设计自动化工作流:
1. 识别所有可以自动化的项目状态报告生成器任务
2. 为每个自动化流程定义触发器
3. 设置验证规则和质量关卡
4. 创建异常的升级路径
5. 建立报告指标和仪表盘
6. 包含推出计划(4周分阶段)
输出:带有决策点、自动化规则和集成需求的详细工作流图。提示词 2:分析当前项目状态报告生成器绩效
分析我们当前的项目状态报告生成器流程并识别优化机会。
提供的数据:
- 过去90天的流程日志
- 团队容量和工作量数据
- 错误/异常报告
- 与此领域相关的客户满意度评分
分析并报告:
1. 当前吞吐量:每天/每周处理的项目数
2. 每个项目的平均处理时间
3. 按类别和根因分析的错误率
4. 高峰负载时间和容量瓶颈
5. 每个处理项的成本(人工+工具)
6. 与行业基准的对比
7. 前5项优化建议及预计ROI
格式为带图表和数据表的高管报告。
[附上流程数据]提示词 3:创建项目状态报告生成器质量检查清单
为我们的项目状态报告生成器流程创建全面的质量保证检查清单。清单应涵盖:
1. 输入验证:处理前需要验证什么数据/文档?
2. 处理规则:每一步必须遵循什么业务规则?
3. 输出验证:如何验证输出正确且完整?
4. 异常处理:什么构成异常以及每种类型如何处理?
5. 合规要求:适用什么监管或政策要求?
6. 审计追踪:每笔交易需要记录什么?
每个检查项包括:
- 检查描述
- 通过/不通过标准
- 自动vs.手动检查标识
- 负责人
- 检查失败时的升级路径
输出为可在质量管理系统中使用的结构化检查清单模板。提示词 4:构建项目状态报告生成器监控仪表盘
设计一个实时仪表盘来监控项目状态报告生成器运营。仪表盘应包括:
关键指标(顶部):
1. 今日处理量vs.目标
2. 当前处理积压
3. 平均处理时间(过去24小时)
4. 错误率(过去24小时)
5. SLA达标率
趋势图表:
1. 日/周吞吐量趋势(折线图)
2. 错误率趋势及根因分解(堆叠柱状图)
3. 处理时间分布(直方图)
4. 团队成员工作量热力图
告警部分:
1. SLA风险项(接近截止时间)
2. 检测到的异常模式(量级暴增、错误集群)
3. 系统健康指标(集成状态、API响应时间)
为每个组件指定数据源、刷新间隔和告警阈值。
[附上当前数据架构]提示词 5:生成项目状态报告生成器月度报告
为项目状态报告生成器运营生成全面的月度绩效报告。报告面向运营VP。
数据输入:
- 月处理量:[数字]
- SLA达标率:[百分比]
- 错误率:[百分比]
- 每项成本:[$金额]
- 团队利用率:[百分比]
- 客户满意度:[评分]
报告章节:
1. 执行摘要(3-5个关键要点)
2. 量和吞吐量分析(月环比趋势)
3. 质量指标(错误率、根因、纠正措施)
4. SLA绩效(按类别、按优先级)
5. 成本分析(人工、工具、每项总成本)
6. 团队绩效与容量
7. 自动化影响(手动vs.自动处理对比)
8. 下月优先事项和改进计划
适当处加入可视化图表。突出亮点并标记需要关注的领域。
[附上月度数据导出]3. AI冲刺规划助手
冲刺规划会议从3小时缩短到45分钟,交付准确率提升38%。
🎬 观看演示视频
痛点与解决方案
痛点:冲刺规划是一场4小时的猜测游戏
冲刺规划本应是敏捷交付的基石。实际上,它是一个2-4小时的会议,疲惫的工程师争论故事点数,产品经理谈判范围,每个人带着自己暗自怀疑能否达成的承诺离开。数据证实了这种失灵:58%的冲刺未能达成承诺,持续过度承诺的团队精疲力竭,而承诺不足的团队则失去利益相关者的信任。
故事点估算是问题的核心。尽管有数十年的敏捷实践,估算仍然顽固地主观。同一个故事从一个开发者那里得到3分,从另一个那里得到8分。锚定偏差主导着规划扑克——第一个说出的估计影响了所有后续估计。历史数据显示开发者估算系统性偏乐观:平均任务实际耗时是估算的1.5-2倍,分布严重偏向低估。
冲刺组成是另一个盲区。团队在冲刺中塞满功能工作,技术债务在暗中积累。结果是可预见的:在4-6个冲刺中推迟维护后,代码库退化到功能开发速度下降30-40%的程度。但技术债务永远得不到优先处理,因为在大多数规划工具中它是不可见的,也没有产品侧的推动者。
依赖管理使一切更糟。在多团队组织中,冲刺承诺层层叠叠。A团队的冲刺依赖B团队在周三前交付一个API。但B团队的冲刺已经过度承诺。直到冲刺中期没人发现冲突,阻塞的工作产生多米诺效应,使两个团队都脱轨。
产能规划充其量是粗糙的。大多数团队使用简单的"开发者数量x每冲刺10点"公式,忽略了假期、会议、值班轮换、面试以及个人在不同类型工作上的生产力差异。结果是团队减员时习惯性过度承诺,满员时承诺不足。
本应改善未来规划的回顾数据很少被使用。冲刺速率历史、每个开发者的估算准确度、故事完成模式和阻塞频率都在Jira或Linear中——但没人有时间在冲刺之间系统地分析它们。
COCO如何解决
COCO的AI冲刺规划助手将冲刺规划从主观辩论转变为数据驱动的过程:
速率分析:COCO分析团队的历史冲刺数据——过去10+个冲刺的实际速率、按冲刺组成分的速率(功能密集型vs.维护密集型)、季节性模式和团队规模变化的影响。它生成带有置信区间的可靠速率范围,而不是单一的误导性数字。
故事估算:利用团队的历史数据,COCO根据故事描述、验收标准和类似的过去故事提供AI辅助的故事点估算。它识别故事描述过于模糊而无法可靠估算的情况,并建议澄清问题。估算包括置信范围和所基于的具体可比故事。
产能规划:COCO通过考虑计划休假、定期会议、值班安排、面试承诺和历史生产力模式来计算真实可用产能。它知道你的团队在有重大发布的冲刺中交付量减少15%,在假期周减少20%。
依赖映射:COCO识别冲刺待办列表中的跨团队依赖并可视化关键路径。它标记依赖产生风险的冲刺计划——特别是当依赖故事安排在同一冲刺中且没有缓冲时。
风险评估:对每个提议的冲刺计划,COCO根据历史准确率、依赖风险、产能约束和故事复杂度计算承诺置信度分数。分数低于70%时触发警告并给出具体的缩减建议。
冲刺组成优化:COCO根据团队的健康指标推荐功能工作、技术债务和维护的最优组合。它追踪技术债务积累情况并推荐分配比例以防止速率退化。
量化结果与受益角色
可量化的结果
- 冲刺承诺准确率从42%提升至87%,建立利益相关者信任和团队士气
- 规划会议时间减少71%,从平均3.2小时缩短至55分钟
- 估算偏差减少63%,使交付时间线更可预测
- 技术债务处理一致性提高3倍,通过数据驱动的分配建议
- 团队速率提高22%,通过更好的产能利用和减少冲刺中期重新规划
受益角色
- 开发者:更短、更聚焦的规划会议,承诺合理不至于导致加班赶工
- 产品经理:可预测的交付时间线和支持优先级决策的数据
- Scrum Master:数据支持的引导能力,减少调解估算争论的时间
- 工程经理:跨冲刺的团队健康指标、产能趋势和交付可预测性的可见性
实用提示词
提示词 1: 冲刺速率分析与预测
分析我们的冲刺速率数据并为下一个冲刺生成预测:
历史冲刺数据(最近10个冲刺):
[粘贴冲刺数据——冲刺编号、承诺点数、完成点数、团队人数、重要事件]
下一冲刺团队构成:
- 开发者总数:[数量]
- 计划休假:[列出姓名和天数]
- 值班任务:[姓名和日期]
- 新成员(正在熟悉中):[姓名和入职日期]
分析:
1. 速率趋势:滚动平均、趋势方向(上升/下降/稳定)和统计方差
2. 承诺准确率:每个冲刺的完成/承诺比率,时间趋势
3. 产能影响:速率与有效团队规模的关联性(考虑缺勤和兼职人员)
4. 冲刺类型影响:功能密集型vs.维护密集型vs.混合型冲刺的速率差异
5. 遗留分析:冲刺间未完成工作遗留量及其对后续冲刺规划的影响
6. 建议速率范围:基于数据,下一冲刺应承诺多少?提供范围(保守/目标/挑战)和每个的概率估计
标记任何令人担忧的模式:速率持续下降、遗留增长、方差增大。提示词 2: AI辅助故事估算
根据我们团队的历史数据为以下用户故事估算故事点:
团队估算历史:[粘贴过去的故事及其估算和实际完成时间/复杂度]
团队故事点量表定义:[如"1=几小时,2=半天,3=1-2天,5=3-4天,8=一整周,13=需拆分"]
需要估算的故事:
[粘贴每个故事的标题、描述、验收标准和技术备注]
对每个故事提供:
1. 建议故事点:附带置信范围(如"5点,置信范围:3-8")
2. 可比历史故事:2-3个用于参考估算的类似故事及其实际结果
3. 风险因素:什么可能导致这个故事比估算耗时更长(未知数、依赖、复杂度)
4. 缺失信息:在确认估算前应询问哪些澄清问题
5. 拆分建议:如果估算8+点,建议如何拆分为更小的故事
同时标记:
- 描述过于模糊无法可靠估算的故事
- 隐藏复杂度的故事(看起来简单但有边界情况)
- 与待办列表中其他故事重复或重叠的故事提示词 3: 冲刺组成优化器
为即将到来的冲刺优化组成:
可用速率:[点数](基于产能分析)
冲刺时长:[周]
冲刺目标:[描述关键目标]
候选故事(已排序的待办列表):
[粘贴列表——ID、标题、点数、类型(功能/Bug/技术债务/维护)、优先级、依赖、分配团队]
约束条件:
- 最少[X]%产能用于技术债务(团队共识)
- 必须完成[特定故事]以满足即将到来的发布截止日期
- 开发者[姓名]是唯一能做[某类故事]的人
- 跨团队依赖:[描述依赖和时间线]
优化目标:
1. 冲刺目标达成:哪些故事对冲刺目标至关重要?
2. 产能适配:填充至速率的85%(留15%缓冲给计划外工作)
3. 平衡:功能工作、Bug修复、技术债务和运维任务的适当组合
4. 依赖安全:不应有故事依赖同一冲刺中另一故事的完成(除非明确有缓冲)
5. 个人负载:不应给任何开发者分配超过其历史吞吐量的工作
6. 风险缓解:在冲刺中前置安排高风险或不确定的故事
输出:推荐的冲刺待办列表及理由、风险评分(1-10)、以及如果最高风险故事延误的B计划。提示词 4: 跨团队依赖分析器
分析即将到来的冲刺周期的跨团队依赖:
团队及其冲刺计划:
团队A:[列出承诺的故事及依赖]
团队B:[列出承诺的故事及依赖]
团队C:[列出承诺的故事及依赖]
共享服务/平台:[列出多团队依赖的共享组件]
冲刺日期:[开始和结束日期]
发布日期:[如适用]
分析并报告:
1. 依赖图谱:哪个团队依赖哪个团队的什么、截止何时的可视化表示
2. 关键路径:决定冲刺目标最短交付时间的最长依赖链
3. 风险点:提供方团队未承诺所需工作或安排在冲刺后期的依赖
4. 冲突检测:两个团队同时依赖同一人/组件的情况
5. 缓冲分析:每个依赖的预期交付与依赖方需求之间有多少天缓冲
6. 建议:
- 应在冲刺中提前安排以降低依赖风险的故事
- 冲刺开始前应商定的API契约或接口
- 最高风险依赖的应急计划
生成依赖日历,显示每个依赖何时必须解决,带红/黄/绿状态指示器。提示词 5: 冲刺回顾数据分析
分析我们的冲刺回顾数据,识别系统性模式和改进机会:
冲刺数据(最近6个冲刺):
[粘贴每个冲刺的——承诺项目、完成项目、遗留项目、遇到的阻塞、团队满意度评分]
回顾反馈(已分类):
[粘贴汇总的反馈——做得好的、做得不好的、每次回顾的行动项]
之前的行动项及其状态:
[粘贴行动项及是否已实施]
分析:
1. 模式检测:哪些主题在回顾中反复出现?同样的问题是否在每个冲刺中都被提出?
2. 行动项有效性:多大比例的行动项被实施了?哪些确实改善了指标?
3. 阻塞分析:按类型分类阻塞(依赖、技术、流程、外部)。哪类影响最大?
4. 团队健康趋势:满意度在改善还是下降?与速率、承诺准确率和加班关联
5. 按故事类型的估算准确率:我们是否持续高估Bug而低估功能?识别系统性偏差
6. 流程改进ROI:对每个已实施的变更,衡量前后对团队指标的影响
生成:
- 前3个系统性问题的根因分析和结构性修复建议
- 可立即实施且高影响的"速赢"
- 显示冲刺间改善趋势的指标看板
- 建议变更对下一冲刺速率和准确率的预测影响4. AI发版说明生成器
发版说明编写从3-4小时降至5分钟,功能采用率提升35%。
🎬 观看演示视频
痛点与解决方案
痛点:你的发布说明是周五下午5点赶出来的,没人看
发布说明是工程团队构建的内容与客户实际了解之间的关键桥梁。对大多数公司来说,这座桥正在着火。典型的发布说明流程是这样的:产品经理意识到周一有发布,周五下午匆忙整理已合并的PR列表,把晦涩的commit消息翻译成勉强面向客户的内容,然后发布一大段67%的用户永远不会看到的文字。
后果是可衡量且严重的。当用户不知道新功能时,他们就不使用。沟通不良的版本,功能采用率比沟通良好的低3-5倍。这意味着你的工程团队花了数周构建的东西闲置不用——不是因为它差,而是因为没人知道它存在。对于SaaS公司,这直接影响扩展收入,因为看不到新功能价值的客户不太可能升级或扩大使用。
质量不一致是通病。有些版本因为某个PM很上心而有详细精良的说明。其他版本因为PM休假只有一个工单编号的列表。没有标准格式、没有一致的语调、没有质量基线。真正阅读发布说明的客户学到的是不值得花这个精力,因为质量不可预测。
工程和客户之间的语言鸿沟是最根本的问题。工程师写的PR描述像这样:"重构查询优化器以使用基于CTE的执行计划处理递归连接。"这在技术上准确,但对产品经理完全无用,更不用说终端用户了。从技术实现到客户价值的翻译需要上下文、共情和写作技能——这些在冲刺周期中很少被优先考虑。
文档空白使问题更加严重。39%的发布完全没有文档——没有发布说明,没有变更日志,没有公告。功能悄无声息地部署到生产环境,客户偶然发现它们(如果能发现的话)。支持团队从客户工单而不是内部通信中得知新功能。销售团队推销他们不知道已经构建的功能。
分发问题与内容问题一样严重。即使写得很好的发布说明,如果发布在没人访问的changelog页面也会失败。邮件摘要进了垃圾箱。应用内通知被不看就关掉。正确的信息需要通过正确的渠道在正确的时间到达正确的受众——而一个静态的changelog页面无法做到任何一点。
COCO如何解决
COCO的AI发布说明生成器自动化了从代码变更到客户沟通的整个流程:
Git提交分析:COCO分析发布中的每个已合并PR和提交——不仅是标题,还有实际的代码变更、PR描述、关联issue和审查评论。它在完整上下文中理解技术层面发生了什么变化。
功能检测:COCO将变更分类为面向客户的功能、改进、Bug修复、性能增强和内部变更。它识别需要客户操作的破坏性变更,区分对客户重要的变更和不需要客户知道的内部重构。
用户友好翻译:技术变更被翻译成不同受众能理解的语言。工程师看到"为API添加了通过WebSocket的实时事件流支持。"产品用户看到"现在你可以实时看到变更,无需刷新页面。"同样的变更,为不同人以不同方式沟通。
受众分层:COCO为不同受众生成不同版本的发布说明:面向开发者和API消费者的详细技术changelog,面向终端用户的功能聚焦摘要,面向利益相关者的高管概览,以及面向支持和销售团队的附带话术的内部说明。
多格式生成:从单次发布,COCO生成changelog条目、邮件摘要、应用内通知文案、社交媒体公告、博客文章草稿和内部Slack消息。每种格式都针对其渠道优化——推文280字符,博客文章500字,应用内通知50字。
分发自动化:COCO不仅撰写说明——还负责分发。它发布到你的changelog,安排邮件摘要,排队应用内通知,起草社交帖子。对于破坏性变更,它根据用户的API使用模式触发定向通知给受影响的用户。
量化结果与受益角色
可量化的结果
- 发布说明生成时间从4小时缩短至10分钟,释放产品经理做更高价值的工作
- 功能知晓率从33%提升至78%,通过用户调查和功能采用率衡量
- 用户与发布说明的互动提升5.2倍,得益于更好的格式和相关性
- 100%的发布有文档记录(从61%提升),消除"静默发布"问题
- 关于未记录功能的客服工单减少82%,用户主动了解到变更
受益角色
- 产品经理:发布沟通自动运行——不再有周五下午的匆忙
- 工程团队:他们的工作被正确传达给用户,提升构建成果的影响力和可见度
- 客户支持:每次发布都提前获得包含话术的通报,减少"我不知道有这个功能"的尴尬
- 用户/客户:通过他们实际使用的渠道,以他们理解的语言持续了解产品改进
实用提示词
提示词 1: 从Git历史生成发布说明
从以下Git历史生成面向客户的发布说明:
发布版本:[版本号]
发布日期:[日期]
产品名称:[名称]
此版本已合并的PR:
[粘贴PR列表,包含标题、描述和任何标签/Tag]
或者
Git日志:
[粘贴git log输出及commit消息]
关联的Issue/工单:
[粘贴任何相关的Jira/Linear/GitHub Issues]
生成:
1. 发布标题:一句有吸引力的话概括最有影响力的变更(不是"v2.4.3发布说明")
2. 亮点版块:1-3个最有影响力的变更,每个包含:
- 面向用户的标题(对客户意味着什么,不是代码做了什么)
- 2-3句描述聚焦于好处/价值
- 相关处的截图占位或视觉描述
3. 改进版块:按类别分组(性能、易用性、集成等)
4. Bug修复版块:按影响程度列出,不是按工单号。使用"修复了……的问题"格式
5. 破坏性变更版块:如有,附清晰的迁移说明和时间线
6. 技术变更日志:面向开发者/API消费者的详细列表,包含技术细节
7. 已知问题:此版本中的任何已知限制或临时解决方案
每个版块使用适合非技术用户的语言。避免术语。聚焦于"你现在可以做什么"而非"我们改了什么"。提示词 2: 多受众发布沟通
从此单次发布为多个受众创建发布沟通:
发布摘要:[描述此版本的关键变更]
目标受众:终端用户、开发者/API消费者、内部销售团队、内部支持团队、高管/利益相关者
生成各版本:
1. 终端用户公告(200-300字):
- 友好的、聚焦好处的语言
- "为你带来的新变化"的包装
- 视觉布局建议(截图、GIF)
- 明确的CTA(试用功能、阅读指南等)
2. 开发者/API变更日志(技术详情):
- 精确的技术变更(端点、参数、行为)
- 破坏性变更的前后代码示例
- 破坏性变更的迁移指南
- API版本兼容性说明
- SDK更新说明
3. 销售团队简报(1页):
- 每个功能的客户价值话术
- 竞争定位(与竞品相比如何?)
- FAQ:客户/潜在客户会问的问题及答案
- 新功能的演示脚本更新
4. 支持团队简报(1页):
- 新功能及如何支持
- 已知问题和临时解决方案
- 预期客户问题和升级路径
- 参考文档链接
5. 高管摘要(5个要点):
- 关键变更的业务影响
- 需关注的指标
- 客户情感预期
- 竞争影响
- 依赖或风险
同时生成:邮件主题行(A/B测试选项)、应用内通知文案(50字以内)和社交媒体帖子(280字符以内)。提示词 3: 变更日志最佳实践审计
审计我们现有的变更日志并推荐改进:
当前变更日志:
[粘贴最近的变更日志条目——最近5-10个版本]
产品:[名称和类型]
受众:[谁在阅读变更日志]
当前分发:[发布在哪里、如何分发]
按以下标准审计:
1. 清晰度:非技术用户能理解每个条目吗?标记术语和不清晰的描述
2. 完整性:条目是否涵盖所有变更类型(功能、改进、修复、破坏性变更)?
3. 一致性:各版本的格式、语调和详细程度是否一致?
4. 分类:变更是否正确分组和标记?
5. 行动导向:破坏性变更是否包含清晰的迁移步骤?
6. 可搜索性:用户能否找到关于特定功能或修复的信息?
7. 时效性:发布说明是否在发布当天或之前发布?
8. 参与度:是否有行动号召或到详细文档的链接?
提供:
- 每个标准的评分(1-10),附具体例子
- 最弱的3个条目的重写版本,展示前后对比
- 变更日志模板建议,包含标准化版块
- 风格指南:语调、语音、格式规范和常见模式
- 分发策略:如何让发布说明出现在不访问changelog页面的用户面前提示词 4: 破坏性变更沟通计划
为即将发布的破坏性变更创建全面的沟通计划:
破坏性变更描述:
[描述什么在变——API端点弃用、功能删除、行为变更等]
影响范围:[受影响的用户/账户数量,API调用占比]
时间线:[何时宣布、何时弃用、何时移除]
迁移路径:[用户需要做什么来适应]
回滚计划:[是否有回滚选项?]
生成完整沟通计划:
1. 预公告(移除前30-60天):
- 解释变更、理由和时间线的博客文章
- 给受影响用户的邮件(通过使用模式识别他们)
- 针对受影响用户的应用内横幅
- 更新的开发者文档,附迁移指南
2. 弃用通知(弃用时):
- 在API响应中包含的弃用头信息
- 控制台/界面中的警告消息
- 附迁移截止提醒的更新邮件
- 支持团队简报和FAQ文档
3. 迁移支持:
- 分步迁移指南(附前后代码示例)
- 迁移验证工具或检查清单
- 复杂迁移的在线答疑或网络研讨会
- 迁移问题的专用支持渠道
4. 最后警告(移除前7天):
- 针对尚未迁移用户的定向邮件
- 应用内紧急通知
- 客户成功对高价值账户的直接联系
5. 移除后:
- 确认旧行为已移除
- 对仍使用旧方式的人提供清晰的错误消息
- 因变更产生问题的监控计划
- 支持团队为增加的工单量做好准备
对每项沟通提供草拟文案、渠道、受众、时机和负责人。提示词 5: 发布说明自动化流水线设计
为我们的开发工作流设计自动化发布说明流水线:
当前工作流:
- 版本控制:[GitHub/GitLab/Bitbucket]
- 项目管理:[Jira/Linear/GitHub Issues]
- CI/CD:[描述部署流水线]
- 沟通渠道:[发布说明目前在哪里发布?]
- 发布节奏:[每周/双周/每月/持续]
设计自动化流水线:
1. 数据收集:
- 如何自动收集版本中的所有变更(PR标签、提交规范、Issue链接)
- 推荐的提交消息规范(Conventional Commits或自定义)
- 准确发布说明所需的PR元数据(标签、描述模板)
- 如何程序化识别破坏性变更、新功能和Bug修复
2. 内容生成:
- 每种发布说明格式的模板结构
- 将技术变更翻译为用户友好语言的规则
- 分类逻辑(功能、改进、修复、破坏性变更、内部)
- 受众特定的内容生成规则
- 图片/截图包含工作流
3. 审核工作流:
- 自动生成草稿的审核流程(谁审核、审核SLA)
- 发布前的审批关卡
- 复杂或敏感变更的异常处理
4. 分发:
- 变更日志页面自动发布
- 邮件摘要生成和排程
- 应用内通知触发
- 社交媒体帖子排队
- 内部团队通知(Slack、邮件)
- 破坏性变更专用通知流水线
5. 效果衡量:
- 追踪的指标(查看率、互动、功能采用相关性)
- 发布说明读者反馈收集
- 不同格式/风格的A/B测试框架
- 发布沟通效果看板
提供:架构图描述、工具推荐、实施阶段(MVP→V1→V2)和预估搭建工作量。5. AI工作流自动化器
跨部门工作流自动化率从15%提升到78%,处理时间减少65%。
🎬 观看演示视频
痛点与解决方案
痛点:员工淹没在重复性任务中,而自动化项目频频失败
平均每位知识工作者每周执行超过60项重复性任务——在系统间复制数据、生成例行报告、发送状态更新、处理审批、格式化文档,日复一日地执行相同的多步骤流程。麦肯锡估计,员工在其角色内花费的40%时间可以使用当前可用技术实现自动化。然而大多数组织只实现了不到5%的自动化潜力。
自动化机会与自动化现实之间的差距有几个根本原因。首先,识别哪些流程需要自动化本身就是一项手动、耗时的工作。业务分析师花数周时间跟踪工人、记录流程和绘制工作流——结果产出的流程图在完成时就已经过时了。人们在访谈中描述的流程很少与实际做法一致,实施过程中发现的边缘案例往往使整个自动化项目脱轨。
RPA(机器人流程自动化)本应是答案,但实施现实令人清醒。行业研究表明,RPA项目平均需要6-12个月实施,30-50%未能达到预期ROI。技术很脆弱——当界面变化、数据格式变化或出现设计时未预料到的异常场景时,机器人就会崩溃。维护RPA机器人往往比它们替代的手动流程需要更多努力。
流程文档永远过时。大多数组织的标准操作程序(SOP)写于数年前,已与实际操作显著偏离。工人已经开发了从未被记录的变通方法、捷径和非正式流程。当员工离职时,他们关于"事情实际上是怎么运作的"制度性知识也随之而去。
部门孤岛问题使企业级自动化几乎不可能。一个跨越财务、运营和客服的流程涉及三个不同的系统、三个不同的团队和三套不同的经验知识。在单个部门内优化是可管理的;跨部门优化需要大多数组织难以实现的跨职能协调。
最后是变更管理挑战。即使设计良好的自动化,如果受影响的人不采纳也会失败。没有周到的变更管理,新自动化在数周内就被绕过或放弃。
COCO如何解决
COCO的AI工作流自动化器采用根本不同的自动化方法——从智能流程发现开始,以自优化工作流结束。
AI驱动的流程发现:COCO不依赖访谈和跟踪观察,而是通过系统日志、应用使用数据、邮件流和文档轨迹观察实际工作模式。它识别重复模式,映射实际流程(包括未记录的变体和变通方法),测量每个步骤的时间消耗,并标记最高影响的自动化机会。
瓶颈识别:COCO分析流程流数据,识别工作卡住的地方。审批步骤因审批者不堪重负而需要3天?数据录入步骤需要在系统间手动传输信息?审查步骤中80%的项目是橡皮图章但全部必须排队等待?每个瓶颈按时间影响、频率和下游后果量化。
智能自动化设计:对每个识别的自动化机会,COCO设计最优方法——可能是全自动化、人在环中的自动化,或流程简化。设计考虑边缘案例、错误处理和回退程序。
快速实施:COCO生成通过API、webhook和集成平台连接到现有系统的自动化工作流。与模拟屏幕交互的传统RPA不同,COCO的自动化在系统层面工作,更加稳健和可维护。实施时间以周计算,而非数月。
性能监控:每个自动化工作流持续监控性能、准确性和可靠性。当性能下降时,COCO提醒运营团队,在很多情况下可以通过调整工作流来自我修复。
持续优化:COCO不止于初始自动化。它持续分析自动化工作流以寻找进一步优化机会:可以并行化的步骤、可以基于标准自动审批的环节、可以简化的数据转换。
量化结果与受益角色
可量化的结果
- 流程周期时间:自动化工作流平均减少64%
- 节省员工工时:每人每月从重复任务中释放23小时
- 自动化实施时间:从平均6个月缩短至3周
- ROI回收期:2.7个月(传统RPA为8-14个月)
- 错误率:自动化流程中0.3%(手动执行时为4.2%)
受益角色
- 运营负责人:实现自动化目标,避免传统方法的高失败率
- 一线员工:从乏味的重复工作中解放,专注于更高价值的活动
- IT团队:维护更少、更稳健的自动化,无需持续看护
- 高管层:获取自动化长期承诺但很少兑现的生产力提升
实用提示词
提示词 1:流程发现与自动化评估
为[公司名称]的[部门/团队名称]进行全面的流程发现和自动化评估。
部门概述:
- 职能:[部门做什么]
- 人数:[人员数量]
- 关键职责:[列出5-7项主要职责]
- 使用的系统:[列出所有软件工具和系统]
- 已知痛点:[团队抱怨什么]
- 之前的自动化尝试:[任何先前的努力和结果]
对部门中的每个主要流程,分析:
1. **流程清单**:识别并列出所有重复流程,包括名称、频率、数量、平均时间、月总工时、涉及人数、使用的系统、错误/返工率
2. **自动化评分**:对每个流程评分:
- 自动化潜力(1-10)
- 业务影响(1-10)
- 技术可行性(1-10)
- 综合优先级评分和建议(立即自动化/计划自动化/先简化/保持手动)
3. **前5个自动化机会**:每个包含当前状态、建议自动化状态、预估时间节约、实施复杂度
4. **速赢**:3-5个可在2周内实施并立即产生效果的自动化
5. **路线图**:排序的实施计划提示词 2:工作流自动化规格说明
为我们要自动化的以下流程创建详细的自动化规格说明。
当前手动流程:
- 流程名称:[名称]
- 触发器:[什么启动此流程]
- 步骤:[详细描述每个步骤]
1. [步骤1]:[谁做、什么系统、做什么、花多长时间]
2. [步骤2]:[同样详情]
- 输出:[流程产出什么]
- 异常:[已知边缘案例及当前处理方式]
- 数量:[每天/周/月的实例数]
涉及的系统:
- [系统1]:[在流程中的角色、API可用性、集成选项]
生成完整的自动化规格:
1. **自动化工作流设计**:触发条件、决策逻辑、数据转换、错误处理、人工升级标准
2. **集成架构**:系统连接、数据流图、认证和安全要求
3. **测试计划**:单元测试、集成测试、边缘案例测试(至少10个场景)、并行运行计划
4. **上线计划**:试点组、成功标准、分阶段推广、回滚程序
5. **监控和维护**:跟踪的KPI、告警阈值、定期审查节奏提示词 3:跨部门流程优化
分析并优化跨越多个团队和系统的跨部门流程。
流程:[端到端流程的名称和描述]
涉及的部门:
1. [部门1]:[在流程中的角色、使用的系统]
2. [部门2]:[同上]
3. [部门3]:[同上]
当前流程:[描述端到端流程及部门间交接点]
已知问题:
- 交接延迟、数据重复录入、不一致性、沟通缺口、审批瓶颈
优化流程:
1. **流程图**:创建详细的当前状态图,包含每个步骤的处理时间和等待时间
2. **根因分析**:每个瓶颈的原因及消除影响
3. **未来状态设计**:重新设计的流程,包含消除的步骤、自动化的步骤、简化的交接、并行活动
4. **变更管理计划**:利益相关者影响分析、培训需求、沟通计划
5. **预期成果**:新周期时间、错误减少、每个部门释放的产能提示词 4:自动化ROI计算器
为自动化[流程名称]构建详细的ROI分析以支持投资商业论证。
当前状态:
- 流程频率:每[天/周/月][X]次
- 平均每次时间:[X]分钟
- 执行此流程的人数:[X](角色和全额时薪)
- 错误率:[X]%(每次错误修复平均成本:$[X])
- 延迟的下游影响:[描述并尽可能量化]
- 当前工具/软件成本:$[X]/年
拟议自动化:
- 实施成本(一次性):$[X]
- 持续成本:$[X]/月
- 预期自动化率:[X]%的实例全自动化
- 实施时间线:[X]周
计算:
1. **年度成本节约**:人力、错误减少、速度提升价值、工具整合
2. **第一年ROI**:总投资vs总节约
3. **3年TCO分析**:逐年成本和节约
4. **回收期**:累计节约超过累计投资的月份
5. **敏感性分析**:自动化率低20%、实施延长50%、流程量增30%时ROI变化
6. **无形收益**:员工满意度、可扩展性、合规性
以适合高管的商业论证格式呈现。提示词 5:自动化健康检查与优化审查
对我们现有的自动化组合进行健康检查和优化审查。
当前自动化:
[对每个自动化,提供:]
1. 名称:[名称]
- 功能:[简述]
- 实施日期:[日期]
- 当前状态:[运行中/降级/故障]
- 月处理量:[实例数]
- 错误/异常率:[百分比]
- 需要手动干预的比例:[百分比]
- 连接的系统:[列表]
- 最近更新日期:[日期]
- 负责人:[谁维护]
整体自动化指标:
- 生产中的自动化总数:[X]
- 每月节省总工时:[X]
- 平均自动化可靠性:[X]%
- 每月维护工时:[X]
分析并提供:
1. **健康评估**:每个自动化的健康状态和关键问题
2. **优化机会**:可以扩展范围的自动化、可以整合的自动化
3. **风险评估**:单点故障、依赖即将退役系统的、缺乏监控的
4. **现代化路线图**:优先排序的改进及预估工作量
5. **治理建议**:监控标准、文档要求、测试节奏、变更管理流程6. AI用户访谈综合分析器
分析综合时间从3周缩短至4小时——同时实现对100%访谈记录的全量覆盖。
痛点与解决方案
痛点:淹没在几十小时的录音里,却根本没时间提炼真正有价值的洞察
一个产品经理每季度做25到30场用户访谈,会积累40到50小时的录音和数千行文字记录。手动回听、打标签、归纳主题、撰写报告,少则两周,多则三周——大多数产品团队根本耗不起。结果往往是:访谈只部分回顾,综合分析草草了事,最终"洞察"不过是产品经理对最近几场访谈的主观印象。
当洞察是碎片化呈现的,产品决策就会跟着最响亮的声音跑,而不是最有代表性的数据。团队自信地基于三句印象深刻的话做功能,却忽略了另外十二名参与者传递的相反信号。每一个基于不完整研究启动的迭代,都在拿假设押注——而这些假设落空时,要到数月后才能从低采纳率、客服工单或流失数据中察觉。
COCO如何解决
COCO的AI用户访谈综合分析器能够接收原始录音、文字记录或访谈笔记,在极短时间内将其转化为结构化、可操作的研究成果。
- 跨访谈模式识别:同时读取所有访谈记录,而非逐篇分析——在整个数据集中识别反复出现的主题、矛盾点和异常信号
- 痛点分类体系构建:自动将发现的痛点整理为层级结构,包含核心痛点、诱因和情境触发因素,并按频率和严重程度双维度标注
- 用户画像信号提取:识别行为模式和态度倾向,及时预警"单一用户类型"假设中实际包含两种截然对立子群体的情况
- 洞察到机会的转化映射:将综合后的痛点转化为适合纳入产品Backlog的机会陈述,并为每个机会点建立完整证据链
量化结果与受益角色
可量化的结果
- 分析综合时间:手动3周 → COCO辅助4小时(效率提升85%)
- 访谈覆盖率:从约40%的记录回顾 → 全量100%覆盖
- 洞察数量:每轮研究周期提炼出的独立痛点增加3到4倍
- 汇报材料准备:从2天缩短至3小时以内
- 研究到路线图的周期:从6周缩短至2周以内
- 决策信心:产品经理对基于研究数据做出的优先级决策,信心度提升60%
受益角色
- 产品经理:无需耗费数周时间泡在电子表格里,直接获得结构化、已优先级排序的洞察报告
- UX研究员:将精力集中在研究设计和招募环节,COCO负责标注和综合分析
- 产品设计师:直接获取按用户画像标注的痛点和原始引言,可无缝嵌入设计简报
- 产品管理层:在季度规划前获得有充分证据支撑的研究摘要,无需等待完整研究周期
实用提示词
提示词1:全量访谈综合分析
我已完成对 [公司名称] [产品名称] 的 [访谈数量] 场用户访谈。
以下是全部文字记录,请跨所有访谈进行综合分析,并输出:
1. 前5到7个高频痛点,按频率和严重程度排序,每个痛点附2到3句支撑引言。
2. 行为型用户画像拆解——基于目标、工作流程和态度,识别2到4类用户原型。
3. 关键未满足需求,以机会陈述方式呈现:"用户需要一种方式,能够在不经历[当前摩擦Y]的情况下实现[目标X]。"
4. 值得关注的矛盾点或颠覆现有假设的意外发现。
5. 本轮研究无法回答的3到5个问题——即下一轮研究需要补充的盲区。
产品背景:[产品简介及当前阶段]
研究聚焦:[本次访谈希望回答的核心问题]
访谈用户群体:[职位/角色、公司规模等]提示词2:研究洞察转化为路线图机会
基于以下针对 [产品名称] 开展的 [访谈数量] 场用户研究综合结果,
请帮我将洞察转化为可直接进入路线图的机会陈述。
研究摘要:[粘贴综合发现或核心痛点列表]
针对每个主要痛点,请生成:
1. 机会陈述,格式为:"我们如何帮助用户实现[X目标],同时避免[当前摩擦]?"
2. 粗略影响力估算:哪些用户群体受影响?
3. 置信度评级(高/中/低),依据是研究中存在多少支撑证据。
4. 若置信度为中或低,建议对应的验证方案。7. AI可用性测试分析器
分析时间从5到7天缩短至6到8小时——发现的UX摩擦点数量增加2.5倍。
痛点与解决方案
痛点:测试做完了,真正的工作才刚刚开始
跑可用性测试本身是最简单的环节。一个5人团队用两天时间完成8场有主持的测试,会产生大约12小时的屏幕录像、点击路径和"出声思考"记录。而分析工作——回看录像、标注摩擦时刻、量化任务成功率——还需要一周甚至更多时间。本该快速的反馈闭环,变成了一场耗时且昂贵的报告生产工程。
当规模扩展到无主持测试时,问题进一步放大。通过UserTesting或Maze平台收集50到200份测试数据,所产生的信息量远超大多数团队的处理能力。团队只能从中挑选有时间看的部分进行回顾,引入严重的选择偏差,大量行为信号被白白浪费。
COCO如何解决
COCO的AI可用性测试分析器能够处理多模态会话数据——点击路径、任务日志、完成时间戳、错误事件,以及语音和文字反馈——以极快的速度精准识别用户体验摩擦点。
- 任务完成率分析:自动计算所有会话中每个任务的成功、失败和部分完成率,将低于阈值的任务标记为高优先级摩擦区
- 点击路径与导航偏差检测:将用户实际操作路径与预期最优路径进行比对,识别用户"偏轨"的位置及他们点击了什么
- 摩擦时刻聚类:将犹豫停顿、错误事件和回退行为按页面和用户类型聚类,按频率和影响程度排序
- 设计改进建议生成:将摩擦点转化为可验证的设计假设,可直接交付设计师使用
量化结果与受益角色
可量化的结果
- 分析时间:手动5到7天 → COCO辅助6到8小时(效率提升80%以上)
- 会话覆盖率:从回顾约30%的会话 → 分析100%的数据
- 发现的摩擦点数量:每轮测试周期中发现的独立UX问题增加2.5倍
- 设计交接周期:从10天缩短至2天以内
- 误判减少:通过跨会话规律验证,减少约40%
- 因等待研究结果导致的迭代延期:在迭代周期内使用COCO的团队基本消除此问题
受益角色
- 产品经理:无需等待一周,直接获得有证据支撑、按优先级排序的UX摩擦报告
- UX设计师:收到具体的、有会话记录支撑的摩擦点——精确到哪里困惑、为何困惑
- UX研究员:将精力聚焦于会话主持和测试方案设计,而非手动回顾每一场会话
- 开发团队:获得基于行为数据的明确设计需求,减少UX修复过程中的来回沟通
实用提示词
提示词1:全量可用性测试会话分析
我刚完成了针对 [公司名称] [产品/功能名称] 的一轮可用性测试。
以下是会话数据,请分析并输出结构化的可用性发现报告。
测试方案:
- 会话数量:[例如:12场有主持 / 80场无主持]
- 测试任务:[列出参与者需要完成的3到5个任务]
- 用户细分:[描述参与者画像]
请输出:
1. 逐任务完成率拆解(成功/部分完成/失败),以及每个任务的主要摩擦时刻
2. 前5到8个UX摩擦点,按严重程度和频率排序,附支撑证据
3. 优先级最高的3个问题——修复后对整体任务成功率提升最大
4. 针对每个主要摩擦点的设计假设:"我们认为[改变]将会[结果],因为[证据]"8. AI客户旅程地图构建器
旅程地图绘制周期从3到4周缩短至2到3天——额外发现40%此前不可见的流失节点。
痛点与解决方案
痛点:墙上贴着旅程地图,没人知道它是否反映真实情况
大多数产品团队都有一份客户旅程地图。它挂在某个Miro看板上,是六个月前某次工作坊的产物,内容基于当时与会者的主观认知。而真实的旅程——用户穿行于产品、支持渠道和市场触达点之间那条混乱的路径——分散在Google Analytics、Mixpanel、Intercom工单、NPS问卷和应用商店评论里,没有人有时间或工具将它们拼接在一起。
每一个未被发现的流失节点都在漏财。一家每月有5000次试用的SaaS公司,如果8%的用户在引导步骤流失,就是约400个潜在客户在感受到产品价值之前消失了。没有清晰、有数据支撑的旅程地图,这个漏洞永远无法被修补,因为它是隐形的。
COCO如何解决
COCO的AI客户旅程地图构建器能够综合多个行为数据和定性来源,产出有充分证据支撑、量化了流失节点和优先优化机会的旅程地图。
- 多源数据融合:接收并整合来自分析平台、支持/CRM记录、问卷回复和定性研究的行为数据,构建统一的旅程模型
- 流失量化与根因分析:计算每个步骤的转化率,将流失时机与客服工单激增和会话放弃信号相关联
- 情感旅程叠加:将来自客服工单、评论和问卷的定性情感数据叠加到行为旅程上,标出高流量时刻与高挫败时刻的错位
- 按阶段的机会优先级评分:按每个优化机会对整体旅程转化率的潜在影响进行排序
量化结果与受益角色
可量化的结果
- 旅程地图绘制周期:3到4周工作坊周期 → COCO辅助2到3天完成
- 整合数据源数量:平均6到8个,而手动方式通常只能整合1到2个
- 识别的流失节点:团队额外发现40%的此前不可见流失点
- 引导流程转化率提升:使用有数据支撑地图的团队,一个季度内提升15到25%
- 跨职能对齐会议:从3次缩减为1次
- 旅程准确性信心:从"我们认为"提升至附有证据引用的"我们知道"
受益角色
- 产品经理:用有证据支撑的旅程地图替代基于假设的版本,获得与真实流失影响挂钩的优先级决策框架
- 增长/生命周期团队:精准识别触发定向生命周期活动的阶段和时机
- 客户成功经理:了解企业客户在旅程中的挣扎点,在流失信号变得明显之前主动介入
- 市场团队:了解哪些获客渠道带来的用户旅程完成率最高,指导预算分配
实用提示词
提示词1:全量多源数据旅程综合分析
我想为 [公司名称] 的 [产品名称] 构建一份有数据支撑的客户旅程地图。
产品背景:
- 产品类型:[SaaS / 电商 / 移动应用 / 其他]
- 主要用户:[描述目标用户]
- 业务目标:[例如:免费转付费 / 用户激活]
我提供的数据来源:
1. 分析平台漏斗数据:[粘贴或描述]
2. 客服工单主题:[粘贴主要类别]
3. NPS/CSAT问卷回复:[粘贴或总结]
4. 用户访谈发现:[粘贴摘要]
5. 应用商店评论:[粘贴相关片段]
请输出:
1. 逐阶段旅程地图,附每个转化节点的量化转化率
2. 按体量和严重程度排序的前3到5个流失节点
3. 情感叠加层——用户在哪里感到挫败,在哪里感到满意?
4. 按潜在转化影响排序的前3个优化机会9. AI PRD生成器
PRD起草时间从6到10小时缩短至60到90分钟——工程师提出的澄清问题减少约50%。
痛点与解决方案
痛点:写PRD是那件不断抢占本职工作时间的事
产品经理最不可替代的价值是判断力——决定做什么、为什么做、按什么顺序做。然而大多数产品经理每写一份PRD就要花6到10小时,消耗掉的正是迭代前本该用来验证决策和对齐利益相关方的时间。对于两周迭代的团队来说,这意味着每个迭代周期有三分之一被文档开销吞噬。
质量问题叠加时间问题。在时间压力下写出的PRD往往不完整——边界情况缺失、验收标准模糊。工程师提出澄清问题导致迭代启动延期,QA按与原意不符的验收标准测试。PRD中每一处模糊,下游都要用30到60分钟的会议来解决——而这些会议往往发生在迭代中期,改变方向的代价已经很高。
COCO如何解决
COCO的AI PRD生成器能够将原始输入——会议记录、研究发现、战略目标、竞品参考——在极短时间内转化为结构完整的PRD草稿。
- 上下文到结构的转换:将非结构化输入(粗糙的笔记、要点列表)自动整理为完整的PRD结构,填充所有标准章节
- 用户故事生成:从功能描述中生成规范的用户故事,包含主要场景和边界情况故事,采用标准格式
- 验收标准编写:为每项需求生成具体、可测试的验收标准,采用"给定/当/则"格式,可直接被QA和工程师使用
- 范围边界定义:明确定义哪些在范围内、哪些不在——防止开发过程中的范围蔓延和对齐失败
量化结果与受益角色
可量化的结果
- PRD起草时间:从6到10小时 → 60到90分钟(效率提升80%至85%)
- 工程师提出的澄清问题:因验收标准完整度提升,减少约50%
- PRD覆盖率评分:比手写PRD提升40%
- 因需求不完整导致的迭代启动延期:从影响约30%的迭代降至10%以下
- 利益相关方评审轮次:正式签字前平均减少2.1轮修改
- 产品经理释放的时间:每个迭代周期节省4到6小时
受益角色
- 产品经理:文档工作减少80%,将更多精力投入真正重要的判断、研究和利益相关方沟通
- 工程团队:以完整、无歧义的需求启动迭代,大幅减少迭代中期的范围澄清和返工
- QA/测试工程师:直接从PRD获取可测试的验收标准,减少需求解读开销
- 产品设计师:有清晰的需求基础可供设计,减少在范围和边界情况上的来回确认
实用提示词
提示词1:基于会议记录和研究结果生成完整PRD
我需要为 [公司名称] 的一个新功能撰写PRD。以下是我的原始输入:
功能概念:[用2到5句话描述该功能]
战略背景:[我们为什么要做这件事——它支持哪个目标或OKR]
用户研究洞察:[粘贴相关研究发现、用户原话或痛点]
利益相关方需求:[销售、客户成功、工程或管理层的关键输入]
约束条件:[技术约束、时间线、资源限制]
请生成包含以下章节的完整PRD:
1. 背景与问题陈述
2. 目标与成功指标
3. 用户故事(主要场景及边界情况)
4. 功能性需求及验收标准
5. 非功能性需求
6. 范围外事项
7. 假设与风险
8. 待定问题10. AI功能影响力预估器
减少35%的"后悔功能"——用有校准的预估值替代直觉优先级排序。
痛点与解决方案
痛点:每个功能看起来都同等重要,直到你不得不做取舍
路线图优先级排序是直觉与压力的交汇点。每个季度,产品经理都面临同一个困境:30个功能需求,只有8个位置,没有可靠方法预测哪个会真正带来影响。大多数团队使用RICE或MoSCoW框架来强加一些严谨性,但这些框架的质量取决于输入估算的质量——而那些估算通常是猜测。
下游代价是巨大的:一个季度路线图中一个优先级排错的功能,可能消耗中等规模团队20到40万美元的工程时间。如果那个功能因为底层假设错误只带来了预期影响力的20%,组织实际上浪费了相当于多名工程师年产出的成本。
COCO如何解决
COCO的AI功能影响力预估器将历史产品数据、用户细分分析、竞品基准和基于证据的推理相结合,产出有充分依据、经过校准的影响力预估值。
- 历史发布规律分析:从过往功能发布中挖掘数据,建立有校准的基准——类似功能在前90天通常能带来什么结果
- 置信度加权影响力评分:生成带置信区间的影响力评分,而非单点估算——"30天留存率提升4到8%(中等置信度)"
- 敏感性分析:测试关键假设发生变化时优先级排名如何变化,识别具有稳健优先级与脆弱优先级的功能
- 投入产出前沿映射:以证据调整后的输入重新计算RICE/ICE评分,识别被错误分类的功能
量化结果与受益角色
可量化的结果
- 优先级排序准确性:减少35%的"后悔功能"——带来不足预期影响力50%的功能
- 路线图讨论时间:从4小时以上的观点碰撞降至90分钟以内的数据支撑讨论
- 团队成员间RICE/ICE评分差异:通过共享估算方法论减少约60%
- 影响力预测误差:均值绝对误差从约45%降至约22%
- 战略对齐度:利益相关方路线图评审前的一致性评分提升25%
- 资源重新分配:团队每季度挽回1到2个被错误分配的工程迭代
受益角色
- 产品经理:用数据支撑的预估值替代直觉优先级排序,对每项路线图决策有可辩护的理由
- 产品管理层/CPO:在承诺季度计划前,了解每个路线图条目背后的置信水平和证据基础
- 工程负责人:了解哪些功能具有最强的证据支撑,有信心规划迭代容量
- 销售和客户成功团队:理解路线图优先级逻辑,向客户准确设定时间预期
实用提示词
提示词1:多功能优先级排序分析
我正在为 [公司名称] 的 [产品名称] 准备季度路线图,需要对以下功能候选项进行影响力预估。
背景:
- 当前月活用户:[X]
- 我们优化的核心业务指标:[例如:30天留存 / 免费转付费转化]
- 下季度可用工程容量:[X个迭代/故事点]
功能候选项:
1. [功能A]:[1到2句描述,针对哪个用户细分]
2. [功能B]:[描述]
3. [功能C]:[描述]
我能提供的历史数据:
- 类似历史发布:[描述1到2个可参考功能及其实际结果]
- 当前漏斗指标:[粘贴关键转化/留存数据]
- 每个功能的用研证据:[总结支撑数据]
请为每个功能预估:
1. 可能的覆盖范围(受影响用户)及细分拆解
2. 对核心指标的预期影响(区间值,非点估算)
3. 证据置信度(高/中/低)及依据
4. 建议的投入等级(S/M/L/XL)
5. 初步优先级排名及关键假设说明11. AI需求冲突检测器
开发前需求冲突检测率达70%到80%,而手动审查仅约20%。
痛点与解决方案
痛点:冲突一直都在——直到迭代第三周才被发现
多利益相关方的产品开发是大规模协调难题。产品经理为一个重要功能收集需求时,可能要接收来自六个团队的输入:销售要单点登录、安全团队要基于角色的访问控制、工程标注了数据库性能约束、客户成功要简化的自助流程、法务要明确的同意检查点。这些对话中没有任何一方知道其他方说了什么。
冲突在开发过程中而非之前才浮现。工程师开始构建自助流程,才意识到它与基于角色的访问控制冲突。每一个这样的发现,至少需要1到2天的工程返工——更多情况下还会触发需求修订,重启规划过程并需要新一轮的利益相关方确认。
COCO如何解决
COCO的AI需求冲突检测器同时分析来自多个来源的需求,在开发开始前挖掘矛盾和依赖风险,并为利益相关方对齐提供解决框架。
- 跨利益相关方需求解析:接收来自会议记录、Slack讨论、邮件摘要和PRD评论的需求,将其规范化为统一的需求模型
- 冲突类型分类:将冲突分类为直接矛盾、资源冲突、优先级冲突或依赖冲突
- 冲突严重程度评分:将每个冲突评定为关键、高、中或低,并为关键和高级冲突提供解决选项
- 对齐会议准备:生成预结构化的冲突审查文档,每个冲突格式化为清晰的决策事项
量化结果与受益角色
可量化的结果
- 开发前冲突检测率:70%到80%的冲突在迭代开始前检测到,而手动审查仅约20%
- 迭代中期返工事件:通过系统性冲突检测减少约55%
- 利益相关方对齐会议效率:冲突审查会议从90分钟缩短至40分钟
- 因需求变更导致的迭代速度损失:从每季度约15%降至5%以下
- 签字前需求覆盖率:90%以上的跨利益相关方依赖关系有文档记录,而手动方式仅约50%
- 发布后需求回归率:无已检测冲突发布的功能,发布后需求争议减少40%
受益角色
- 产品经理:在冲突成为代价高昂的迭代中期发现之前捕获它们,带着结构化的解决议程走进利益相关方会议
- 工程团队:以连贯、内部一致的需求规格启动迭代,不再在第5天发现两部分需求相互矛盾
- 利益相关方:需求被正确追踪,冲突被透明呈现,不再感觉输入被忽视或悄悄丢弃
- 项目/项目群经理:获得可用于交付规划和风险升级的依赖关系图和风险登记册
实用提示词
提示词1:全量多利益相关方需求冲突扫描
我正在为 [公司名称] 的 [功能/产品名称] 构建需求规格说明。
我已从多个利益相关方收集了输入——请分析所有内容,识别任何冲突、矛盾或依赖风险。
各利益相关方的需求:
销售团队:
[粘贴需求]
工程团队:
[粘贴技术约束]
安全/合规团队:
[粘贴需求]
客户成功团队:
[粘贴需求]
法务团队:
[粘贴需求]
请输出:
1. 所有检测到的冲突,按类型分类(直接矛盾/资源冲突/依赖冲突/优先级冲突)
2. 每个冲突的严重程度评级(关键/高/中/低)
3. 对于关键和高级冲突:2到3个解决选项及权衡分析
4. 依赖关系图,显示各需求之间的依赖关系
5. 开发开始前必须做出的决策优先级列表12. AI多租户功能灰度发布管理器
发布相关客服升级事件减少60%。每租户通知准备时间:45分钟 → 5分钟。
痛点与解决方案
痛点:向企业租户推送功能,本质上是一道风险管理题
在单租户的消费级应用中,一次糟糕的功能发布是可以挽救的。多租户的企业平台则完全不同。一个影响到前20家企业客户的配置错误——每家运行着不同的集成、自定义配置和合规要求——会同时引发20起客服升级,违反多份合同的SLA承诺,并触发关于平台稳定性的董事会级别讨论。风险是不对称的:成功的发布无人察觉,失败的发布则可能动摇根基。
问题在于大多数发布流程没有为这种不对称性设计。团队沿用消费级产品的同一套功能开关框架——10%开启,然后50%,然后100%——就称之为"分阶段发布"。但在企业场景中,"10%的租户"不是一个经过风险校准的数字。那10%里可能正好包含集成最复杂的租户,或者来自监管最严格行业的租户,或者那位CTO刚刚致电你的VP销售谈续约的锚定客户。企业租户不是可以互换的——他们的风险画像差异巨大,而忽视这种差异的发布策略不叫风险管理,叫碰运气。
文档负担让问题雪上加霜。企业客户期待带有具体内容的发布通知:更改了什么、确切时间是什么、如何准备、出问题时该怎么做、该找谁。为50多家处于不同发布阶段的租户手动生成每家专属的发布通知,本身就是一个独立项目——于是团队干脆跳过这一步,然后接着接听一通又一通的困惑询问电话。
COCO如何解决
COCO的AI多租户功能灰度发布管理器通过风险校准的分批次策略、自动化通知生成和主动式回滚触发,规划、排序并监控跨企业租户的功能发布。
租户风险画像评分:在部署任何一行代码之前,对每个租户按发布风险进行分类。
- 风险因素:集成复杂度、自定义配置深度、合同SLA敏感性、租户健康评分、客服工单量、战略账户地位
- 为每个租户生成发布风险等级:低/中/高/暂缓
- 识别不应出现在同一发布批次中的租户
批次排序引擎:构建兼顾风险分散和学习速度的分批次发布计划。
- 第1批:仅限内部租户和自愿参与的Beta租户
- 第2批:同类型低风险租户——若出现问题可将影响控制在小范围
- 第3批:中风险租户,附手动监控检查点
- 第4批:高风险和战略性租户,附逐户发布前评审
租户专属发布通知生成器:根据每个租户的实际配置生成定制化发布通知。
- 基于租户的实际配置,识别哪些功能或设置发生了变化
- 生成对该租户准确的通知模板——而非泛泛的群发
- 包含针对该租户的准备步骤和问题联系路径
发布前就绪状态清单:在每个批次部署前,为每个租户生成量身定制的上线判断清单。
- 验证租户特有的集成是否与新功能版本兼容
- 检查是否有表明系统不稳定的未关闭客服工单
- 确认发布窗口避开了租户的冻结期
实时异常监控计划:为每个发布批次定义监控协议——监控什么、持续多久、回滚触发条件。
- 设置针对租户的错误率阈值
- 根据功能复杂度确定每批次的监控窗口时长
- 生成回滚决策树:自动、建议性还是手动?
发布后租户健康报告:在每个批次完成后,按租户汇总发布结果。
- 追踪每个租户在前48小时内的功能激活率
- 标记发布后表现异常的租户,进行主动外联
- 生成反馈给下一次发布规划的回顾总结
量化结果与受益角色
可量化的结果
- 发布相关的客服升级事件:通过风险分层的批次排序减少60%
- 发布完成的平均时长:通过并行批次优化缩短25%
- 回滚事件:因发布前就绪检查提前发现不兼容问题,减少40%
- 每租户通知准备时间:从手动45分钟/租户降至COCO辅助5分钟/租户
- 发布期间SLA违规事件:从约15%的重大发布降至4%以下
- 租户健康评分(发布后90天):相比非结构化发布方式提升18%
受益角色
- 平台产品经理:拥有可向工程和管理层呈现的风险校准发布计划——而非"先给10%的用户开启"
- 客户成功团队:收到每租户的发布计划和通信草稿——不再需要每次发布手动写50封邮件
- 工程/SRE团队:有明确的监控参数和回滚触发条件——消除事故期间的主观判断
- 企业客户:提前收到准确、具体的变更通知——显著提升信任度并减少困惑
实用提示词
提示词1:新功能完整发布计划
我正在为 [X] 家企业租户规划 [功能名称] 的发布。
请帮我构建一份风险校准的发布计划。
功能背景:
- 变更内容:[描述变更——UI、数据模型、集成行为、权限等]
- 风险等级估计:[低/中/高——及原因]
- 发布时间线约束:[全量发布需要在何时完成]
- 回滚复杂度:[简单/中等/复杂——及操作方式]
租户数据:
[格式:租户名称 | 规模 | 集成复杂度 | SLA层级 | 战略地位 | 近期健康状况]
请生成:
1. 每个租户的风险等级分类(低/中/高/暂缓)
2. 推荐的批次结构及每批次的租户分配
3. 批次间的稳定观察期和每批次启动前的上线标准
4. 每批次的监控参数(监控什么、持续多久、回滚触发条件)
5. 从第1批启动到全量发布完成的时间线提示词2:逐租户发布通知生成
我需要为即将发布的 [功能名称] 向企业租户发送发布通知。
请根据以下各租户的具体配置,为每家生成定制化发布通知。
即将发布的功能:[描述变更内容]
该批次租户的发布日期:[日期/时间窗口]
所需准备步骤:[租户在发布前或发布后可能需要做的事]
支持联系方式:[应联系的人员或邮箱]
租户1:[公司名称]
配置详情:[列出其受影响的具体集成、设置或使用模式]
租户2:[公司名称]
配置详情:[同上]
每封通知应包含:
- 明确说明该租户环境中具体发生了哪些变化
- 针对其配置的相关准备步骤
- 该租户具体的发布时间窗口
- 遇到问题时的明确联系路径提示词3:发布回顾与下次流程改进
我刚刚完成了 [功能名称] 对所有租户的发布。请帮我进行发布回顾。
发布概要:
- 已完成发布的租户总数:[X]
- 批次情况:[批次数量及排序方式]
- 时间线:计划 [X天] vs. 实际 [Y天]
- 回滚事件:[数量、涉及哪些租户、原因]
- 发布期间的客服升级:[事件数量及问题性质]
发布后健康数据:
- 各租户群体的功能采纳率:[提供数据或估计]
- 客服工单量变化:[发布前后对比]
请分析并提供:
1. 哪些做得好,应该在未来发布中标准化
2. 导致延期或回滚事件的根因分析
3. 下次发布流程的3到5个具体改进建议
4. 基于本次发布,更新租户风险画像的建议13. AI企业客户引导手册构建器
平均引导持续时间缩短30%到40%——首次价值里程碑加速至30天以内。
痛点与解决方案
痛点:每个企业客户都像是第一个——因为根本没有手册
企业级引导是合同签订后悄然死去的地方。一份六位数的合同签署,客户从销售转交给客户成功,然后真正的工作开始——而且往往立即陷入混乱。客户有与范围界定不同的技术要求,IT安全团队提出了没有人记录过答案的合规问题。每个企业客户都带着独特的复杂性组合到来,团队只能即兴应对,实施时间比应有的长3到5倍。
企业级引导拖延超过90天与年度流失率高出40%相关。在30天内未能达到首次价值里程碑的客户,在续约时缩减合同的可能性高出3倍。产品本身没有问题——引导过程才是问题所在。
COCO如何解决
COCO的AI企业客户引导手册构建器创建量身定制的、逐步引导的工作流程,根据企业客户特征、产品复杂度和实施风险进行校准。
- 客户细分画像分析:在第一天之前分析客户资料数据,确定适当的引导路径——标记高风险指标如该垂直行业的首个客户或激进的上线截止日期
- 分阶段工作流程生成:为每个阶段创建详细的实施工作流,包含有序里程碑、任务负责人、成功标准和客户端任务责任
- 风险登记册与缓解路径:识别客户画像的常见引导失败模式——包含每种风险的早期预警指标和升级触发条件
- 手册版本管理与反馈循环:创建基于引导结果持续改进的结构化格式
量化结果与受益角色
可量化的结果
- 平均引导持续时间:实施手册后第一季度内缩短30%到40%
- 首次价值里程碑时间:标准细分客户从60天以上加速至30天以内
- 新客户成功经理上手时间:从10周缩短至5周
- 引导完成时的客户满意度:NPS提升20到30分
- 年度流失相关性:使用结构化手册的客户12个月流失率低28%
- 引导期间升级事件:因主动风险识别减少45%
受益角色
- 产品经理:将可扩展的引导体验设计为产品,而不是临时的客户成功即兴发挥
- 客户成功经理:每次企业级项目都有清晰手册,而不是从空白页开始即兴发挥
- 销售团队:在销售周期中使用手册摘要设定准确的实施时间预期,减少售后失望
- 客户实施团队(客户端):从第一天就收到清晰的任务分配和成功标准
实用提示词
提示词1:定制化企业客户引导手册创建
我需要为 [公司名称] 的一个新企业客户构建引导手册。
客户画像:
- 公司:[名称]
- 行业:[例如:金融服务、医疗、零售]
- 公司规模:[员工数量 / 将使用产品的最终用户数]
- 技术环境:[关键系统——SSO、CRM、数据仓库、ERP]
- 上线截止日期:[目标日期]
- 特殊要求:[监管、安全或定制化要求]
请构建分阶段手册,包含:
1. 启动前准备清单
2. 启动周议程和交付物
3. 第二阶段(第2到4周):技术配置和集成里程碑
4. 第三阶段(第2个月):用户培训和采纳爬坡
5. 上线就绪标准和上线/不上线核查清单
6. 上线后稳定化计划
7. 风险登记册,附早期预警指标和缓解步骤14. AI客户扩展机会发现器
主动识别的扩展收入增加35%到45%——在续约窗口开启之前。
痛点与解决方案
痛点:最好的扩展机会已经藏在你的数据里——没人在读它
在成熟的B2B SaaS业务中,30%到50%的收入增长应该来自现有客户——通过追加销售、席位增加、跨产品采纳和等级升级。然而大多数客户成功团队都是被动运营的:等待客户询问更多席位,或依靠季度业务审查来发现扩展对话机会。当客户主动询问扩展时,他们已经等过了最佳扩展时机数周甚至数月。
信号就在那里:一个在90%席位使用率持续六周的客户需要更多席位,但还没有告诉任何人。一个使用了模块A的客户正在使用模块B本可消除的变通方法——交叉销售自然而生。对于拥有100个账户、1000万美元ARR的SaaS公司,提高10%的扩展收入识别率等于100万美元之前存在但不可见的管道。
COCO如何解决
COCO的AI客户扩展机会发现器持续分析产品使用数据、客户健康信号和账户特征,为每个账户提供及时、有证据支撑的扩展机会。
- 使用规律机会检测:识别接近阈值的席位使用率、表明可升级到更高等级的功能使用广度,以及客户使用变通方法的模块缺口
- 交叉销售亲和力评分:基于与已购买该产品的客户的行为相似度,对每个账户的跨产品采纳成功概率进行评分
- 健康信号时机引擎:为每个账户输出推荐的外联时机——"现在"、"30天"、"90天"或"暂缓"——基于账户健康轨迹
- 个性化扩展叙事生成:使用客户自身的使用数据为客户成功团队创建专属谈话要点,将扩展框架为解决问题而非销售推销
量化结果与受益角色
可量化的结果
- 主动识别的扩展收入:续约窗口前的管道增加35%到45%
- 平均扩展成交周期:从90天以上(续约驱动)缩短至30到45天(信号驱动)
- 客户成功团队生产力:每位CSM以相同的扩展管道产出管理多25%的账户
- 扩展赢率:当外联时机对应积极健康信号时,提升20%到30%
- 流失预防提升:健康信号监控减少15%的流失
- 每账户收入:基于信号的扩展计划第一年内,每账户平均ARR提升18%
受益角色
- 产品经理:了解哪些产品使用规律表明扩展准备就绪,为功能设计和打包决策提供依据
- 客户成功经理:带着来自客户自身账户的具体数据走进扩展对话,而不是泛泛的推销
- 销售/客户主管:从客户成功团队获得有行为证据的热门扩展线索
- 财务/营收团队:基于管道信号数据而非历史平均值构建更准确的扩展收入预测
实用提示词
提示词1:账户组合扩展机会扫描
我管理着 [X] 个企业账户的组合,想识别本季度扩展机会最强的账户。
账户数据:[描述你有什么——席位使用率%、按模块的功能采纳情况、合同等级、最近一次QBR日期和结果、支持工单量、NPS]
产品背景:
- 可供扩展的产品/模块:[列出]
- 典型席位升级触发点(使用率%):[你的阈值]
- 历史数据中的交叉销售成功指标:[描述]
账户数据:[粘贴每个账户的数据]
请产出:
1. 按预估机会价值排序的扩展机会账户列表
2. 对每个账户:表明扩展准备就绪的具体信号
3. 推荐的扩展类型:席位增加/等级升级/模块交叉销售
4. 推荐时机:现在外联/30天/90天/暂缓(附理由)
5. 健康标志:绿色(扩展)、黄色(先培育)、红色(留存优先,不推销扩展)15. AI产品指标异常检测器
异常检测平均时间从2到3天缩短至4小时以内——误报率低于8%。
痛点与解决方案
痛点:你是周一上午从CEO那里得知指标下跌的
没什么比指标惊喜更能打乱产品经理一周的工作节奏了。日活用户周四下降了18%。结账转化率周五下午骤降。激活率已经悄悄下滑了11天,没有人注意到,直到周例会才发现。当产品经理开始紧急排查时,三天的数据已经积累,工程师正从迭代工作中被抽调出来进行事故调查。
监控问题是结构性的。产品指标分散在多个工具中,即使有单一仪表板的团队也无法现实地持续关注每一个指标。更细微的变化——10天内5%的激活率下滑,或特定群体的留存恶化而整体指标看起来正常——在没有系统性统计分析的情况下基本是不可见的。
COCO如何解决
COCO的AI产品指标异常检测器应用统计分析识别有意义的指标偏差——将真正的产品信号与季节性变化和噪音区分开来——并在问题演变为危机之前提供有情境的、可操作的告警。
- 基线规律学习:考虑星期效应、节假日规律和业务周期——即使在突破硬阈值之前,也能检测到指标在统计上显著偏错的趋势
- 细分级异常检测:按用户群体、获客渠道、平台和地理区域自动细分数据——标记整体指标正常但关键用户细分正在恶化的情况
- 统计显著性过滤:使用Z分数和控制图方法区分真实偏差与自然波动,误报率低于8%(朴素阈值告警为35%到40%)
- 根因假设生成:将近期产品变更和基础设施事件与异常时机进行交叉比对,生成排序后的因果假设
量化结果与受益角色
可量化的结果
- 异常检测平均时间:手动2到3天 → 自动化监控4小时以内
- 误报率:统计过滤下低于8%,而朴素阈值告警为35%到40%
- 在客户反映前捕获的事故:65%的重大异常在外部报告或客户投诉前识别
- 每次事故的工程调查时间:通过预生成的根因假设减少40%
- 每位产品经理监控的KPI数量:从约5个增加至20个以上
- 早期检测挽回的收入:典型团队每季度报告2到3次事故,通过早期检测防止了全面故障
受益角色
- 产品经理:在问题演变为危机之前数小时就知晓,且已有假设,而不是从零开始
- 数据/分析团队:将更少时间花在手动监控上,更多时间用于战略分析
- 工程团队:收到结构化的、假设驱动的异常报告,使根因调查快40%
- 产品管理层:获得对产品健康状况的持续量化视图,而不是每周快照
实用提示词
提示词1:异常调查与根因分析
我正在观察到我们产品指标中的异常,需要帮助调查。
异常描述:
- 受影响的指标:[例如:"第7天留存率"]
- 我看到的情况:[例如:"在过去5天内从32%降至24%"]
- 开始时间:[日期/时间]
- 哪些用户细分显示下降:[如果已知]
- 哪些细分看起来正常:[如果有不受影响的]
可能相关的近期事件:
- 部署的产品变更:[列出过去7到10天内的任何部署]
- 正在进行的营销活动:[任何新活动]
- 基础设施事件:[任何事故、迁移]
- 外部因素:[节假日、竞品发布]
请:
1. 识别最可能的根因,按概率排序
2. 需要拉取哪些额外数据来确认或排除每个假设
3. 这看起来是产品问题、基础设施问题还是数据追踪问题
4. 紧急程度:活跃事故、需关注的趋势还是数据伪像?
5. 起草一份与严重程度相符的简短团队告警消息16. AI用户群体留存分析器
一个季度内实现第30天留存率提升4%到8%——通过识别预测流失的具体行为。
痛点与解决方案
痛点:留存曲线是个事实,但你不知道是什么造成了它
每个产品团队都知道自己的第7天和第30天留存率。几乎没有团队真正理解的是——这些数字为何如此,以及用户在生命周期早期采取的哪些行动,决定了他们是成为长期留存用户还是流失。当第30天留存率是25%时,问题不是"我们怎么把它提升到30%",而是"哪些用户已经能坚持到30天,为什么,他们在第一周做了什么不同的事?"
传统的群体分析展示该群体的留存曲线,但对于群体内部的差异——同一注册周中25%的人留下、75%的人流失,而这两组人从第一天起的行为可能截然不同——毫无洞察。产品经理面对整体留存曲线时,用整体性解决方案来应对:为所有人改进引导流程,为所有人加一封第3天的邮件。这些一刀切的干预带来的改善幅度有限,因为它们没有针对留存用户与流失用户之间真正的行为差异。
COCO如何解决
COCO的AI用户群体留存分析器按行为维度对用户进行群体细分,识别区分留存用户和流失用户的关键行为,并生成可验证的留存改善假设。
- 行为群体细分:按用户在产品中实际发生的行为而非注册时间对用户进行分组,创建揭示截然不同留存曲线的群体
- Aha时刻检测:识别与长期留存最强相关的具体产品行为——量化每个行为带来的留存提升
- 流失预测信号识别:挖掘第1天到第7天中最能预测第30天及以后流失的早期行为信号,支持主动干预
- 干预假设生成:将发现转化为具体可验证的改进假设,并附带A/B测试设计
量化结果与受益角色
可量化的结果
- 留存改善速度:团队从"笼统地改善引导流程"转向具体的行为目标——通常在一个季度内实现第30天留存率提升4%到8%
- 流失预测准确率:基于行为群体分析构建的第7天流失预测模型,精确率达到75%到85%
- 干预定向精度:在流失前14天识别高风险用户,主动干预的成功率比被动应对高2到3倍
- 留存洞察产出时间:从2到3周的分析师项目缩短至COCO辅助的4到6小时分析
- A/B测试效率:定向行为测试比宽泛的UX测试快30%达到统计显著性
- 留存投入回报:第30天留存率提升1个百分点,可带来整体用户群体LTV提升3%到5%
受益角色
- 产品经理:从"我们的留存率是25%"转变为"以下是我们需要在第一周驱动的3个具体行为,以及预期影响"
- 增长/生命周期营销团队:足够早地识别高风险用户,在用户真正离开之前以定向活动介入
- UX设计师:精确了解哪些产品时刻对留存有预测价值,将设计精力集中于此
- 数据分析师:在数小时而非数周内以行为深度产出留存分析
实用提示词
提示词1:行为群体留存深度分析
我想了解为何 [产品名称] 中的部分用户在第30天留存、其他用户流失,
使用行为群体分析而非注册时间群体。
产品背景:
- 类型:[SaaS / 移动应用 / 电商 / 其他]
- 用户在产品中的关键行为:[列出5到10个有意义的事件——例如:"创建第一个项目"、"邀请团队成员"、"连接集成"]
- 当前第30天留存率:[X%]
- 我们对"留存"的定义:[第30天活跃的含义]
用户行为数据:[描述或粘贴一个用户群体的第一周行为数据摘要]
请分析并输出:
1. 行为聚类:你能识别出哪些不同的第一周行为模式?
2. 各行为聚类的留存率:哪些聚类的第30天留存最高 vs. 最低?
3. 前3到5个Aha时刻行为——对留存预测力最强的行为
4. 前3到5个流失预测因子——对流失预测力最强的早期行为
5. 最小"激活清单"——能强烈预测留存的最小行为组合
6. 干预建议:针对每个Aha时刻,哪些引导流程变更能提升完成该行为的用户比例?17. AI功能采纳追踪器
实施COCO识别的障碍修复后,90天采纳率平均提升25%到40%。
痛点与解决方案
痛点:功能上线了。三个月后,只有8%的用户用过它。
每个产品团队都经历过这种情况。一个功能花了6周时间构建,伴随产品公告和应用内引导提示上线,然后——沉默。上线三个月后,数据显示只有8%的合格用户曾经激活过它。功能本身没有问题——找到它的用户反馈还不错。但采纳率已经停滞不前,没有人确切知道原因。
行业研究表明,在一般的SaaS产品中,60%到80%的功能"很少或从未"被大多数用户使用。根本原因不是功能设计糟糕,而是对采纳旅程的可见性不足。团队知道功能是否被采纳了。他们不理解到达采纳的路径:哪些用户尝试了它以及为何,哪些用户接触到了它却跳过了,那些在中途放弃使用功能的会话中发生了什么。
COCO如何解决
COCO的AI功能采纳追踪器跨用户细分监控采纳率,绘制采纳漏斗中的障碍,并识别区分成功采纳与停滞兴趣的参与度模式。
- 采纳漏斗映射:将功能采纳从曝光到持续使用拆解为不同阶段——识别哪个阶段是主要瓶颈(大多数团队发现问题出现的位置比他们预想的更靠近漏斗顶部)
- 分阶段障碍识别:精确定位每个采纳阶段的具体摩擦点:可发现性障碍、激活摩擦、价值感知缺口或习惯形成阻碍
- 细分群体级采纳差异分析:揭示采纳率在不同用户群体间的显著差异,识别核心用户细分和高合格但低采纳的细分群体
- 干预建议引擎:针对每个已识别的采纳障碍,生成有预期影响力的定向干预选项
量化结果与受益角色
可量化的结果
- 功能采纳率:实施COCO识别的障碍修复后,90天采纳率平均提升25%到40%
- 采纳诊断时间:从2周的分析师项目缩短至4小时的自助式分析
- 功能使用中途放弃减少:通过定向激活摩擦修复,中途放弃率降低30%到45%
- 细分群体定向精准度:针对高亲和度细分群体的扩展活动,采纳率比大范围活动高2.8倍
- 功能ROI挽救:团队报告通过定向干预,将15%到25%的"表现不佳"功能挽救至良好采纳水平
- 路线图决策改善:没有采纳基准就批准的功能减少20%
受益角色
- 产品经理:明确知道每个功能的采纳受阻原因——不只是采纳率低这一事实,而是具体在哪里、为什么
- UX设计师:获取哪些具体交互时刻导致采纳放弃的数据,实现定向重新设计而非全功能返工
- 产品市场营销:了解哪些用户细分最可能成功采纳,实现定向上线和重新上线活动
- 工程团队:凭借有影响力证据的采纳相关修复进行优先级排序
实用提示词
提示词1:功能采纳审查
我想审查 [产品名称] 中 [X周/月] 前上线的 [功能名称] 的采纳情况。
当前整体采纳率:[X%的合格用户至少使用过一次]。
功能背景:
- 功能的作用:[描述]
- 设计目标用户(合格用户):[描述目标用户群体]
- 目前在产品中的呈现方式:[用户在哪里可以找到它]
- "已采纳"的定义:[你的定义]
我拥有的采纳数据:
- 曝光率:[曾看过功能入口的合格用户%]
- 首次使用完成率:[开始首次使用并完成的用户%]
- 重复使用率:[7天/30天内再次使用的用户%]
- 按细分的采纳情况:[如果有,粘贴细分拆解]
请:
1. 识别哪个漏斗阶段是主要的采纳瓶颈
2. 该阶段哪些具体障碍最可能导致流失
3. 哪些用户细分显示出最高的采纳率——该功能的"良好契合度"是什么样的?
4. 哪些细分尽管具有高合格度但采纳率低——最大的干预机会在哪里?
5. 推荐的前3个干预措施,以及每个措施的预期采纳提升幅度18. AI产品发布规划器
发布任务完成率从约70%提升至92%以上——发布时间线滑坡减少45%。
痛点与解决方案
痛点:"准备好发布了"对会议桌上的每个团队意味着不同的事
产品发布是一个披着产品里程碑外衣的组织协调难题。当产品经理宣布"三周后发布",工程团队认为这意味着代码已合并,市场团队认为这意味着活动已上线,销售团队认为这意味着已有可演示的幻灯片和批准的定价。而现实是,在发布当天,上述情况有一部分是真的,另一部分不是——没有人在48小时前才意识到这一点。
发布任务的遗漏不是因为粗心,而是协调复杂度使然。一个中等复杂度的产品发布涉及6到8个职能部门的50到80项独立任务,而其中的依赖关系直到出了问题才会变得显而易见。发布不顺产生的下游影响是真实而持久的:以令人困惑的初始体验发布的产品,会建立难以扭转的负面第一印象。
COCO如何解决
COCO的AI产品发布规划器生成全面的、附依赖关系映射的发布计划,涵盖跨职能任务归属、时间线管理和主动式风险识别。
- 跨职能任务生成:创建覆盖工程、产品、市场、销售、客户成功、法务和数据分析所有职能、按角色分配的全面任务清单
- 依赖关系映射:构建依赖关系图,显示哪些任务阻断其他任务——识别发布关键路径和"隐性"依赖
- 风险清单与应急计划:识别最可能发生的发布风险,附可能性、影响程度、早期预警信号和应急方案
- 发布后监控计划:定义第0天到第3天和30天的监控协议、回滚决策标准和成功指标检查点
量化结果与受益角色
可量化的结果
- 发布任务完成率:从约70%提升至结构化规划后的92%以上
- 发布时间线滑坡:减少45%——使用结构化依赖关系映射的团队,临时延迟事件更少
- 跨职能对齐度:各职能间"我们不知道你需要我们做那件事"事件平均减少35%
- 第一天客服工单量:通过更好的客户成功培训和文档就绪度,减少30%
- 发布后回滚事件:通过发布前上线/不上线标准和监控配置,减少50%
- 产品经理在发布协调上的时间投入:从约30%的带宽降至约15%
受益角色
- 产品经理:有信心地协调发布——每个依赖关系都已映射,每个负责人都已分配,每个风险都有应急方案
- 市场团队:有足够的提前时间收到清晰的时间线和物料需求,可产出高质量内容
- 销售团队:在发布对话开始前就有演示环境、定价和竞争对手分析卡准备就绪
- 工程团队:有清晰的发布策略、监控计划和回滚标准,减少发布当天的压力
实用提示词
提示词1:完整产品发布计划生成
我需要为 [公司名称] 的 [产品/功能名称] 构建一份全面的发布计划。
发布详情:
- 发布内容:[描述功能或产品——2到4句话]
- 目标发布日期:[日期]
- 今天日期:[日期]
- 发布范围:[哪些用户细分/地区/平台在本次发布范围内]
- 发布类型:[面向所有用户的正式版 / 面向特定细分的测试版 / 分阶段发布]
涉及的团队:
- 工程:[负责人姓名]
- 市场:[负责人姓名]
- 销售:[负责人姓名]
- 客户成功:[负责人姓名]
- 法务:[负责人姓名]
关键约束和背景:
- 已完成的工作:[列出任何已完成的发布任务]
- 已知风险或担忧:[例如:"法务审查总是瓶颈"]
- 应避免的历史发布问题:[例如:"上次没能及时完成客户成功培训"]
请生成:
1. 按职能划分的完整任务清单,附负责人、截止日期和依赖关系
2. 关键路径——哪些任务决定了我们是否能按时发布?
3. 含前5大风险缓解步骤的风险清单
4. 发布当天的上线/不上线核查清单
5. 利益相关方沟通时间表(内部和外部)19. AI竞品对战卡构建器
对战卡创建时间从8到12小时缩短至2到3小时——面对面竞争情形的赢率提升10%到18%。
痛点与解决方案
痛点:你的销售团队正在用一张九个月前的对战卡迎接竞争
竞争情报有一个时效性问题。销售代表走进一个客户也在评估竞争对手的商机。他们拉出对战卡——上一季度创建的——上面写着竞争对手已在Q2调整过的定价、竞争对手在九月发布会上已补齐的功能缺口,以及八周前产品更新中已修复的竞争弱点。销售代表要么带着错误信心展示过时信息,要么承认"我们的对战卡可能过期了"——无论哪种都不会赢得买家信任。
构建和维护竞品对战卡是一个资源问题。为一个竞争对手制作完整、高质量的对战卡需要8到12小时的初始调研。乘以6到10个活跃竞争对手加上季度刷新周期,竞争情报就变成了一个专职全职职能,而大多数产品或产品市场团队无法为此专门配置人手。
COCO如何解决
COCO的AI竞品对战卡构建器将来自多个情报来源的数据——产品评测、赢/输数据、销售通话记录、市场研究和公开产品信息——综合成实时竞品对战卡,结构化设计以提升销售实用性。
- 多源情报聚合:整合来自G2/Capterra/TrustRadius评测、赢/输通话记录、销售团队CRM备注、公开产品信息(含招聘帖子显示的投资方向)的竞争情报
- 差异化优劣势分析:区分感知优势(他们的市场营销所说的)与实际优势(客户在评测中确认的),并识别优势与细分市场的交互
- 异议处理话术生成:为销售代表最常遇到的前5到8个竞争异议产出具体、实用的应对方案,包含重构框架、回应、证据和跟进问题
- 对战卡时效维护:对每个情报数据点标注来源和日期时间戳,当关键板块超过可配置时效窗口未更新时发出提醒
量化结果与受益角色
可量化的结果
- 对战卡创建时间:每个竞争对手从8到12小时缩短至使用COCO的2到3小时
- 对战卡时效维护:季度更新时间从每个竞争对手4小时降至1小时以内
- 销售代表在竞争场景中的信心:使用现行、针对异议的对战卡后自报信心提升40%
- 竞争性商机赢率:团队在对战卡刷新后,面对面竞争情形的赢率提升10%到18%
- 异议处理准确率:使用正确异议处理方式的销售代表比例从45%提升至78%
- 从竞争情报信号到对战卡更新的时间:从4到6周缩短至1周以内
受益角色
- 产品经理:以足够深度理解竞争格局,从而指导路线图优先级排序
- 产品市场经理:在没有专职竞争情报团队的情况下,规模化生产和维护竞争材料
- 销售代表:带着当前的、具体的、异议就绪的信息进入竞争商机,而非过时的功能对比
- 销售管理层:在销售团队中保持一致的竞争叙事,而非同一竞争对手有六个不同的处理版本
实用提示词
提示词1:完整竞争对手对战卡生成
我需要为我们的[产品名称]对比[竞争对手名称]构建一份全面的销售对战卡。
我们的产品背景:
- 我们做什么:[描述我们的产品和主要价值主张]
- 我们的核心差异化优势:[我们认为最强的优势是什么]
- 我们的定价:[描述定价模式和大致范围]
- 我们的目标客户:[ICP描述]
我提供的竞争情报:
1. 他们的产品概述:[粘贴他们的官网/产品页面描述或你的总结]
2. 他们的定价:[你了解到的定价情况]
3. 客户评测(G2/Capterra摘录):[粘贴5到10条代表性评测]
4. 赢/输记录:[描述我们与他们的赢/输商机——关键原因说明]
5. 销售团队一线观察:[你的销售代表在竞争商机中听到的任何内容]
6. 近期产品更新(他们的):[你知道的任何近期功能或变更]
请生成包含以下内容的对战卡:
1. 竞争对手概述:他们是谁、目标客户是谁、核心定位
2. 功能正面对比(我们的优势、他们的优势、双方的差距)
3. 我们前3大竞争优势及支撑证据
4. 他们前3大优势——以及如何应对
5. 前5个异议处理话术
6. 商机指导:我们赢的情况、我们输的情况、警示信号
7. 定价比较和总拥有成本框架20. AI功能开关治理顾问
掌控功能开关的无序扩张——识别陈旧开关,评估清理风险,生成上线或退役计划。
痛点与解决方案
痛点:功能开关逐渐积累,成为拖累工程速度的隐性税
功能开关解决了一个真实的问题:它们将部署与发布解耦,让团队能够持续发布代码,同时控制功能对用户的可见时机。问题在于六个月后会发生什么。大多数工程组织没有正式流程来在功能完全上线后退役开关。开关持续积累——起初缓慢,随后突然爆发——直到代码库中存在数百个处于不同状态的活跃开关:完全上线但从未清理、卡在部分上线状态的原因无人记得、为某个已结束但从未关闭的实验创建的。
技术债务是具体的。每个活跃开关都代表代码中必须维护、测试和推理的一个分支。拥有200个活跃功能开关的代码库,有200个潜在的"为什么这个用户的行为不同?"混乱来源。当开关状态组合在系统中成倍增加时,测试覆盖率变得组合式复杂。新工程师在能自信地做出变更之前,要花数小时理解哪些开关影响哪些行为。认知负担不断叠加,直到开关管理成为每次工程复盘中的常规议题,但从未真正得到解决。
治理缺口也带来风险。控制安全功能、定价级别或访问控制的开关本应完全启用,却停在95%上线状态,最后5%从未完成,因为创建该开关的产品经理已离职,无人了解为何暂停。控制已废弃代码路径的开关,在旧实现早该移除之后仍让其留在生产环境中。每个陈旧开关都是等待变成事故的隐藏责任。
COCO如何解决
开关库存审计与老化分析:COCO建立权威的开关注册表:
- 从你的功能开关平台(LaunchDarkly、Unleash、Flagsmith、自研)获取开关数据
- 按类型对每个开关分类:发布开关、实验开关、运营开关、权限开关、熔断开关
- 计算开关年龄、最后修改日期、当前上线百分比和创建者
- 识别没有关联Jira/Linear工单、没有负责人或负责人已离职的开关
- 生成按陈旧程度、风险和清理复杂度排序的优先级清理待办列表
陈旧开关检测与风险评估:COCO区分安全清理与高风险移除:
- 已在100%上线状态超过[X]天且未移除代码的开关为清理候选
- 已在0%上线状态超过[X]天且不是活跃实验的开关为退役候选
- 根据开关控制的内容评估每个开关的风险(UI文案vs.核心数据处理vs.访问控制)
- 识别默认值在移除后若评估错误会造成损害的开关
- 为每个清理行动生成风险等级(低/中/高),附理由
上线完成度分析:COCO识别卡在部分上线状态的开关:
- 查找在过去[X]周内未发生变化的部分上线(1至99%)开关
- 调查部分上线是否为有意为之(渐进上线进行中)还是已放弃
- 对于已放弃的部分上线:识别需要什么数据或事件才能推进,以及该数据是否存在
- 生成上线完成建议,附应触发完全发布的监控标准
- 起草上线决策供产品和工程审查
代码移除指导:COCO帮助工程师清理实现:
- 识别每个开关退役时应保留(默认值优先)和移除的代码分支
- 为每个开关退役生成结构化的代码移除清单
- 标记开关评估结果持久化存储在数据库或日志中的位置(同样需要清理)
- 识别引用开关的测试用例(需要更新或移除)
- 估算每个清理行动的工程工作量,支持冲刺规划
治理政策生成:COCO建立可持续的流程:
- 起草功能开关生命周期政策:创建标准、必填字段、到期日期要求
- 为每种开关类型定义退役标准,设定客观门槛
- 创建与团队结构绑定的开关所有权分配模型
- 生成持续保持开关注册表整洁的定期审计流程
- 生成用于持续开关健康监控的仪表板规格
实验开关事后分析支持:COCO完成实验闭环:
- 识别A/B测试已结束但获胜变体未完全发布的实验开关
- 提取实验元数据,生成预填充了开关数据的事后分析报告模板
- 标记没有关联分析事件的实验——表明实验从未被正确埋点
- 识别将相关实验发现整合为单一上线决策的机会
量化结果与受益角色
可量化的成果
- 开关清理速度:使用结构化清理项目的工程团队在第一季度将活跃开关数量减少30至50%
- 事故减少:通过系统性监控,陈旧开关事故(遗忘开关导致的意外行为)减少60至80%
- 入职时间:随着代码库因开关扩张带来的复杂性降低,新工程师的上手效率得到改善
- 测试覆盖率:测试套件复杂度与开关退役成正比降低——团队报告大型清理周期后测试执行时间减少15至25%
- 代码移除完成率:与冲刺级别规划配合时,已识别清理行动的完成率达85至95%,相比之下非结构化待办列表只有20至30%
受益人群
- 产品经理:了解生产中功能的完整状态,就完成停滞上线做出明智决策
- 工程负责人:用数据驱动的清理待办列表主动管理技术债务,而不是被动救火
- 平台和开发体验团队:建立防止开关扩张再次发生的治理标准
- 工程总监:将代码库健康状况作为工程质量的具体指标进行衡量和报告
实用提示词
提示词1:功能开关审计
审计以下功能开关库存并识别清理优先项。
开关数据:
[粘贴或描述:开关键名、开关类型、创建日期、最后修改日期、当前上线%、负责人、关联工单/功能、描述]
我们的开关平台:[LaunchDarkly/Unleash/Flagsmith/自研]
团队规模:[工程师人数]
清理标准:
- 陈旧定义:在100%上线状态超过[X]天且未移除代码
- 陈旧定义:在0%上线状态超过[X]天且无活跃实验
- 孤儿定义:无活跃负责人或关联工单
请生成:
1. 开关库存摘要:按类型和状态统计的开关总数
2. 清理候选:符合陈旧或孤儿标准的开关——按优先级排序
3. 每个清理行动的风险等级(低/中/高)及理由
4. 推荐的第一个冲刺的清理工作(估算工程工时在[X]小时以内)
5. 看似卡在部分上线状态的开关——每个的摘要及建议的下一步行动提示词2:上线决策支持
帮我为以下一直处于部分上线状态的功能开关做出上线决策。
开关详情:
- 开关键名:[名称]
- 功能描述:[该开关控制什么?]
- 当前上线:[X]%
- 处于当前上线状态的时间:[X周/月]
- 上线暂停的原因(如已知):[描述]
可用于上线决策的数据:
- 启用组与禁用组的错误率:[粘贴或描述]
- 性能指标:[粘贴或描述]
- 启用用户群的用户反馈:[粘贴或描述]
- 业务指标(如适用):[转化、参与度、收入影响]
- 启用体验中的任何已开放问题或缺陷:[列表]
请提供:
1. 上线建议:完成上线/暂停/回滚——附理由
2. 如完成上线:建议的时间线和上线过程中的监控检查点
3. 如暂停:继续推进前需要什么具体数据或修复?
4. 如回滚:影响是什么,应如何沟通?
5. 完全上线的成功标准——哪些指标确认功能按预期运行?提示词3:功能开关治理政策
为我们的工程组织起草功能开关治理政策。
背景:
- 团队规模:[X]名工程师
- 当前开关平台:[平台名称]
- 当前开关数量:[数量]
- 主要需要解决的问题:[开关扩张/孤儿开关/无退役流程/使用不一致]
- 希望保留的现有流程:[描述]
政策应涵盖:
1. 开关创建标准:必填字段、命名规范、强制到期日期
2. 开关类型定义及各类型的适用场景(发布/实验/运营/权限/熔断)
3. 所有权规则:谁对每个开关负责,以及这意味着什么
4. 按开关类型区分的退役标准:触发清理的客观门槛
5. 审计流程:频率、执行者、产出
6. 升级机制:孤儿开关如何处理,谁有权做出移除决定
格式:可在我们的工程手册中发布,包含章节标题和清晰、可操作的语言。21. AI客户发现访谈分析器
在2小时内将20小时的客户发现录音转化为结构化洞察简报。
痛点与解决方案
痛点:客户发现访谈产生丰富的定性数据,但几乎从未被适当综合
客户发现是优秀产品决策的基础。团队知道应该做。大多数团队也确实进行访谈——至少在产品启动和重大路线图周期时。问题在于录音结束后会发生什么。一次运营良好的发现冲刺会产生15至25小时的录制访谈,每次都包含细微的客户语言、未言明的工作流痛苦,以及只有在其他访谈背景下才有意义的洞察片段。将这些材料综合成可执行的产品方向,需要分析严谨性和定性规律识别的特定组合,而大多数团队根本没有带宽来应用。
在实践中,访谈以两种不充分的方式被总结。要么有人逐一整理每次访谈的笔记(保留了个别对话的结构,但错过了跨访谈的规律),要么产品经理从记忆和非正式笔记中综合(速度快但容易出现确认偏见和遗漏)。大多数发现项目的研究产出不够严格,无法经受住干系人提问的检验:"有多少客户这样说?"或"有客户表达了相反的意见吗?"没有这种严谨性,建立在发现基础上的产品决策就容易受到挑战。
成本超越了即时的冲刺。当发现没有被综合成持久可搜索的产出时,洞察会衰减。六个月后,当功能正在规格化、原始访谈者已经离职时,就没有办法回顾客户实际说过什么。组织不断重新发现相同的问题,而不是在以往的学习上构建。
COCO如何解决
访谈文字稿摄取与结构化:COCO大规模处理原始访谈材料:
- 跨所有发现访谈摄取访谈文字稿、笔记和录音摘要
- 识别并分段文字稿中每个独立的问答交流
- 为每个片段标注相关的产品领域、待完成工作或问题类别
- 提取捕捉最富洞察时刻的原话引用
- 将每个洞察关联至特定的客户背景(角色、公司规模、使用场景、细分市场)
跨访谈规律综合:COCO浮现跨多次对话出现的内容:
- 识别跨多次访谈出现的主题,按频率和强调程度加权
- 区分广泛共享的问题(70%以上受访者提及)与特定细分市场的问题
- 检测矛盾——客户表达了相互冲突的需求或优先级的领域
- 基于语言分析映射痛点的情感强度
- 将相关洞察归入连贯的问题群,附支撑引用证据
待完成工作框架应用:COCO围绕客户试图完成的事情构建洞察:
- 识别客户试图完成的功能性、情感性和社交性工作
- 映射客户已形成的当前变通方案,揭示你的产品需要填补的缺口
- 区分雇佣标准(客户评估解决方案时使用的标准)与工作本身
- 识别工作失败或变得痛苦的挣扎时刻
- 构建适合纳入产品简报和PRD的待完成工作陈述
细分差异化分析:COCO识别哪些洞察适用于哪些客户:
- 跨细分市场(公司规模、角色、行业、使用场景)比较问题频率和强度
- 识别具有截然不同需求的细分市场,应将其视为独立的产品人设
- 标记同一表面问题在不同细分市场有不同根本原因的情况
- 突出表达最强烈痛点的客户细分市场——解决方案的主要目标
- 为人设开发生成特定细分市场的洞察摘要
基于证据的优先级支持:COCO将发现与决策连接:
- 量化提及每个问题领域的客户数量(含细分市场细分)
- 按频率、强度和与公司战略优先级的契合度对问题领域排名
- 识别"必须拥有"门槛:非解决会阻碍采用的问题
- 生成比较问题重要性与当前解决方案满意度的优先级矩阵
- 为每个潜在产品方向生成证据包——引用、频率和客户背景
洞察简报生成:COCO产出可发布的研究产出:
- 生成结构化发现简报:目标、方法、参与者、主要洞察和建议
- 为内部受众(工程、设计、领导层)格式化简报,提供适当的细节层级
- 创建按主题组织的引用库,供宣讲材料和PRD使用
- 生成后续研究议程,识别当前发现未回答的问题
- 生成摘要幻灯片结构,用于在团队会议中分享发现成果
量化结果与受益角色
可量化的成果
- 综合时间:20小时访谈材料在2小时内综合成可发布简报,相比手动处理需要15至20小时
- 规律检测:AI辅助综合比手动综合多识别40%的跨访谈规律,尤其是细微矛盾和少数细分市场
- 洞察持久性:结构化、可搜索的产出意味着洞察在研究12个月以上后仍可访问和使用
- 干系人信心:有原话引用支撑的基于证据的洞察简报,将干系人对产品方向的质疑减少50至60%
- 发现到决策周期:从完成访谈到可执行产品方向的时间从3至4周缩短至1周以内
受益人群
- 产品经理:将时间花在综合判断和决策上,而不是笔记整理和引用搜索
- 用户研究员:通过产出更严谨、更全面的综合结果,放大定性研究的影响
- 设计团队:访问结构化客户语言和待完成工作框架,为设计决策提供依据
- 产品领导层:以能经受干系人审查的证据包建立路线图信心
实用提示词
提示词1:多访谈主题综合
综合以下客户发现访谈并识别主要主题和规律。
访谈背景:
- 研究问题:[你试图了解什么?]
- 参与者画像:[角色、公司规模、行业——描述目标细分市场]
- 访谈数量:[X]
- 访谈格式:[结构化/半结构化/问题发现/解决方案验证]
访谈文字稿或笔记:
[在此粘贴所有访谈文字稿、笔记或摘要——依次排列,标注访谈1、访谈2等]
请提供:
1. 按跨访谈频率排名的前5至7个主题——附提及每个主题的参与者数量
2. 对于每个主题:3条最能体现客户问题表达的原话引用
3. 值得注意的矛盾或张力——客户表达了相互冲突看法的领域
4. 细分差异——是否有主题出现在某个细分市场而不出现在其他细分市场?
5. 相对于研究假设令你感到意外的洞察
6. 该研究支持的前3个产品方向建议,附证据强度评级提示词2:待完成工作提取
从以下客户访谈数据中提取待完成工作,并将其结构化以供产品规划使用。
客户背景:
- 角色:[职位/被访谈者描述]
- 领域:[他们在哪个行业/职能工作?]
- 当前解决方案:[他们目前为这项工作使用什么工具/流程?]
描述其工作流和痛苦的访谈摘录:
[粘贴文字稿中聚焦于他们试图完成的事情和挣扎点的相关摘录]
请识别:
1. 功能性工作:客户试图完成什么?(使用"动词+宾语+背景"格式)
2. 情感性工作:在完成这项工作的过程中和之后,他们希望有怎样的感受?
3. 社交性工作:他们希望在与这项工作相关的事情上被他人如何看待?
4. 当前变通方案:他们为推进这项工作构建了哪些变通手段、手动步骤或工具组合?
5. 挣扎时刻:当前方法在何时崩溃或变得最痛苦?
6. 雇佣标准:根据他们的语言,什么会让他们"雇佣"这项工作的新解决方案?提示词3:发现简报生成
根据以下综合研究发现生成客户发现简报。
研究元数据:
- 产品领域:[被调查的功能/问题空间]
- 研究周期:[日期范围]
- 参与者数量:[X]
- 参与者细分:[按细分市场、角色或相关特征]
- 研究方法:[访谈/情境调研/日记研究/组合]
关键发现(粘贴你综合的主题、引用和观察):
[在此插入发现]
已识别的产品方向建议(如有):
[描述]
该研究未回答的待解问题:
[列表]
请生成包含以下内容的发现简报:
1. 研究概述:目标、方法、参与者画像(1页)
2. 关键洞察部分:前5个洞察,附支撑证据和原话引用
3. 待完成工作摘要:客户语言中的主要工作和失败模式
4. 细分差异:不同客户类型的发现有何不同?
5. 产品影响:我们应该构建什么、改变什么或进一步调查什么?
6. 置信度评估:哪些发现有强证据支撑,哪些需要验证?
7. 下一步:建议的后续研究或验证活动22. AI实验速度追踪器
准确掌握你正在运行多少个实验、什么在阻碍吞吐量,以及这对决策速度意味着什么代价。
痛点与解决方案
痛点:实验项目以结果衡量,却从不衡量决定可产生多少结果的流程瓶颈
实验是一个数字游戏。一个产品组织每季度运行的高质量实验越多,复利学习循环就越快,路线图决策的信心就越强。然而大多数"致力于实验"的组织实际运行的实验远比他们认为的要少——而且不知道为什么。他们衡量实验胜率和获胜测试的收入提升,但从不衡量实验周期时间、实验放弃率或在各流程环节花费时间的分布。结果是,一个本应每季度产生20个有意义实验的项目实际上只产生8个,没有人在领导层理解为什么增长比预期慢。
瓶颈是真实而多样的。有些实验需要两周的埋点工作,但在工程积压中等待六周才能开始埋点。有些正确埋点但上线时样本量不足,无法在规定运行时间内达到统计显著性,产生消耗整个冲刺分析时间的无结论结果。有些实验无结论是因为假设太模糊,无法定义清晰的主要指标。有些设计良好、执行恰当,但用错误的统计方法进行分析,产生不可复制的表面"胜利"。这些失败模式中的每一个都要消耗一个完整的实验周期——通常是2至6周——而无任何决策价值。
没有对实验在哪里失败以及为什么失败的系统性视图,产品组织就会优化错误的事情。当瓶颈是工程埋点产能时却招募更多实验员。当真正的问题是假设能量不足时却延长实验运行时间。当失败模式是实验后分析严谨性时却添加事前复盘。项目表面改善,却没有解决吞吐量的结构性制约。
COCO如何解决
实验流程可见性:COCO建立进行中实验的完整视图:
- 跨所有阶段(待办、设计、工程、上线、分析、决策)追踪每个实验从假设到决策的过程
- 计算每个实验在每个阶段花费的时间以及整个组合的情况
- 识别当前阶段分布:现在有多少实验在哪里卡住了
- 标记在单个阶段停留时间超过预期阶段时长的实验
- 产出显示吞吐量、瓶颈和老化情况的实时流程仪表板
周期时间分析:COCO衡量实际花费时间在哪里:
- 计算已完成实验从假设到决策的端到端周期时间
- 将周期时间分解为组成部分:设计、工程、运行时间、分析、决策
- 识别本季度的主要瓶颈在哪个阶段
- 跨实验类型(UI、算法、文案、定价)比较周期时间,识别特定类别的延误
- 将周期时间与前期进行基准比对,并与实验成熟度的行业规范进行比较
统计质量审计:COCO在浪费一个冲刺之前捕获方法论问题:
- 审查实验设计的样本量充分性:实验在计划运行时间内是否有足够的统计功效?
- 标记有多个主要指标的实验(增加假阳性风险)
- 识别对照组和处理组人群可能未被适当随机化的实验
- 审查早期结果中的偷窥偏差,并在团队考虑提前停止时发出警报
- 审计已完成实验分析中的常见错误(多重检验、未经修正的细分挖掘)
放弃和无结论率分析:COCO量化浪费:
- 追踪已启动但从未上线、已上线但从未分析、已分析但从未行动的实验
- 计算无结论实验率并分析根本原因分布(功效不足、假设模糊、埋点失败、运行时间被缩短)
- 估算放弃和无结论实验浪费的决策工时
- 识别放弃规律——某些团队、实验类型或季度有更高的放弃率
- 生成通过上游流程改善降低放弃率的建议
实验假设质量评分:COCO在假设消耗资源之前进行评估:
- 根据质量标准评估提交的假设:具体、可衡量、可证伪、关联用户洞察
- 识别成功指标模糊或难以干净衡量的假设
- 标记预期效应量不切实际地大(过于自信)或太小以至于达到显著性需要不切实际样本量的假设
- 建议改进以提高假设质量,在工程工作开始之前
- 建立假设质量分数趋势,以评估团队实验能力随时间的变化
吞吐量预测和产能规划:COCO将实验产出与路线图速度关联:
- 根据当前流程和周期时间预测下一[季度]将完成多少实验
- 建模解决特定瓶颈的吞吐量影响(例如"修复工程滞后将每季度增加6个实验")
- 生成达到目标吞吐量水平的人员和工具建议
- 创建与产品路线图对齐的季度实验产能计划
量化结果与受益角色
可量化的成果
- 实验吞吐量提升:解决已测量瓶颈的组织通常在两个周期内实现每季度多40至70%的实验
- 无结论率降低:系统性假设质量审查和功效分析将无结论实验率从典型的35至45%降至20%以下
- 周期时间缩短:识别和解决主要流程瓶颈将平均周期时间减少20至35%
- 放弃率:当实验以所有权和老化提醒进行追踪时,从典型的15至25%降至8%以下
- 决策速度:有实验证据支撑的路线图决策在每个周期早2至4周到达,一年内复利效果是显著更快的产品迭代
受益人群
- 产品经理:了解进行中实验的实际状态,就数据何时可用做出可靠承诺
- 数据科学家和分析师:识别哪些统计质量问题最普遍,系统性而非逐案解决
- 工程负责人:看到实验工程工作在哪里受阻,在最能解除最多吞吐量的地方分配埋点产能
- 产品负责人:用具体的吞吐量和质量指标衡量和提升实验项目成熟度
实用提示词
提示词1:实验流程审查
审查我们当前的实验流程并识别瓶颈和优先行动。
实验流程数据:
[粘贴:实验名称、假设、当前阶段(待办/设计/工程/上线/分析/决策)、进入当前阶段的日期、负责人、计划上线日期、计划结束日期、状态/备注]
预期阶段时长(我们的目标):
- 设计:[X]天
- 工程:[X]天
- 上线(运行时间):[X]天
- 分析:[X]天
- 决策:[X]天
请提供:
1. 流程摘要:每个阶段有多少实验,有多少超过了预期时长
2. 瓶颈识别:哪个阶段持有最多实验,持续多长时间?
3. 风险实验:哪些实验最有可能错过计划决策日期?
4. 立即行动:本周需要解除哪5件事,含负责人和具体请求
5. 吞吐量预测:根据当前流程,本季度将完成多少实验?提示词2:实验假设质量审查
在工程工作开始之前审查以下实验假设并提供质量反馈。
对于每个假设,评估:
1. 清晰度:假设是否足够具体,能定义明确的成功/失败结果?
2. 可衡量性:是否有可以干净衡量的已定义主要指标?
3. 样本量可行性:鉴于我们在这个界面上的典型实验人群[X用户/天],我们能否在[X]天内以合理的效应量达到显著性?
4. 多重检验风险:是否有多个都可以被称为"主要指标"的指标?
5. 总体质量评级:可以推进/需要优化/建议重新设计
需审查的假设:
[粘贴每个假设,包含:被测试的功能/变更、被解决的用户问题、拟议主要指标、预期效应量(如已知)、计划运行时间]
对于每个需要优化的假设,提供在上线前改进质量的具体建议。提示词3:季度实验项目复盘
根据以下数据生成季度实验项目复盘。
季度:[20XX年第X季度]
实验结果:
- 完成的实验总数:[X]
- 结果:胜[X]、负[X]、无结论[X]、放弃[X]
- 平均周期时间:[X]天(如有,按阶段细分)
- 胜率:[X]%
值得关注的实验:
[描述3至5个有重大结果的实验——影响、学习、做出的决策]
本季度已知流程问题:
[列出影响实验质量或吞吐量的任何流程问题]
下一季度目标:
- 吞吐量目标:[X]个实验
- 周期时间目标:[X]天
- 无结论率目标:低于[X]%
请生成:
1. 季度摘要:吞吐量、质量和实验驱动的关键决策
2. 做得好的地方——需要保留和强化的流程要素
3. 前3个瓶颈及根本原因——附具体改进建议
4. 实验质量分析:胜/负/无结论结果的规律
5. 下一季度计划:具体流程变更、吞吐量目标和衡量标准23. AI激活漏斗优化器
准确找出新用户在体验产品核心价值前流失的位置——并生成干预策略手册。
痛点与解决方案
痛点:激活是增长漏斗中泄漏最严重的部分,也是最难在没有深度分析的情况下诊断的
激活——新用户体验到促使他们注册的核心价值的时刻——是用户生命周期中最关键的事件。完成激活的用户的付费转化率是未激活用户的3至5倍。他们的30天和90天留存率明显更高。他们推荐其他用户。他们扩大使用。做好激活会在整个业务模型中产生复利效应。
然而激活分析出了名地困难。与获客(由单一转化事件衡量)或留存(由回访衡量)不同,激活需要定义"体验到价值"对你的产品意味着什么——这个定义很少是显而易见的。即使定义了激活事件,理解为什么用户在到达它之前流失也需要跨多个会话连接行为数据、将流失点与用户属性关联、以及区分因可修复产品原因流失的用户和无论如何都不会激活的用户。
大多数产品团队拥有显示总体激活率和每步流失的漏斗的激活仪表板。他们没有的是:了解哪些特定用户群体未能激活、在旅程中的哪个点流失、激活前数小时内是什么行为将已激活用户与未激活用户区分开来,以及哪些产品干预(引导变更、产品内指导、邮件序列、支持触发器)对每个流失细分市场的激活率会有最高的边际影响。
COCO如何解决
激活事件定义与验证:COCO确保你在衡量正确的事情:
- 分析行为数据,识别哪些早期行为对长期留存最具预测力
- 根据30天和90天留存结果测试候选激活事件,找到最强信号
- 识别"虚假激活"陷阱——看起来像激活但不能预测留存的事件
- 提出有统计支撑的精炼激活事件定义
- 验证激活指标跨平台可衡量且持续追踪
漏斗细分分析:COCO显示哪些用户在哪里失败:
- 按获客渠道、注册群体、计划类型和ICP属性对激活漏斗绩效进行细分
- 识别激活率显著高于或低于整体率的细分市场
- 精确定位每个表现不佳细分市场最高流失的具体漏斗步骤
- 计算将细分市场激活率与最高表现细分市场拉平的收入影响
- 按收入机会和干预可行性优先排列细分市场
行为路径分析:COCO发现激活用户做了什么不同的事:
- 比较激活用户与未激活用户在前[24/48/72]小时的行为路径
- 识别激活用户显著更频繁参与的行为——潜在的领先指标
- 找到激活用户绕过而未激活用户卡在其中的行为(摩擦点)
- 计算完成激活的用户的首次关键行动时间,识别最佳干预窗口
- 发现"激活捷径"——比预期引导流程更快导向激活的替代路径
流失根因分类:COCO对用户流失原因进行分类:
- 将流失原因分类为:产品摩擦、价值发现失败、使用场景不匹配、外部干扰
- 识别与特定UI事件(错误消息、空状态、令人困惑的UI模式)相关的流失
- 标记暗示外部干扰与产品问题的一天中时间和会话时长规律
- 将流失点与支持联系主题关联,识别困惑驱动的放弃
- 区分可恢复流失(可以重新激活的用户)和最终退出
干预建议引擎:COCO生成激活改善策略手册:
- 为每个流失点推荐具体的产品变更、引导修改和产品内指导补充
- 按每工程周投入的估计激活率影响优先排列干预措施
- 为在每个阶段流失的用户生成邮件和产品内消息序列
- 设计重新激活触发器:何时发送、说什么、提示什么行动
- 创建激活干预的测试路线图,按预期影响和信心排序
持续激活健康监控:COCO维持持续可见性:
- 按群体、渠道和细分市场滚动追踪激活率
- 当特定获客渠道或注册群体的激活率显著下降时发出警报
- 通过统计显著性检验衡量引导变更对激活率的影响
- 为产品和增长团队审查生成每周激活报告
量化结果与受益角色
可量化的成果
- 激活率提升:实施数据驱动激活干预的组织通常在两个季度内实现15至35%的激活率改善
- 激活时间:识别和消除摩擦将中位激活时间减少20至40%,增加在失去兴趣前完成激活的用户比例
- 收入影响:激活率每提升一个百分点都在整个漏斗中产生复利——对于1000万美元ARR的业务,激活率提升10个百分点通常转化为80万至150万美元的增量ARR
- 引导实验成功率:针对特定数据识别流失点的实验,成功率是通用引导改善的2至3倍
- 支持量减少:解决激活摩擦点将新用户支持联系减少25至40%
受益人群
- 产品经理:从总体激活率转向可以在下一个冲刺中解决的具体、可执行的流失点
- 增长团队:基于用户确切流失的地方建立有针对性的重新激活序列——而不是通用的"我们想念你"活动
- UX设计师:将可用性研究集中在流失率最高的具体步骤,而不是审查整个引导体验
- 营收领导:量化激活改善的ARR影响,以证明对引导和产品体验的投入合理
实用提示词
提示词1:激活漏斗流失分析
分析我们的新用户激活漏斗并识别需要优先解决的最高优先级流失点。
漏斗数据:
[粘贴:步骤名称、进入用户数、完成用户数、流失%,激活漏斗中的每个步骤]
可用细分:
- 获客渠道:[列出有逐步数据的渠道(如有)]
- 用户计划/级别:[列表]
- 注册群体:[周度或月度群体]
- 用户角色或ICP属性:[如有列表]
背景:
- 定义的激活事件:[对你的产品而言"激活"意味着什么?]
- 当前整体激活率:[X]%
- 目标激活率:[X]%
- 完成激活的用户的典型激活时间:[X小时/天]
请提供:
1. 按量和收入影响排名的前3个流失点
2. 细分比较:哪些获客渠道或用户类型在每个步骤的激活率最差?
3. 收入机会:关闭最差与最佳表现细分市场之间差距的估计ARR影响
4. 流失分类:对于每个主要流失点,这可能是摩擦、价值发现失败还是使用场景不匹配?
5. 针对前3个流失点的建议干预——含干预类型、预期影响和实施复杂度提示词2:激活用户与未激活用户行为比较
比较激活用户与未激活用户在前[48/72]小时的行为规律,识别激活的领先指标。
行为数据:
[粘贴或描述:事件名称、激活用户频率、未激活用户频率,或描述你拥有的数据]
群体定义:
- 激活用户:[如何定义——在Y天内完成X事件]
- 未激活用户:[在同一群体中注册,未在Y天内激活]
- 群体规模:激活[X],未激活[X]
- 分析的时间窗口:注册后前[X]小时
请识别:
1. 激活用户显著更可能参与的前5种行为——潜在的激活领先指标
2. 未激活用户卡在其中而激活用户快速跳过或完成的前3个摩擦点
3. 首次关键行动时间:激活用户到达每个关键步骤的速度与未激活用户相比如何?
4. "激活捷径":是否有比主要引导流程更快导向激活的替代路径?
5. 重新激活窗口:注册后[X]小时,未激活用户的激活概率降至[X]%以下是什么时候?
6. 推荐触发器:什么用户行为应触发干预,该干预应该是什么?提示词3:激活干预优先级排列
帮我为下一季度排列激活改善待办列表的优先级。
拟议干预措施:
[列出每个拟议干预措施,包含:描述、目标流失点、估计激活率影响(如已知)、实施工作量(S/M/L)、估计置信度(低/中/高)]
约束条件:
- 可用于激活工作的工程带宽:[X]工程周
- 设计带宽:[X]设计师周
- 可同时运行而不相互干扰的实验数:[X]
- 必须拥有vs.锦上添花约束:[列出任何不可协商的项目]
业务背景:
- 当前激活率:[X]%
- 每激活率百分点的收入影响:$[X] ARR
- 季度目标:[X]%激活率
请提供:
1. 优先排列的干预列表:按每工程周投入的预期影响排名
2. 推荐的冲刺分配:第1至4周、第5至8周和第9至12周应处理什么
3. 实验排序:哪些干预应首先测试以产生指导后续决策的学习?
4. 快速成效:无论排名如何都应首先进行的高置信度低工作量干预
5. 应推迟的内容:置信度低或被依赖项阻塞的干预——推迟到何时及原因
