少数派-AI 04月22日 11:43
用 AI 秘书治好了我的「数字仓鼠症」——如何让 AI 劝自己阅读
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文分享了一个利用 Notion、Coze 和 AI 构建的自动化工作流,用于整理和总结稍后读文章。通过该工作流,AI 定期扫描 Notion 待读数据库,提取文章信息,并生成一份包含文章核心论点、关键信息、阅读难度和价值评估的定制化阅读报告,从而帮助用户更高效地管理和利用稍后读文章,减轻“待读焦虑”,提升阅读效率。

💡 建立 Notion 待读数据库,设置文章标题、链接、创建时间及归档状态等属性,方便文章管理和筛选。

⚙️ 通过 Coze 代码节点调用 Notion API,获取未归档的文章链接,实现自动化数据抓取。

🤖 利用 AI 模型阅读并分析文章,提炼核心观点、亮点、价值和阅读难度,生成结构化的文章摘要。

📧 借助 Coze 邮件插件,将 AI 生成的 HTML 阅读报告定时发送至邮箱,方便用户查阅和决策。

Matrix 首页推荐 

Matrix 是少数派的写作社区,我们主张分享真实的产品体验,有实用价值的经验与思考。我们会不定期挑选 Matrix 最优质的文章,展示来自用户的最真实的体验和观点。 
文章代表作者个人观点,少数派仅对标题和排版略作修改。

我做了一个工作流,能够让 AI「看到」我的稍后读文章列表,并定时帮我总结还没读的文章 「欠账」 发送到邮箱。

把所有想看的文章都收入「稍后读」,这两年已经成了我的一个习惯,相信也是很多人常用的一种输入知识管理办法。特别是今年,我把个人笔记系统转移到 Notion,并分成了待读 - 笔记 - 工具 - 生产四大模块。待读区主要存放我收集的一些稍后读的文章,经过持之以恒的累积和使用之后。我发现,稍后读这个功能其实还可以叫作「忘了读」。有时候过去一两周了,打开笔记本看到一篇文章我都是一脸懵逼:「你是谁?」。而堆积如山的待读文章又让人有一种买书如山倒,看书如抽丝的绝望感。

这种 「数字仓鼠」 般的囤积,不仅未能有效转化为知识增量,反而带来了隐性的认知负担。我开始思考:能否借助 AI 的力量,为我梳理这份阅读欠账,扮演一位既懂我心、又善引导的私人阅读秘书?我并非意图让 AI 代我阅读、替我思考——那无疑是对优质文章的不尊重。我的目标是,让 AI 每周为我检视待读列表,它给出的待读报告应该能让我快速评估这篇文章是否值得一读,难易度如何,亮点在哪里,能收获什么?并以一种引人入胜的方式,重新点燃我的阅读兴趣

幸运的是,Notion 强大的开放性与 Coze 这类低代码平台的普及,为我这样的技术入门者提供了将想法付诸实践的可能。经过一番规划与实践,我构建了一套自动化工作流,让 AI 定期为我生成一份定制化的待读报告。

这个工作流如何运作?

我的知识管理体系分成四大模块,遵循着信息捕捉(待读)→ 知识内化(笔记)→ 工具沉淀(方法论)→ 价值创造(生产)的路径(如果有朋友感兴趣的话,请留言让我知道,我会写一篇文章专门介绍这个系统)。当我遇到值得细读的长文,如果当下没时间细看,或者觉得这篇文章适合在大屏幕上写读书笔记作深度阅读,就会把文章导入到 Notion 里。手机上的操作很方便,浏览器打开的文章可以直接分享给 Notion,原始链接和文章内容也会自动导入到笔记页面中。这样再次阅读这篇文章我只需要打开 Notion 就可以了,也方便了把这些文章转化为笔记心得乃至方法论工具。

在这个数据库中,每篇文章都有一个简单的 「归档」 复选框。当我完成阅读,只需轻轻一点,该文章便会从待读视图中隐去,代表我已经读完这篇文章了。

我的待读库截图

关键的自动化环节发生在每周日的上午十点。届时,我搭建的 AI 工作流会自动启动:

    检索:获取 Notion 待读数据库,找出所有尚未勾选「归档」 的文章。阅读与分析:AI 逐一访问这些文章链接,运用其阅读理解能力,提炼每篇文章的核心论点、关键信息、潜在收获以及大致的阅读难度生成报告:将所有文章的分析结果汇总,生成一份结构清晰、重点突出的 HTML 格式阅读报告。推送提醒:将这份报告通过邮件发送给我。

于是,每周日,我的邮箱会准时收到这样一份特殊的定制化「简报」:

这份报告并非简单的内容罗列,而是一份经过 AI 精心策展的阅读建议。它帮助我在每周结束前,快速回顾积压的待读项,依据 AI 提供的亮点提炼、价值评估和难度分级,高效判断哪些文章值得立即投入时间,哪些或许已失去时效或吸引力,可以直接归档。这不仅有效缓解了「待读焦虑」,也让我的阅读选择更为聚焦和高效。

通过 Coze 的可视化工作流编排,我以几乎零代码的方式实现了这个任务的自动化。当然使用其他的类似平台,或者直接全部使用代码完成这个也是可以的,逻辑是通的,具体实现方式可以因人而异。

怎么实现?

这套工作流的核心逻辑并不复杂,主要依赖 Notion API 和 Coze 平台的协同。首先要在 Notion 中建立一个待读数据库,并向其中存入待读文章。然后使用 Coze 的代码节点获取我的待读数据库,从代码返回的结果中提取每篇文章的链接,然后将文章链接输入给阅读 AI,让其调用链接读取工具阅读文章并生成总结,最后将每篇文章的总结发送给一个专门的总结 AI,让其进行总结并生成 HTML 格式的阅读报告,然后将阅读报告发送到 Coze 的邮箱插件中,发送给我的邮箱。最后将这个工作流绑定到一个专门的智能体中,这个智能体的唯一任务就是定时启动工作流发送报告。然后将智能体仅发布到飞书(这样是非公开发布,这个智能体只能自己调用),然后在飞书中用你发布的这个智能体设置好定时任务,这样就完成了整个流程的搭建。

以下是流程图:

如果你也对此感兴趣,以下是具体的实现步骤:

Notion 数据库的准备

首先,你需要在 Notion 中创建一个专门用于存放待读文章的数据库。

    创建数据库:在 Notion 页面中新建一个数据库(Database)。设计数据库结构:为其设定必要的属性(Properties)。我建议至少包含:
      文章标题(Title,默认)URL(URL 类型):存放文章原始链接。创建时间(Created Time,默认):记录收藏时间。归档(Checkbox 类型):此属性至关重要,用于标记文章是否已读。工作流将依据此字段筛选未读文章。你也可以将其命名为「已读」 或其他便于理解的名称。
    视图优化:利用 Notion 的 Filter 功能,创建一个默认视图,筛选出「归档」 属性未勾选的文章,方便日常查阅。

保持简洁是关键。Notion 功能虽多,但切忌舍本逐末,为追求形式而增加不必要的复杂度。

Notion API 的配置与代码接入

为了让 Coze 能够访问你的 Notion 数据库,需要进行 API 配置:

    创建内部集成 (Integration):访问 Notion 的 My Integrations 页面(或通过 设置 → 连接 → 开发或管理集成 进入),创建一个新的内部集成。务必妥善保管生成的内部集成密钥授权数据库访问:回到你的待读数据库页面,点击右上角的三个点 (...),选择「添加连接」(Add connections),找到并选择你刚刚创建的那个集成,授予其访问权限。获取数据库 ID (Database ID):在浏览器地址栏查看你的数据库链接,格式通常为https://www.Notion.so/your-workspace/DATABASE_ID?v=VIEW_ID。其中,DATABASE_ID 是位于 so/  和 ?v=  之间的一长串字符。复制并保存这个 ID

接下来,在 Coze 中创建一个新的工作流 (Workflow):

    添加代码节点 (Code Node):在工作流画布中添加一个代码节点。编写 / 粘贴代码:将以下 Python 代码粘贴到代码节点中。注意 Authorization":" 填入你的授权令牌 "database_id = "填入你的数据库 ID" 这两行要替换成你自己的密钥和数据库 ID。
import requests_async as requestsimport jsonasync def get_notion_data():    # 1. 先定义 headers(保持你原有的授权信息)    headers = {"Authorization": "填入你的授权令牌",        "Notion-Version": "2022-06-28"    }        # 2. 使用 query 接口获取数据库中的所有页面    database_id = "填入你的数据库 ID"    url = f"https://api.notion.com/v1/databases/{database_id}/query"        # 异步查询数据库中的页面    response = await requests.post(url, headers=headers)        # 3. 检查响应并提取归档和网址信息    if response.status_code == 200:        data = response.json()                # 提取所有页面的归档和网址信息        all_results = []        filtered_results = []        for page in data.get("results", []):            page_id = page.get("id")            properties = page.get("properties", {})                        # 获取标题(名称)            title = properties.get("名称", {}).get("title", [])            name = title[0].get("plain_text") if title else "无标题"                        # 获取归档状态            archived = properties.get("归档", {}).get("checkbox", False)                        # 获取网址            url = properties.get("网址", {}).get("url", None)                        item = {" 名称": name,                "归档": archived,                "网址": url            }                        all_results.append(item)                        # 只保留归档值为 False 的数据            if not archived:                filtered_results.append(item)                # 打印总记录数和筛选后的记录数        print(f" 共获取到 {len(all_results)} 条记录 ")        print(f" 筛选后剩余 {len(filtered_results)} 条未归档记录:")                # 打印筛选后的结果        for item in filtered_results:            print(f" 名称: {item[' 名称 ']}")            print(f" 归档: {'是' if item['归档'] else '否'}")            print(f" 网址: {item[' 网址 ']}")            print("-" * 40)                return filtered_results    else:        print(f" 请求失败: {response.status_code}")        print(response.text)        return []async def main(args: Args) -> Output:    # 获取已经过滤掉归档值为 True 的数据    filtered_results = await get_notion_data()        # 构建输出对象    ret = {"key": filtered_results}    return ret

配置代码节点输出:替换完成后,这个代码会访问你的数据库,完成数据获取,然后筛选出未被勾选为归档的文章,并将未读文章的链接输出成变量名为 key 的批处理数据,所以代码节点的输出变量名也要设置为 key,变量类型为 array,注意变量名你可以自己更改,但一定要保持一致,变量类型一定要是数组,否则后续的大模型节点无法使用批处理,会导致一系列的问题。

AI 节点与邮件节点的配置

    阅读 AI 节点 (LLM Node)
      添加一个大模型节点,负责阅读和分析文章。启用批处理 (Batch Processing):关键一步!将此节点的输入设置为代码节点输出的 key 变量,并开启批处理模式。这样,AI 会为列表中的每个 URL 单独执行一次分析,避免了单次调用处理过多链接可能导致的遗漏或截断。添加技能 (Tool/Plugin):为该节点添加 Coze 提供的网页/链接阅读能力 (如 Link Reader 或类似工具)。选择模型:大模型可以自己选择用哪种,我这里是用了 R1,尽可能让输出的报告丰富有深度。设定提示词 (Prompt):你可以自己设定提示词达到想要的效果,以下是我的作为参考:
# 角色你是一位专业且高效的阅读助理,擅长深度阅读各类文章并精准提炼亮点。你能够用简洁明了的语言,为用户提供有价值的文章分析与总结。## 技能### 技能 1: 处理并阅读文章链接1. 接收用户此前标记为待读但还没读的文章链接({{key0}})。2. 使用{LinkReaderPlugin}(就是链接读取插件)仔细阅读链接对应的文章内容,分别做出总结。### 技能 2: 生成文章分析1. 文章标题2. 为什么推荐你阅读:用一两句话阐述推荐用户阅读这篇文章的理由。3. 认知挑战度:标注需要的背景知识(入门 / 专业 / 专家)。4. 亮点提炼:找出文章中 3 - 5 个最吸引人的亮点,如新颖的观点、有趣的数据、独特的案例、精妙的论证等。每个亮点用一句话概括,并说明吸引你的理由。5. 潜在价值:阐述文章对你的启发,以及对工作或生活的潜在价值。6. 争议或不足:- 争议之处:指出文章中是否存在有争议的观点。- 不足之处:分析文章在论证、逻辑、数据等方面是否存在不足。## 限制:- 只围绕用户提供的文章链接进行分析和总结,拒绝回答与文章无关的话题。- 所输出的内容需条理清晰,严格按照给定的分析结构进行组织,不要输出无关信息。- 每个部分的回答应简洁明了,避免冗长复杂的表述。
    总结 AI 节点 (LLM Node)
      再添加一个大模型节点,负责汇总所有文章的分析结果,并生成最终的 HTML 报告。输入:此节点的输入应接收「阅读 AI」 节点的所有批处理输出结果。选择模型:总结 AI 的大模型也可以自行选择,我这里用的是豆包 1.5 Pro 256K,确保最后的总结报告不会因为字数太多而被截断。虽然排版的美观性和总结深度上逊色于于 R1 这种模型,但确保报告完整性是首要任务。牺牲少许「优雅」 换取「全面」,在此场景下是合理的权衡。设定提示词 (Prompt):同样你可以自己设定好提示词,指导 AI 将分散的分析结果整合成一份有序的 HTML 邮件报告。以下是我的提示词作为参考:
# 角色你是一位资深总编辑,负责根据本周阅读 AI 汇总的多篇文章总结信息,生成一份精美的推荐报告。你需要完整保留并展示所有阅读 AI 提供的信息:{{input}}。## 技能### 技能 1: 编辑与排版1. 按照整体报告逻辑和视觉美观要求,对所有文章进行重新排序与分组。2. 每篇文章信息展示时,用清晰的小标题或编号区分,每个部分采用条目列表格式,保证文本美观、层次分明,便于快速浏览。### 技能 2: 深刻洞见与推荐1. 针对整个报告,提炼全局性的洞见或跨领域的思考,例如讨论不同文章间如何形成互补、互相印证的观点,或对当前热门趋势、挑战与机遇给出深刻评论。### 技能 3: 生成报告1. 确保整篇报告中,阅读 AI 的各项总结信息都保留且忠实呈现,仅在上下文编辑、排序和视觉搭配上做优化,增强报告整体吸引力和逻辑性。2. 输出一份整洁、结构分明、富有视觉吸引力的 HTML 格式报告。可使用 HTML 标签(如 

    、、

    等)对内容进行排版,使报告阅读起来美观易读。3. 在报告开头加入整体总结和导读,对本周文章做出总体评价,并提出关键洞见或建议,让这份报告不仅是内容集合,更像专属周报或私人阅读秘书推荐。4. 保证每篇文章内容都以独立模块呈现(例如每篇文章一个

    块并配以合适标题)。## 限制:- 请注意严禁捏造数据和不存在的文献,你要严格遵守发送给你的信息。- 所输出的内容必须按照给定的格式和要求进行组织,不能偏离框架要求。- 注意只需要生成报告本身即可,你的答案会被直接发送给用户,不要生成其他背景信息。
      邮件节点 (Send Mail Plugin)
        在 Coze 插件商店中搜索并添加 Send Mail 插件节点。配置参数
          填入你的发件邮箱账号及其授权码(注意:不是邮箱密码,通常需要在邮箱设置中单独生成)。设置邮件主题 (Subject),如「AI 阅读秘书的每周提醒」。收件人 (Recipient):填入你希望接收报告的邮箱地址。HTML 内容:将此字段的变量设置为「总结 AI」 节点输出的 HTML 报告。

    部署与定时触发

      绑定到 Bot:将完成的工作流绑定到一个 Coze Bot。发布 Bot:为了仅供自己使用,可以选择将 Bot 仅发布到飞书 (或其他支持的私有渠道)设置定时任务:在飞书 (或你选择的平台) 中找到你发布的 Bot,利用其提供的定时消息功能,设定在固定时间(如每周日上午 10 点)自动向 Bot 发送触发指令,从而启动工作流。Token 用量:注意 Coze 的每日免费 Token 是 500 点,大概支持你生成 4-5 篇文章的总结,如果你的文章较多,或者使用了高级的大模型,就很容易超出免费限额,不过点数也不算贵,1 块钱 1000 点,超过 500 点的用量会再从付费点数里扣除,一周用一次的话,1 块钱也足够使用很久了。

    至此,你的 AI 阅读策展人便正式上岗了。

    关于流程的迭代与思考

    最初,我尝试使用 Coze 内置的 Notion 插件来读取数据。虽然配置简单,但其授权有效期过短(仅 15 分钟),导致定时任务形同虚设,每次触发前都需要手动重新授权,这与自动化的初衷相悖,也缺乏一种技术上的优雅感」。因此,我转而研究 Notion 的官方 API 文档,最终通过一个代码节点实现了更稳定、更长效的解决方案,一步到位,颇为清爽。

    未来,或许还可以探索直接调用工作流 API 并通过云函数 (如 Vercel Functions, Cloudflare Workers) 或本地服务器进行更灵活、健壮的定时调度。当然,使用智能体来触发工作流也有很多的可玩性值得探索。

    在 AI 模型选择上,正如前文所述,目前在 「文采」 与「长文本处理能力」之间存在一定的取舍。期待未来能有更强大的模型,既能妙笔生花,又能从容应对海量信息,甚至在跨领域的文章间发掘出更深层次的联系与洞见。

    结语:我们该如何更好地使用 AI?

    说到底,AI 不是为你多读了几篇文章,而是帮你节省精力、用得更高效

    不是让 AI 替你消化内容,而是让它整理「待办」、归纳价值,帮你筛选出值得亲自投入时间的部分。

    「让 AI 代笔」或许一时方便,但长期来看,只有亲自读、灵活用,知识才会真正沉淀为个人能力。AI 的 价值不在于替代阅读,而在于优化阅读决策,在于将那些重复、机械、却又必要的管理任务自动化,从而释放我们宝贵的认知资源,专注于更高层次的思考与创造。这或许正是 AGI (通用人工智能) 真正来临前,我们利用 AI 提升个人知识生产力的一种有效范式:让 AI 处理信息,让人类专注智慧

    全文到此,如果你也在为 「待读账单」 头疼,不妨试试这个自动化思路,让 AI 助你科学减负,顺便体会一下信息整理的小乐趣。希望这个过程与思考,也能为你带来些许启发。

    > 关注 少数派小红书,感受精彩数字生活 🍃

    > 实用、好用的 正版软件,少数派为你呈现 🚀

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 自动化 阅读 Notion Coze
相关文章