数字生命卡兹克 2024年10月28日
20个群都来问我的AI早报,是这么做的。
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文讲述了作者从依赖他人制作AI早报到最终实现自动化制作的全过程,作者从最初的依赖朋友制作到意识到需要自己动手,经历了从手动整理到使用Python爬虫抓取数据、利用AI模型自动生成新闻摘要的转变。文章详细描述了作者在爬虫技术、AI模型应用、UI界面设计等方面的探索和实践,最终实现了每天自动更新、一键复制的AI早报制作工具。

📡 **从手动整理到自动化抓取数据:** 作者最初依赖朋友制作AI早报,但随着时间推移,意识到需要自己动手。通过反向搜索,找到了一个AIBase.com网站,并利用Python爬虫技术,成功抓取了该网站的新闻数据。

💬 **利用AI模型自动生成新闻摘要:** 作者使用了智谱的GLM-4-Air的API,编写了prompt,让模型自动将每条新闻概括成一句话,实现了新闻摘要的自动化生成。

💻 **从命令行界面到便捷的UI界面:** 为了提升用户体验,作者为AI早报工具添加了简单的UI界面,实现了每隔几小时自动爬取新闻、网页显示获取内容、文本框编辑内容、复选框选择内容、拖动排序等功能,最终实现了便捷的操作体验。

📈 **数据迁移到数据库,提升加载速度:** 随着时间的推移,JSON文件越来越大,加载速度也越来越慢。为了提升用户体验,作者将数据迁移到了数据库,并每次只加载最新的50条新闻,有效提升了加载速度。

📅 **持续探索,不断迭代:** 作者在整个制作过程中,不断探索新的技术和方法,不断迭代优化工具,最终实现了稳定运行的AI早报工具。

原创 数字生命卡兹克 2024-10-17 10:44 北京

“人工智能”。

我自己的AI群里,一直有一个传统,就是每天早上,都会发一个AI早报,让群友了解昨天AI圈发生了一些啥大事。

就是这个东西。

从去年到今天,总有群友在问我每天的AI早报是咋做的。

其实吧,在国庆之前呢,都是5群的一个朋友@日不落太阳做的,他每天早上会发到5群里,我每天只是负责转发= =

那时候吧,其实也想着,不能总是依赖别人,这种东西最好还是自己做一个,不能老是麻烦别人。

但是吧,我自己本身就很忙,一来二去,就一直拖拖拖。

然后问题开始在时间的不确定性。有时早上9点就能收到早报,有时却要等到11点之后,早报直接变午报了。群友们的催促声此起彼伏,我只能尴尬地重复着等等= =

压倒我的最后一根稻草是国庆假期。那个早晨,我如往常一样等待日报,却迟迟未收到。

然后联系那位朋友才知道,他去旅游了,时差都快干镜像了,实在是无暇顾及早报。

所以,那天之后,我痛定思痛,决定还是自己来造一个吧。

既然自己做,那肯定不能天天自己手动整理,那也太der了,必定是先抓取各种各样的数据源,然后全自动化的用AI总结。最后人转到群里。

之所以用人不用那种微信机器人,是我怕封号+炸群。

说干就干,我顺藤摸瓜,反向搜索@日不落太阳最后发的内容,并找到尽可能早的信息来源。

然后就找到了一个AIBase.com,信息还挺全的。

仔细观察后发现,这个网站的页面结构很规律,新闻链接都是按数字递增的。

这也太适合抓取了。。。

但是这次我吸取了上次的教训,之前有一期做快手AI短剧评论分析的时候,买了八爪鱼的软件会员,一个月400,然后就没啥用了,后面再用还得开会员,亏死我了。

这次,我就想直接搞个python代码一劳永逸。

我对代码可以说一窍不懂,直懂一点Html和css的基础知识,所以为了搞定这个项目,我先在网上随手找了一个爬虫代码,交给ChatGPT,希望他能按我给的URL修改。

但是,当我满怀期待地放到本地运行它时,就是一顿哐哐报错。。

跟ChatGPT沟通了半天,也搞不定问题,真的愁死我了,还直接给我o1的次数干干净了。

还好当天晚上,天降神兵,我跟朋友简单吐槽了两句后,他给我发了个神器。

Crawl4ai。

就是下面这个star增长像火箭一样的项目。

网址在此:https://github.com/unclecode/crawl4ai

Crawl4ai大大简化了使用抓取内容所需要配置的步骤。

只需要十几行代码就能跑起来一个最简单的项目。

比如下面这个快速开始的示例。

安装也很简单。

只有一行代码。

然后我把特定的一个信息源的文章详情地址替换进去。

牛批起飞,直接能爬下来了。

但是数据展示很混乱,我们肯定希望标题是单独一行,时间是单独一行,内容是单独一行,现在直接糊成一坨了。

我这次实在不想指望AI了,直接求助朋友了。

很快,他就帮我搞定了。

代码我贴在下面了。

import jsonimport asynciofrom crawl4ai import AsyncWebCrawlerfrom crawl4ai.extraction_strategy import JsonCssExtractionStrategy
async def extract_ai_news_article():    print("\n--- 使用 JsonCssExtractionStrategy 提取 AIbase 新闻文章数据 ---")
    # 定义提取 schema    schema = {        "name": "AIbase News Article",        "baseSelector": "div.pb-32",  # 主容器的 CSS 选择器        "fields": [            {                "name": "title",                "selector": "h1",                "type": "text",            },            {                "name": "publication_date",                "selector": "div.flex.flex-col > div.flex.flex-wrap > span:nth-child(6)",                "type": "text",            },            {                "name": "content",                "selector": "div.post-content",                "type": "text",              },        ],    }
    # 创建提取策略    extraction_strategy = JsonCssExtractionStrategy(schema, verbose=True)
    # 使用 AsyncWebCrawler 进行爬取    async with AsyncWebCrawler(verbose=True) as crawler:        result = await crawler.arun(            url="https://www.aibase.com/zh/news/12386",  # 替换为实际的目标 URL            extraction_strategy=extraction_strategy,            bypass_cache=True,  # 忽略缓存,确保获取最新内容        )
        if not result.success:            print("页面爬取失败")            return
        # 解析提取的内容        extracted_data = json.loads(result.extracted_content)        print(f"成功提取 {len(extracted_data)} 条记录")        print(json.dumps(extracted_data, indent=2, ensure_ascii=False))
    return extracted_data
# 运行异步函数if __name__ == "__main__":    asyncio.run(extract_ai_news_article())

直接跑一波,就可以获得一篇文章的全文内容了。

效果很好,只有一处小bug。

阅读时间和发布时间没有正确显示。

不好意思再麻烦朋友了,我直接把整个网站的Html代码和这段抓取的代码,同时扔给了OpenAI o1,在思考了5秒后,他成功解决了这个错误。

删去一些用不到的内容,下图就是最后的输出效果啦。

有标题,有时间,有内容。非常全面。

爬下来的内容会保存成一个JSON文件。

因为这个还是单个文章的方法,再做一个循环,不断地抓就行。大概做了一个流程图,如果有错勿喷,我是一个纯代码小白。。。

接下来,终于到了我自己能解决的范围里了,就是用AI,来总结这些抓取的内容。

因为每天都要输出,大模型API还是挺重要的,需要便宜,不烧钱,而且毕竟就做个总结而已,我就选了智谱的GLM-4-Air的API,然后写了一个prompt,让模型自动把每条新闻概括成一句话。

这一步非常轻松,一个命令行版的AI日报工具就诞生了。

一般是每天早上8点左右会自动跑一遍程序,来找昨天早上8点到今天早上8点的所有新闻。

每次运行,它就会自动爬取最新新闻,用AI生成概要,然后在命令行里输出结果。

我只需要复制到记事本里稍作排版,一份日报就大功告成了。

看着源源不断涌现的新闻数据,我有种热泪盈眶的感觉。

终于自己把这个小玩意干出来了,可以自己每天跑早报,然后发给群友了。。。

但我很快意识到,这只是开始。

因为每天这新闻也太特么多了。。。

我自己筛选一遍,都特么脑壳大。

然后坏消息总是一起到来,我的“得力助手”AIBase突然没来由的,直接停更了。

行吧。。。

只能又重新找源了。

又找了一段时间,总算是让我找到了一个更新速度飞快的科技新闻网站TechCrunch。

https://techcrunch.com/

然后防止他俩都不靠谱,我又找了几个其他的网站,来扩充我的数据源,甚至还花了2000多大洋买了个The Information和华尔街日报。

现在已经有了5个稳定的英文科技网站和3个中文AI资讯站作为背后的信息源,谁抽风一下,我也不慌了。

每天早上,我只需要打开电脑,运行一下脚本,新鲜出炉的AI新闻就会呈现在我面前。

然而,面对着黑乎乎的命令行界面,我总觉得少了点什么。而且,每次都要人工手动复制到记事本编辑整理,那也太蠢了。

所以,重拾UI老本行,给它加个简单的UI页面吧,命令行界面,我实在扛不住。

我又开始了新一轮的折腾。

首先,我实现了每隔几小时自动爬取一次新闻,并在网页上显示获取到的内容。这下不用我盯着电脑看了,它会自动更新。

但是呢,虽然新闻自动更新了,我还是得手动复制到记事本里编辑。

于是为了把懒逼精神贯彻到底,我又加了个文本框,可以直接在网页上编辑内容复制粘贴了。

可用着用着,我又觉得这个交互逻辑不够顺畅。

因为这还是得我自己复制再粘贴到这个网页的文本框里,还是麻烦。

于是,想了一会,我又把概要做成了一个列表,每条新闻都有个复选框,我可以勾选最新最有趣的内容。它就会自动出现在右边的预览框里,可以实时预览选中的内容。

然后再把编辑的文本框放在下面,根据勾选的内容自动加上日期和序号,再搞个一键复制按钮,完成全傻瓜式AI早报制作。

还顺便做了些小更新。

比如,为了便捷快速的调顺序,又加了个拖动排序功能。

这下可好,鼠标点点选选就能搞定一期日报,再也不用担心被群友们催更了。

而我的电脑呢,就像个尽职尽责的小助手,每小时都会准时去各大网站巡逻一圈,看看有什么新鲜有趣的AI新闻。

丑是稍微丑了点,但是反正自己用,就这样也没事,懒得改了哈哈哈。

再比如,随着时间推移,我的JSON文件越来越大,加载速度也越来越慢。

为了提升用户体验,现学现卖,学着把数据迁移到了数据库,并且每次只加载最新的50条新闻。这下加载速度嗖嗖的,用起来更顺畅了。

经过这段时间的折腾,总算是“人工智能”了。

也能稳定每天早上给群友产出一份AI早报了,目前稳定运行15天,基本上没有出任何岔子。

所以也敢写下这篇文章,算是一个小小的复盘和总结。

人嘛,总是要不断折腾不断尝鲜的。

就像马斯克说的那一句:

成功了,就是进步的一大步。

失败了也无所谓。

那也会是,夜空中最璀璨的星光。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。

>/ 作者:卡兹克、东毅、小瑞

>/ 投稿或爆料,请联系邮箱:wzglyay@gmail.com

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI早报 Python爬虫 AI模型 UI界面设计 自动化
相关文章