原创 数字生命卡兹克 2024-10-17 10:44 北京
“人工智能”。
我自己的AI群里,一直有一个传统,就是每天早上,都会发一个AI早报,让群友了解昨天AI圈发生了一些啥大事。
就是这个东西。
从去年到今天,总有群友在问我每天的AI早报是咋做的。
其实吧,在国庆之前呢,都是5群的一个朋友@日不落太阳做的,他每天早上会发到5群里,我每天只是负责转发= =
那时候吧,其实也想着,不能总是依赖别人,这种东西最好还是自己做一个,不能老是麻烦别人。
但是吧,我自己本身就很忙,一来二去,就一直拖拖拖。
然后问题开始在时间的不确定性。有时早上9点就能收到早报,有时却要等到11点之后,早报直接变午报了。群友们的催促声此起彼伏,我只能尴尬地重复着等等= =
压倒我的最后一根稻草是国庆假期。那个早晨,我如往常一样等待日报,却迟迟未收到。
然后联系那位朋友才知道,他去旅游了,时差都快干镜像了,实在是无暇顾及早报。
所以,那天之后,我痛定思痛,决定还是自己来造一个吧。
既然自己做,那肯定不能天天自己手动整理,那也太der了,必定是先抓取各种各样的数据源,然后全自动化的用AI总结。最后人转到群里。
之所以用人不用那种微信机器人,是我怕封号+炸群。
说干就干,我顺藤摸瓜,反向搜索@日不落太阳最后发的内容,并找到尽可能早的信息来源。
然后就找到了一个AIBase.com,信息还挺全的。
仔细观察后发现,这个网站的页面结构很规律,新闻链接都是按数字递增的。
这也太适合抓取了。。。
但是这次我吸取了上次的教训,之前有一期做快手AI短剧评论分析的时候,买了八爪鱼的软件会员,一个月400,然后就没啥用了,后面再用还得开会员,亏死我了。
这次,我就想直接搞个python代码一劳永逸。
我对代码可以说一窍不懂,直懂一点Html和css的基础知识,所以为了搞定这个项目,我先在网上随手找了一个爬虫代码,交给ChatGPT,希望他能按我给的URL修改。
但是,当我满怀期待地放到本地运行它时,就是一顿哐哐报错。。
跟ChatGPT沟通了半天,也搞不定问题,真的愁死我了,还直接给我o1的次数干干净了。
还好当天晚上,天降神兵,我跟朋友简单吐槽了两句后,他给我发了个神器。
Crawl4ai。
就是下面这个star增长像火箭一样的项目。
网址在此:https://github.com/unclecode/crawl4ai
Crawl4ai大大简化了使用抓取内容所需要配置的步骤。
只需要十几行代码就能跑起来一个最简单的项目。
比如下面这个快速开始的示例。
安装也很简单。
只有一行代码。
然后我把特定的一个信息源的文章详情地址替换进去。
牛批起飞,直接能爬下来了。
但是数据展示很混乱,我们肯定希望标题是单独一行,时间是单独一行,内容是单独一行,现在直接糊成一坨了。
我这次实在不想指望AI了,直接求助朋友了。
很快,他就帮我搞定了。
代码我贴在下面了。
import json
import asyncio
from crawl4ai import AsyncWebCrawler
from crawl4ai.extraction_strategy import JsonCssExtractionStrategy
async def extract_ai_news_article():
print("\n--- 使用 JsonCssExtractionStrategy 提取 AIbase 新闻文章数据 ---")
# 定义提取 schema
schema = {
"name": "AIbase News Article",
"baseSelector": "div.pb-32", # 主容器的 CSS 选择器
"fields": [
{
"name": "title",
"selector": "h1",
"type": "text",
},
{
"name": "publication_date",
"selector": "div.flex.flex-col > div.flex.flex-wrap > span:nth-child(6)",
"type": "text",
},
{
"name": "content",
"selector": "div.post-content",
"type": "text",
},
],
}
# 创建提取策略
extraction_strategy = JsonCssExtractionStrategy(schema, verbose=True)
# 使用 AsyncWebCrawler 进行爬取
async with AsyncWebCrawler(verbose=True) as crawler:
result = await crawler.arun(
url="https://www.aibase.com/zh/news/12386", # 替换为实际的目标 URL
extraction_strategy=extraction_strategy,
bypass_cache=True, # 忽略缓存,确保获取最新内容
)
if not result.success:
print("页面爬取失败")
return
# 解析提取的内容
extracted_data = json.loads(result.extracted_content)
print(f"成功提取 {len(extracted_data)} 条记录")
print(json.dumps(extracted_data, indent=2, ensure_ascii=False))
return extracted_data
# 运行异步函数
if __name__ == "__main__":
asyncio.run(extract_ai_news_article())
直接跑一波,就可以获得一篇文章的全文内容了。
效果很好,只有一处小bug。
阅读时间和发布时间没有正确显示。
不好意思再麻烦朋友了,我直接把整个网站的Html代码和这段抓取的代码,同时扔给了OpenAI o1,在思考了5秒后,他成功解决了这个错误。
删去一些用不到的内容,下图就是最后的输出效果啦。
有标题,有时间,有内容。非常全面。
爬下来的内容会保存成一个JSON文件。
因为这个还是单个文章的方法,再做一个循环,不断地抓就行。大概做了一个流程图,如果有错勿喷,我是一个纯代码小白。。。
接下来,终于到了我自己能解决的范围里了,就是用AI,来总结这些抓取的内容。
因为每天都要输出,大模型API还是挺重要的,需要便宜,不烧钱,而且毕竟就做个总结而已,我就选了智谱的GLM-4-Air的API,然后写了一个prompt,让模型自动把每条新闻概括成一句话。
这一步非常轻松,一个命令行版的AI日报工具就诞生了。
一般是每天早上8点左右会自动跑一遍程序,来找昨天早上8点到今天早上8点的所有新闻。
每次运行,它就会自动爬取最新新闻,用AI生成概要,然后在命令行里输出结果。
我只需要复制到记事本里稍作排版,一份日报就大功告成了。
看着源源不断涌现的新闻数据,我有种热泪盈眶的感觉。
终于自己把这个小玩意干出来了,可以自己每天跑早报,然后发给群友了。。。
但我很快意识到,这只是开始。
因为每天这新闻也太特么多了。。。
我自己筛选一遍,都特么脑壳大。
然后坏消息总是一起到来,我的“得力助手”AIBase突然没来由的,直接停更了。
行吧。。。
只能又重新找源了。
又找了一段时间,总算是让我找到了一个更新速度飞快的科技新闻网站TechCrunch。
https://techcrunch.com/
然后防止他俩都不靠谱,我又找了几个其他的网站,来扩充我的数据源,甚至还花了2000多大洋买了个The Information和华尔街日报。
现在已经有了5个稳定的英文科技网站和3个中文AI资讯站作为背后的信息源,谁抽风一下,我也不慌了。
每天早上,我只需要打开电脑,运行一下脚本,新鲜出炉的AI新闻就会呈现在我面前。
然而,面对着黑乎乎的命令行界面,我总觉得少了点什么。而且,每次都要人工手动复制到记事本编辑整理,那也太蠢了。
所以,重拾UI老本行,给它加个简单的UI页面吧,命令行界面,我实在扛不住。
我又开始了新一轮的折腾。
首先,我实现了每隔几小时自动爬取一次新闻,并在网页上显示获取到的内容。这下不用我盯着电脑看了,它会自动更新。
但是呢,虽然新闻自动更新了,我还是得手动复制到记事本里编辑。
于是为了把懒逼精神贯彻到底,我又加了个文本框,可以直接在网页上编辑内容复制粘贴了。
可用着用着,我又觉得这个交互逻辑不够顺畅。
因为这还是得我自己复制再粘贴到这个网页的文本框里,还是麻烦。
于是,想了一会,我又把概要做成了一个列表,每条新闻都有个复选框,我可以勾选最新最有趣的内容。它就会自动出现在右边的预览框里,可以实时预览选中的内容。
然后再把编辑的文本框放在下面,根据勾选的内容自动加上日期和序号,再搞个一键复制按钮,完成全傻瓜式AI早报制作。
还顺便做了些小更新。
比如,为了便捷快速的调顺序,又加了个拖动排序功能。
这下可好,鼠标点点选选就能搞定一期日报,再也不用担心被群友们催更了。
而我的电脑呢,就像个尽职尽责的小助手,每小时都会准时去各大网站巡逻一圈,看看有什么新鲜有趣的AI新闻。
丑是稍微丑了点,但是反正自己用,就这样也没事,懒得改了哈哈哈。
再比如,随着时间推移,我的JSON文件越来越大,加载速度也越来越慢。
为了提升用户体验,现学现卖,学着把数据迁移到了数据库,并且每次只加载最新的50条新闻。这下加载速度嗖嗖的,用起来更顺畅了。
经过这段时间的折腾,总算是“人工智能”了。
也能稳定每天早上给群友产出一份AI早报了,目前稳定运行15天,基本上没有出任何岔子。
所以也敢写下这篇文章,算是一个小小的复盘和总结。
人嘛,总是要不断折腾不断尝鲜的。
就像马斯克说的那一句:
成功了,就是进步的一大步。
失败了也无所谓。
那也会是,夜空中最璀璨的星光。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。
>/ 作者:卡兹克、东毅、小瑞
>/ 投稿或爆料,请联系邮箱:wzglyay@gmail.com