V2EX 07月15日 09:12
[问与答] 有什么方便的方式 将 整个网页内容 喂给 ChatGpt/Geimini 等 AI
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

文章探讨了当前AI在处理网页内容时遇到的问题,特别是由于服务端渲染、流式传输等技术导致的网页内容获取不完整。针对这一问题,文章对比了截屏、保存为PDF、使用简悦等插件、以及在线转换等多种方案,并分析了它们的优缺点。最终,文章旨在寻找更有效的方案,确保AI能够完整获取网页内容,并提出对网页转为Markdown的需求,以解决信息丢失的问题。

🧐 AI在获取网页内容时面临挑战:由于服务端渲染和流式传输等技术,AI难以完整获取网页内容,导致信息丢失。

💡 现有解决方案存在局限性:截屏和保存为PDF会丢失链接,简悦等插件和在线转换工具也无法完整保存网页内容。

🤔 现有方案的缺陷:截屏和PDF需要OCR,链接丢失;简悦等插件保存内容不全;在线转换效果不佳,未能解决服务端渲染问题。

✅ 核心关注点:寻求更有效的方案,确保AI能够完整获取网页内容,并关注网页转为Markdown的需求,以避免信息丢失。

背景

有写 AI 不支持访问外部链接,有些 AI 访问 url 解读的内容和实际网页的内容根本不一致.

比如 对于这个 urlhttps://github.com/prisma/docs/issues/6284geimin 连 网页的标题 都没有解读 正确.

有且网站使用了 服务端渲染技术, 所以如果你只是访问 URL, 就会得到一个 很简短的 HTML, 实际整个网页的内容是需要等待流式渲染结束之后 才能看到整个网页的实际内容, 甚至有些内容是懒加载, 需要滚动到这个位置才会渲染具体的内容. 所以像 飞书/语雀这样的网页剪切插件 试了一下无法剪贴到整个网页的内容, 只剪切到了一小部分内容.

方案一 截屏整个网页或者 将网页保存为 pdf

这两种方式 对于 AI 解析 PDF 或者图片都是需要使用 ocr, 他们无法读取到文字的 url 链接,网页中的文字的链接 丢失了.存在缺点.

方案二 保存为 markdown.

    简悦这个插件 不好用, 很多网站只能保存到 非常小的一部分内容. 丢三落四.obsidian 的 web 剪切插件, 目前在用这个插件来将网页保存为 markdown.

方案三

有一些在线将 url 转为 markdown 的网站, 试了几个效果都不理想, 他们的问题都是只获取到了部分网页内容. 大概率是因为上文提到的服务端渲染 流式传输的原因.

问题:

    有什么好的方案将 整个网页的内容喂给 ai有什么更为好用方案将 网页转为 markdown. 对于输出的格式不关注, 关注点是网页内容不要丢失.

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 网页内容获取 服务端渲染 Markdown 信息丢失
相关文章