掘金 人工智能 07月23日 22:13
借助DataStream和多路复用实现可观察性
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文探讨了在现代分布式架构中,如何通过Akamai的DataStream边缘日志报告和基于云的多路复用解决方案,来应对日志数据管理带来的挑战。传统的日志收集方式往往面临数据量庞大、成本高昂、安全性风险以及跨团队可见性需求复杂等问题。通过将日志数据在边缘进行摄取和解析,并利用Linode Kubernetes Engine(LKE)运行ELK和Vector,可以实现高效、可预测且成本效益高的可观察性工作流。这种方法不仅能确保相关团队只获取所需数据,降低存储和出口成本,还能在分布式环境中维持可观察性,简化集成和迁移过程,最终提升数据安全性和管理效率。

📦 **统一日志管理,提升可见性与安全性**:在处理来自CDN、安全系统、服务器端等多个来源的日志数据时,传统方式可能导致基础设施复杂化和数据出口成本高昂。Akamai的DataStream与多路复用解决方案,允许在将日志数据发送给DevOps团队前,先在边缘进行数据摄取和解析,确保相关团队仅获取其所需的数据,从而提高数据安全性,简化管理,并避免不必要的成本。

💰 **优化成本,减少海量数据传输费用**:日志数据量庞大且持续产生,若未能在传输前进行有效解析和筛选,将产生高昂的存储和数据出口成本。多路复用技术通过提前处理数据并根据“标识符”将已解析日志定向到指定目的地,有效减少了非必要数据的传输,从而显著降低了整体日志存储和出口成本。

🌐 **应对分布式架构挑战,实现区域化日志分发**:现代分布式架构涉及多地区、多微服务,日志可见性需求复杂且区域化。结合Akamai DataStream和多路复用,可以精确控制不同日志在多区域基础设施中的处理和分发方式,确保日志在需要的地方进行分发,满足不同区域的可见性需求,维持分布式系统中的可观察性。

💡 **简化集成与迁移,基于云的管道**:此多路复用解决方案无需迁移应用程序相关的软件或数据,其作为一种与位置无关的、基于云的管道,位于企业边缘交付基础设施和日志存储端点之间。通过将日志解析后的数据指向Akamai的对象存储,可以进一步降低数据出口成本,简化集成和迁移过程。

实时查看日志数据有助于确定应用程序的管理方式和基础设施的扩展方式。为了确定并解决最终用户遇到的问题,我们往往需要获取来自多个来源(如CDN、安全系统、服务器端等)的日志,然而这可能导致复杂的基础设施设置,会产生不同级别的可见性需求,并且由于数据量大,往往还会产生较高的数据出口成本。


如您所在的企业也在考虑采购云服务或进行云迁移,

点击链接了解Akamai Linode解决方案,现在申请试用可得高达500美元专属额度


为了实现高效、可预测且具有成本效益的可观察性工作流,一种方法是实施基于云的多路复用解决方案,在将日志数据发送到相关DevOps团队之前,先进行数据摄取和解析。结合Akamai的DataStream边缘日志报告,多路复用可以帮助企业管理日志的传输方式和位置,提升数据安全性,并降低整体成本。

本文概括介绍了可观察性工作流中的业务挑战、集成和迁移的关键要点,并展示了使用Linode Kubernetes Engine(LKE)运行Elastic Stack(ELK)和Vector的多路复用参考架构。

DataStream和多路复用工作流

以下是在可观察性工作流中使用多路复用与DataStream的大致步骤:

    运行DataStream的边缘服务器接收客户端请求。DataStream将日志数据作为单一流输出到运行多路复用软件解决方案的LKE集群,该解决方案由ELK栈和Vector组成。ELK和Vector摄取日志数据,对日志进行分析、解析,并输出到用户定义的对象存储端点。区域对象存储桶用于存储已解析的日志数据。

应对不同挑战

· 跨团队管理可观察性需求

使用多路复用将日志数据发送给需要的团队。

许多企业(尤其是大型企业)往往需要将特定日志数据发送给多个地理区域的特定团队。然而,并不是每个地区的每个团队都需要(或应该拥有)每一条数据来达到所需的可见性水平。处理未经筛选、未经解析的日志数据不仅耗时易出错,而且也会造成不必要的安全风险。

将多路复用方法引入可观察性工作流,可确保相关DevOps团队只获取他们所需的数据。这不仅提高了数据安全性,还能提升效率并降低整体日志存储成本。

· 海量数据

通过避免传输不必要的数据来降低成本。

日志数据对于有效的可观察性工作流至关重要。然而,日志数据庞大、数量众多且持续不断;大量日志数据必须传输到某个地方,如果在到达目的地之前没有正确解析,就可能造成不必要的存储和数据出口成本。

多路复用可提前整理数据并使用数据“标识符”(如日志特定元数据)将已解析日志定向到指定的目的地,从而降低这些成本。这样,不仅日志能被发送给正确的团队,还确保了非必要数据不会首先被发送,从而减少了整体日志存储量。

· 在分布式架构中维持可观察性

确保不同类型日志在需要的地方进行分发。

分布式架构是高可用性、高流量应用的标配。随着分布式架构的实施,往往会涉及多地区、多VPC、多微服务以及与每个组件相关的日志。除了大量数据外,这还可能导致复杂的监控和可见性需求,这些需求可能因地区而异。

将基于云的多路复用与DataStream边缘日志记录相结合,可精确控制CDN、安全系统、服务器端和其他日志如何在多区域基础设施中处理和分发。

· 集成和迁移工作

本文涉及的多路复用解决方案不需要迁移任何与应用程序相关的软件或数据。该解决方案是一种与位置无关的,基于云的管道,位于企业的边缘交付基础设施和日志存储端点(如Amazon S3兼容的桶、Google Cloud Storage等)之间。

通过以下示例,大家可以通过将云端多路复用架构指向Akamai的对象存储(而非第三方对象存储解决方案),借此降低整体数据出口成本。

多路复用DataStream设计示意图

下图使用单区域、可扩展的LKE集群运行ELK和Vector,从DataStream摄取并解析单一日志流。解析后的日志被发送到由对象存储桶组成的区域日志处理基础设施,并在那里进行处理和存储:

    发出请求。最终用户提交应用请求。边缘服务器接收请求。请求被Akamai的边缘基础设施接收,该基础设施运行了DataStream。如果该请求在边缘未缓存,最终用户请求的HTTP数据将被转发到运行用户请求信息的区域SaaS集群。
    HTTP数据:HTTP数据传输不受影响,也与基于云的多路复用日志解析解决方案无关。日志发送到云基础设施进行多路复用。DataStream根据最终用户的请求捕获并传输日志信息。日志不是直接发送到区域日志处理基础设施,而是以单一流的形式发送到Akamai Cloud上的单区域LKE集群。日志被解析和分发。运行ELK和Vector多路复用解决方案的LKE集群摄取、处理、排序并将解析后的日志传输到区域本地日志处理基础设施。区域桶接收并存储解析后的日志。由对象存储桶和软件组成的本地日志处理基础设施,会根据解析过程中提供的数据标识符摄取并存储解析后的日志。这些桶位于与运行最终用户查询应用程序SaaS集群相同的区域。

系统和组件

通过上述解决方案,我们即可在Akamai云计算平台上实施基于云的多路复用可观察性解决方案,确保在将日志数据发送到相关团队之前,先进行必要的数据摄取和解析。在Akamai DataStream边缘日志和多路复用能力的帮助下,企业将能更好地管理日志传输方式和位置,在提升数据安全性的同时大幅降低数据存储和出口成本。


如您所在的企业也在考虑采购云服务或进行云迁移,

点击链接了解Akamai Linode解决方案,现在申请试用可得高达500美元专属额度

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

Akamai DataStream 多路复用 日志管理 可观察性
相关文章