扫一扫
关注微信公众号

AI推理走向边缘,Akamai在KubeCon China 发布高效计算新方案
2025-06-10   网络安全和运维

  云服务与安全解决方案提供商阿卡迈技术公司(Akamai Technologies, Inc.,以下简称:Akamai)今日宣布参加KubeCon + CloudNativeCon China大会,并发布多项全新的AI云计算解决方案,进一步助力企业构建高性能AI应用,加速预测模型和大型语言模型 (LLM) 的落地实施。
  凭借覆盖全球130多个国家和地区、超1200个网络的4200多个节点,Akamai构建了业界领先的分布式边缘云平台,具备在分布式与边缘环境中支持多样化需求的独特优势。
  本次大会上,Akamai重点展示以下云计算创新解决方案:
 
  ● Akamai Cloud Inference:Akamai Cloud Inference解决方案将为平台工程师和开发人员提供强大工具,支持在更靠近终端用户的地点构建和运行AI应用程序及数据密集型工作负载。通过本地化部署,企业可实现吞吐量提升3倍,延迟降低多达2.5 倍。同时在AI 推理和 AI 智能体工作负载的成本降低多达 86%,相较于传统的超大规模基础架构, 具备更高性价比。
  ● Akamai Cloud 加速计算实例:全新Akamai Cloud 加速计算实例是由 NETINT 视频处理单元提供支持的新型云计算服务,采用专用芯片架构,为视频转码和媒体工作负载带来高效能处理能力。用户无需自行部署硬件即可实现大规模、低成本的高质量视频处理。Akamai是业界首个、目前唯一一家在云端提供VPU服务的云服务商。
  ● Linode Kubernetes Engine – Enterprise (LKE-E):全新Linode Kubernetes Engine是为大规模生产环境量身定制的企业级解决方案。借助LKE-E,运行大规模生产工作负载时,可实现专属资源配置、企业级安全性与合规保障、系统稳定性与可扩展性的增强,同时简化部署与运维流程,并大幅降低出口流量成本。
 
  此外,Akamai还推出专为AI应用打造的安全防护方案:
  Firewall for AI: Firewall for AI 是专为AI 应用程序设计的高级威胁防护解决方案。该解决方案可为AI 赋能应用、大型语言模型 (LLM) 和 AI 驱动 API提供多层级防护,有效抵御未经授权的查询、对抗性输入以及大规模数据抓取攻击,增强AI安全性与稳定性。
 
  积极推动技术创新的同时,Akamai也持续履行对开源社区的承诺。大会期间,Akamai宣布将通过其云计算服务与内容分发网络(CDN)为Linux内核——开源Linux操作系统的核心软件——提供基础设施支持,助力全球开发者协作与开源生态建设。
  此前,Akamai已向云原生计算基金会(CNCF)承诺捐赠100万美元,进一步推动云原生技术发展。Akamai现为CNCF黄金会员及KubeCon大会白金级赞助商。
  欢迎前往KubeCon + CloudNativeCon China现场 Akamai 展台(展位号:G5),了解Akamai最新云计算方案,观看现场演示并与技术专家深入交流。

热词搜索:akamai 零信任 云安全

上一篇:2025CSDI:大模型引领智能研发与IT组织变革
下一篇:最后一页

分享到: 收藏