在生成式AI技术潮流爆发之前,亚马逊云科技通过Amazon SageMaker将云服务打造得更加适合AI应用。随着生成式AI的到来,亚马逊云科技通过一系列战略布局,使公有云能够抓住生成式AI带来的机遇。
在亚马逊云科技2024 re:Invent中国行北京站活动上,亚马逊云科技大中华区产品部总经理陈晓建表示,亚马逊云科技是全球云计算的开创者和引领者,更是企业构建和应用生成式AI的首选,今年re:Invent全球大会的一系列重磅发布再次印证了这一点。
我们看到,亚马逊云科技不仅在云的核心服务层面持续创新,更在从芯片到模型,再到应用的每一个技术堆栈取得突破,让不同层级的创新相互赋能、协同进化。
如果要了解亚马逊云科技的生成式AI布局,可以分三个层面。
第一,提供丰富的AI大模型供用户选择。
“乾坤未定,你我皆是黑马”描述了一种充满可能性的状态,非常适合描述大模型的发展现状,也描绘了广大企业在选择大模型时的焦虑心情。
如何找出适合自己的大模型,如何能在未来用上更合适的模型,已成为许多企业在面对AI技术变革时的共同难题。
亚马逊云科技通过Amazon Bedrock托管了多种大模型,包括已完成Serverless化的热门通用大模型Claude和LLama,此外,Marketplace上还提供了120多个行业垂类大模型,几乎涵盖了各个领域。
为了提供更丰富的选择,亚马逊更是亲自上发布了Amazon Nova系列大模型,包括Micro、Lite、Pro和Premier(未正式发布)四款。其中,Amazon Nova在一系列评分中,与Claude、GPT-4o等热门模型各有千秋,达到了同一水平。
沙利文大中华区总监李庆表示:“新发布的Amazon Nova大模型家族备受期待,这一系列的模型和亚马逊云科技的开放选择理念将为用户带来更多创新机会,进一步推动AI的发展。”
Amazon Nova的能力令人瞩目,而Amazon Micro和Lite也有其存在的必要。亚马逊云科技大中华区数据分析与生成式AI的产品总监 崔玮指出,企业在选择大模型时,需要根据延时、成本和性能的权衡来做决策。
崔玮介绍称,对于一些追求高准确度的客户,可以选择最强的模型,它的响应速度较慢且成本较高。而对于大流量的互联网企业,则倾向于选择成本较低、性能可接受的模型。企业通常会根据具体的用例和ROI来选择模型,以适应多样化的任务需求。
在多样性选择的基础上,用户可以通过Amazon Bedrock直接验证和对比模型,选定模型后直接调用API即可集成到自己的业务应用当中。如果,未来有更强的,或者更合适的模型出现,用户可以在Bedrock的支持下轻松切换到新的模型。
如果用户想利用自己的数据来构建自定义的模型,可以在Amazon Bedrock中进行微调、模型蒸馏和二次训练,也可以使用知识库服务,利用RAG技术将自己的私有数据交给大模型来构建企业的知识库。
而且,Amazon Bedrock不只是简单地托管模型,它还通过自动推理检查和Guardrails多模态毒性检测,确保输出结果的准确性与安全性,助力企业构建负责任的AI。
Amazon Bedrock不仅有丰富多样的模型可供选择,还提供了各种实用工具,让用户在云上快速构建生成式AI应用,同时确保了高效、灵活和负责任的AI部署,以此吸引更多用户在云上构建生成式AI。
第二,为开发者提供更多AI开发的便利工具。
“2024年我们看到许多客户从思考阶段进入实践阶段,2025年,很多客户将从原型验证阶段转化为生产阶段。届时客户需求将更加复杂,不仅是选择模型,还需要各种技术支持。”陈晓建对于2025年的AI技术新趋势做出了判断。
在re:Invent期间,亚马逊云科技发布了多种工具,帮助开发人员更好地开发模型,构建应用。
首先,全新一代的Amazon SageMaker已经整合了数据分析和AI开发的所有必要工具,成为一个统一的平台。这些更新可以提升数据和AI开发的效率,帮助用户更方便地处理和分析数据,同时降低了数据处理的复杂度。
新的Amazon SageMaker AI也带来了多项实用功能。其中,HyperPod新训练配方可以大大简化了模型训练的入门过程。新的HyperPod灵活训练计划,能根据用户的时间和预算自动预留资源并生成训练计划,帮助用户节省数周的模型训练时间。
此外,HyperPod新增了任务治理功能,可以让用户为不同模型开发任务设定优先级,动态调配计算资源,确保高优先级任务及时完成。这项功能可减少最多40%的开发成本,同时优化资源使用并减少任务等待时间。
在推理阶段,Amazon Bedrock提供了延迟优化选项提升模型的推理性能,提供了模型蒸馏功能来降低模型蒸馏的操作难度,通过GraphRAG来自动生成知识图谱,还通过自动推理检查功能来应对模型幻觉的问题。
陈晓建在采访中提到,Agent智能体是将生成式AI应用于实际任务的重要方式,预计明年将迎来爆发。为解决应用中的挑战,Amazon Bedrock推出了智能体功能,并新增加了多智能体协作功能,可以更好地处理复杂任务。
除此之外,亚马逊还面向更广泛的开发者群体更新了Amazon Q Developer,更新后,它可以自己进行单元测试、自动生成文档,自动进行代码审查,可以提高开发者的工作效率。
与此同时,Amazon Q Developer现在还支持用户将运行在VMware虚拟机环境IBM大型机环境,以及运行在微软.Net开发框架下的应用迁移到亚马逊的云平台上,它可以让整个过程变得更丝滑。
第三,提供自研的AI芯片以降低训练和推理成本。
生成式AI技术浪潮来袭,带动了新一轮的数据中心建设狂潮,需要更多服务器提供更多算力来运行推理和训练负载,这意味着全球范围内将会投入很多资源,为了提高资源的利用率,需要一系列的创新技术方案。
亚马逊云科技在基础计算能力方面积累颇深,自研的Nitro来提供存储、算力、安全以及虚拟化卸载能力,它还像服务器里的服务器一样,为构建多样化的Amazon EC2主机提供了非常大的便利。
与此同时,亚马逊云科技自研的Arm服务器芯片Graviton将Arm架构成功引入数据中心领域。自研Arm芯片不仅给亚马逊构建了面向工作负载优化的灵活性,还给用户提供了无法抗拒的高性价比。过去两年,超过一半新增的云主机都选择了Arm主机。
在生成式AI爆火之前,亚马逊云科技就推出了面向推理的Amazon Inferentia 和用于训练的Amazon Trainium。这两款芯片不仅提供了更高的性价比,而且,搭配UltraCluster这样的集群技术还可以构建超强的计算能力。
在re:Invent活动期间,亚马逊云科技发布了基于Trainium2芯片的Trn2 实例,该实例配备了16个Trainium2 芯片,提供了20.8 PetaFlops的FP8算力,可用来训练和部署数百亿到万亿参数的模型。值得一提的是,Trn2提供比当前一代基于GPU的EC2 P5e 和 P5en 实例提供了30-40% 的性价比。
Poolside 是一家为开发者提供智能化的编程助手的AI公司,该公司计划在Trn2 实例上训练模型,预计能够降低40%的训练成本。同样,知名数据和AI公司 Databricks 希望通过 EC2 Trn2 实例为共同客户创造更多价值,同时将整体成本降低 30%。
为了缩短训练时间,提供更强的算力,亚马逊云科技还使用了NeuronLink(类似于NVLink)构建了Trn2 UltraServer,将64个Trainium2芯片通过四个Trn2 实例连接起来,从而提供更强的计算、内存和网络带宽。
有意思的是,UltraServer已有了标杆客户。热门AI公司Anthropic正在与亚马逊云科技打造名为Rainier的Trn2 UltraCluster集群,用数十万颗Trainium2芯片来训练模型,其性能将是当前使用的集群的五倍以上。
Rainier的出现其实是为业界提供了基于英伟达显卡的替代方案,同时提供了更具成本效益的AI训练服务。亚马逊还宣布,明年还会推出Amazon Trainium3芯片,采用3纳米工艺,其性能将是Amazon Trainium2的两倍,能效更是能直接提升40%。
结束语
在生成式AI技术浪潮面前,亚马逊云科技通过一系列战略性布局,从基础设施、AI大模型以及开发工具、芯片的创新下手,为全球企业提供灵活、可扩展且高效的AI解决方案,让公有云抓住生成式AI带来的机遇。
精 彩 预 告
DOIT 传媒2025年重磅活动早知晓:
3 月,中国智能创新与应用论坛,聚合算力、存力和生成式AI数据创新应用;
7 月,全球闪存峰会(FMW),聚焦以闪存和内存芯片为核心的存储器产业生态;
11 月,中国数据与存储峰会(DSS),持续推动中国及全球数据与存储产业发展。更多活动信息,敬请关注!