然而,AI可能对数据中心产生的最大影响是改变数据中心的工作方式。对于那些想要充分利用现代AI技术的企业来说,数据中心所容纳的基础设施及其管理方式必须有所改变。
AI将会引发数据中心怎样的发展还有待观察,但以下是一些值得期待的关键变化。
AI对数据中心的独特需求
要评估AI对数据中心的影响,你必须首先了解的是AI工作负载与数据中心中其他类型的工作负载(例如标准应用托管)之间有什么不同。
虽然AI工作负载有很多形式且要求各异,但大多数都满足以下的独特需求:
- 需要大量的计算资源,尤其是在执行模型训练的时候。
- 运行在裸机硬件上使其从中受益,特别是那些可访问GPU资源的服务器。
- 资源消耗率可能会大幅波动。在训练阶段,AI工作负载需要大量的资源,但训练完成之后,大多数情况下资源消耗会显着下降,直到再一次训练模型。
- 需要超低延迟的网络才能实时做出决策并交付结果。
当然,其他类型的工作负载也可能有这些要求,例如,运行AI应用和服务并不是唯一可以从裸机服务器中受益的用例,但总的来说,AI软件要比其他类型的工作负载需要更多上述资源。
为了AI升级数据中心
为了优化AI工作负载的设施,许多数据中心运营商需要做出改变,以满足AI独特的需求。以下是数据中心在这方面的关键升级。
- 重新设计或更换裸机服务器
至少在过去十年中,虚拟机一直是托管工作负载的首选基础设施资源。但考虑到AI应用和服务对于裸机硬件的需求,有越来越多的数据中心运营商可能会发现扩展裸机产品变得十分重要。
在某些方面,这实际上是简化了数据中心的运营。如果你在裸机上运行工作负载,最终会得到一个不太复杂的托管堆栈,因为你没有混合使用虚拟机管理程序和虚拟机编排器。
另一方面,扩展用于托管工作负载的裸机基础设施可能需要数据中心对托管的服务器以及服务器所在的机架进行更新升级。传统上看,在数据中心设置服务器的最简单方法,就是配置非常强大的裸机机器,然后根据工作负载的需求将其分配到任意数量的虚拟机中。但如果你需要直接在裸机上运行工作负载,那么则可能需要更多的服务器来隔离工作负载——这意味着数据中心必须将高功率服务器更换为较小的服务器,并且可能要相应地更新服务器机架。
- 共享支持GPU的服务器
尽管在AI工作负载进行训练的时候,使用支持GPU的服务器是有利的,但AI应用不一定需要GPU来进行日常操作。因此,许多企业只需要临时访问支持GPU的基础设施即可。
为了满足这一需求,数据中心运营商应该考虑那些让企业能够共享基于GPU的基础设施的产品。少数企业可能希望拥有配备GPU的服务器,因为他们并不会永远都需要这种服务器。但如果数据中心运营商能够临时提供对GPU资源的访问(例如通过GPU即服务的模式),那么他们就能够更好地吸引那些有AI工作负载需求的企业。
- 增强的网络解决方案
大多数企业级数据中心已经提供了对高性能网络基础设施的访问,以及有助于尽快将数据移动到外部设施的互连。但为了充分利用AI,数据中心网络产品可能需要变得更加强大。
那些拥有AI工作负载的企业需要两个关键功能:首先,高带宽网络连接,可以非常快速地移动大量数据,这在分布式基础设施上训练AI模型的时候尤其重要。其次,网络能够提供个位数的延迟,如果你希望AI应用和服务真正做到实时执行,这一点至关重要。
- 更高的数据中心灵活性
由于AI工作负载的资源需求波动很大,因此可能需要在支持基础设施数量方面更加灵活的数据中心。AI还可能让人们更加需要能够让企业在其他数据中心内按需部署服务器、而不是自己设置这些服务器的服务,因为按需基础设施是解决资源需求波动的一个好方法。
为此,那些想要优化AI的数据中心运营商应该考虑使其设施更加灵活的产品。短期合同,和那些不仅仅包括了客户可以建立自己基础设施的机架空间服务,二者的结合可能对于那些需要部署AI工作负载的组织来说是有吸引力的。
结论
AI变革仍在上演,现在想要确切地知道AI将如何改变数据中心的运营方式或者其中部署的基础设施类型,还为时过早。但可以相对肯定地是,支持GPU的服务器和更灵活的解决方案等变化,可能在以AI为中心的世界中变得至关重要。想要分一杯羹的数据中心运营商应该确保更新他们的设施,以满足AI工作负载的独特要求。
文章来源于互联网:针对AI工作负载优化数据中心的四种方法 | https://www.51cto.com/article/776354.html