云曾经承诺无穷的可扩展性、灵活性和效率。但随着生成式 AI 的兴起,许多构造正在以前所未有的云账单形式经历粗暴的觉醒。根据 Tangoe 最近的陈诉,由于 AI 的计算需求以及 GPU 和 TPU 利用资本的上升,近四分之三的企业发现他们的云账单“无法管理”。对于在 AI 驱动型世界中努力证实云费用合理的企业,有一种办理方案:将选定的 AI 工作负载遣返到本地基础设施。
遣返的来由
由于云提供商对高性能计算资源收取额外费用,因此在云中运行高级工作负载会很快导致费用飙升。根据我们的研究(我们稍后将预览),39% 的受访者非常担心或非常担心与在云中运行人工智能和/或机器学习工作负载相关的资本。遣返(将选定的工作负载从云迁移回本地基础设施)大概是办理这种日益增长的焦虑的办理方案,尤其是对于利用模式可变且不可猜测的 AI 工作负载。通过将这些工作负载引入本地,拥有充足基础设施的公司可以避免隐藏的云资本,例如出口费用、存储检索费用和闲置资源费用,这些费用通常会让构造措手不及。此策略对于在商用或现成硬件上高效运行的软件特别有效。大多数 AI 应用程序(包罗机器学习和数据处置惩罚工作流程)不需要定制的高端服务器或专用硬件,使其成为遣返的理想选择。利用商用硬件,公司可以大概以经济实惠的方式处置惩罚要求苛刻的 AI 工作负载,淘汰对云提供商高价基础设施的依赖,同时保持灵活性和对其情况的控制。
遣返 AI 工作负载的主要优势
1 . 资本可猜测性和控制 在云中,基于斲丧的计费模型使得猜测资本变得困难。相比之下,本地基础设施提供固定资本模型,有大概随着时间的推移分摊硬件资本,从而实现更大的可猜测性。我们发现,客户可以通过遣返节省 50% 的云资本。 2 . 增强的性能 高性能 GPU 和低延迟网络对于 AI 至关重要。通过在本地托管工作负载,公司可以更好地控制这些因素,确保 AI 模型可以大概尽大概高效地运行。由于对外部云网络的依赖较少,构造可以潜在地淘汰延迟并提高性能,这是及时 AI 应用程序的关键要素。 3 . 改进的数据安全性和治理 AI 和机器学习应用程序依赖于大量数据,这些数据通常具有敏感性。固然云提供商提供了强大的安全步调,但将数据遣返到本地情况可以对数据治理提供更精细的控制。构造可以通过将信息保存在本身的防火墙内来实施更严酷的访问控制并降低数据泄露的风险。 4 . 淘汰影子 IT 并加强问责制 将工作负载遣返有助于办理影子 IT 题目,即各部门独立启动云资源,从而增加意外资本。本地基础设施需要集中审批和监督,使构造更轻易确保资源得到有效和透明的利用。
何时遣返:确定适合本地部署的最佳 AI 工作负载
并非全部 AI 工作负载都是遣返的理想候选项。需要大量计算能力的高优先级、及时或使命关键型应用程序通常非常适合本地基础设施。批处置惩罚和模型练习使命通常需要在设定的持续时间内利用高强度计算资源,在专用的本地情况中也往往表现精良。相反,动态或临时工作负载仍大概受益于云的灵活性。确定哪些工作负载最适合本地部署可以为构造节省大量时间和款子,而不会牺牲性能或可扩展性。在考虑您的基础设施时,最好通过选择可在任何地方运行的软件来灵活地选择运行工作负载的情况。
对 AI 工作负载接纳混合方法
遣返 AI 工作负载不是一个 “全有或全无” 的办理方案。融合了云和本地情况优势的混合策略是理想的选择,使公司可以大概在最有代价的地方利用每个选项的优势。通过在本地运行可猜测的高强度 AI 工作负载并利用云执行更灵活的使命,构造可以优化资本和性能。