企业正在竞相采用 AI,以提高运营效率并获得竞争优势。事实上,在最近的一项调查中,71% 的受访者表示,他们所在的企业已经开始定期使用生成式 AI (GenAI)。
除了使用现有的生成式 AI 服务外,许多组织还在构建自己的 AI 驱动应用和 AI 智能体,以提供高度个性化的客户体验。他们认识到,在创建能够为其 全球客户群提供高度定制的购买建议、产品信息和支持的应用程序和智能体方面,蕴含着巨大机遇。
这种对高度个性化的关注与应用开发转向新模式的趋势相契合。开发人员正日益将应用拆分为更小的单一功能组件,作为 AI 智能体提供服务。这种新模型使开发人员能够快速开发新的智能体,同时提高其性能、韧性和安全性。
问题在于:开发人员通常使用超大规模云服务商来构建应用。但是,这些超大规模云服务商无法充分支持这种新的应用模型。它们并非设计用于向数百万个人用户交付个性化应用或代理。
我们需要为这个 AI 时代奠定新的基础——构建和部署下一代应用和智能体的新型基础设施。要奠定这一基础,首先需要了解应用开发中的关键转变,明确超大规模云服务商的局限性,然后确定核心要求。一旦我们奠定了基础,我们就能构建应用和智能体,以实现我们的业务目标并满足客户的期望。
构建大型、单体应用并向每个用户提供相同体验的时代正在结束。两个关键趋势正在共同推动应用开发进入新的范式:企业正在利用 AI 创建高度个性化的体验,并且正在采用新的架构模型来构建和交付应用。
应用开发团队不应再提供通用的、一刀切式的体验,避免向用户推送过量的信息和不相关的优惠。当今的客户——无论身处 零售、金融服务、游戏 或其他领域——都期望应用能够提供富有吸引力的体验,并精确匹配其偏好和兴趣。
AI 应用和智能体帮助提供这样的高度个性化体验。而且它们可以大规模扩展,无需团队增加手动开发工作。
假设您的公司提供日历软件。您可能希望允许您的客户安排特定类型的活动,例如孩子的足球比赛。每个人都会拥有一个专属的 AI 智能体,该智能体可以从联盟的在线活动日历中收集赛事信息,然后填充到个人定制的个性化日历中。使用 AI 智能体,您可以向成千上万或数百万客户提供这些个性化体验。
软件开发领域的一项重要变化,促进了使用 AI 应用和智能体创建高度个性化体验的进程。从单体应用过渡到微服务后,开发人员现在正在拥抱“纳米服务”模型。这种模型将应用功能分解为小型、自包含、单一用途的组件——比微服务更小,更独立。与微服务方法类似,纳米服务有助于 加速开发并提高应用的韧性,同时还能实现高度个性化。
每个纳米服务组件都充当智能体,执行非常具体且高度定制的任务。这种架构使您能够交付数百万个独特的、定制的智能体,而不是构建一个服务数百万用户的单一应用。
将 AI 集成到此架构模型中,您可以使用智能体规模化提供个性化体验。您可以将用户的输入(例如提示词、浏览历史或聊天互动)发送到大语言模型 (LLM),然后根据其输出执行个性化任务。您可以运行该进程一次并将其关闭,也可以使用它数百万次。
因此,将纳米服务与 AI 结合,能够对您为用户提供的体验带来革命性的影响。尽管如此,使用常规超大规模云服务商产品品,仍然难以充分利用纳米服务和 AI。
超大规模云服务商成为构建和交付应用的首选,这并不令人意外;与传统的本地环境相比,它们通常更灵活且更具成本效益。尽管如此,可扩展性的限制、无状态性、安全性的限制和额外成本意味着它们并非 AI 的最佳基础。
超大规模云服务商在单一应用扩展方面表现出色:借助超大规模云服务商,您能够将某款单一应用交付 给成千上万的用户。但是,超大规模云服务商没有适当的应用架构,无法高效地向数百万个人用户交付数百万个独立应用或智能体。
它们也缺乏快速启动或关闭这些应用和智能体的自动化流程。在赛季开始时,您可能有成千上万的用户突然需要一个定制的 AI 智能体来安排足球比赛。为了满足需求,您需要在毫秒级时间差内启动这些独立的智能体。当赛季结束且需求下降时,您需要立即停用这些应用,以节省资源。
对于大多数超大规模云服务商而言,为单个应用配置资源是一个耗时的手动流程。那种环境并非设计用于支持大量独立的定制应用。
超大规模云服务商无法提供运行 AI 智能体所需的状态保存能力。AI 智能体应该能够跨会话记住上下文、用户偏好和用户交互。这种状态保存功能让用户能够从上次中断的任务处继续,而无需从头开始,即使长时间处于非活动状态也是如此。
但超大规模云服务商优先考虑可扩展性和可靠性,而非状态性。超大规模云服务商设计为能够轻松添加或移除资源,以适应不断变化的需求,并在出现问题时快速替换。这种无状态的灵活性是以将数据保留在内存中为代价的。
在创建高度个性化的 AI 应用和智能体时,您需要确保一个用户应用/智能体中的数据永远不会被其他用户访问。例如,如果您使 用 AI 智能体跟踪您孩子的足球日程,您肯定不希望其他人访问您孩子的位置。
由于超大规模云服务商不提供专为基于纳米服务的智能体设计的应用架构,因而无法充分保护每个智能体。如果您正在构建 AI 应用和智能体,您还需要防范 AI 模型面临的各种威胁——从提示词注入和不安全的输出处理,到数据投毒和供应链漏洞。并非所有超大规模云服务商都具有足够的内置安全能力来应对这些及其他威胁。
如果您的开发人员正在使用超大规模云服务商及其 AI 模型进行“氛围编码”,即通过 LLM 协助编写代码,那么您需要确保该模型不会意外引入安全漏洞。
在超大规模云服务商上运行 AI 驱动应用成本会迅速增加。这些服务商会针对 AI 模型的每次输入和输出向您收费。其他服务商会根据资源的分配时间收费,即使这些资源没有在处理请求。假设跟踪足球赛程的 AI 智能体反复检查联赛的在线日历,以获取比赛时间或地点的任何更新。云服务商会向提供该应用的公司收取资源预留的所有时间费用,即使您的代码只是在等待用户输入或来自外部来源(例如联赛在线日历)的响应。
您也可能需要产生高昂的数据出口流量费用。如果超大规模云服务商过其他云提供商的应用向用户交付数据,或者将 数据从其云端传输到另一个云端,则会收取这些费用。如果他们在云内部传输数据,仍然可能产生区域出口费用。
在选择用于构建和运行 AI 驱动应用的云平台时,有四个关键的要求。
首先,平台必须提供一个应用层,专门支持纳米服务,已部署高度个性化的 AI 应用和智能体。您需要轻松生成数百万个精确定制的应用和智能体,它们全部同时运行,并且全部在边缘位置交付给用户。而且您应能在毫秒级时间内自动启动或关停这些应用。
该平台应支持您构建有状态的智能体,以便将上下文在内存中保留数分钟、数小时、数天或数周。与传统的无状态无服务器架构不同,具有状态的平台将允许智能体在一段时间后恢复交互,并执行复杂、长时间运行的任务。
最适合 AI 开发的平台将使你能够轻松地将安全性构建到应用和 智能体中。它将允许您创建安全且独立的纳米服务,以保护敏感数据。同时,我们将提供工具,让开发人员充满信心地调试代码,防止数据泄露、提示词注入攻击以及将 AI 模型与应用集成时可能出现的其他威胁。
一个基础的 AI 平台必须提供多种方法来最大程度地降低运行 AI 应用的成本。例如,缓存 AI 模型响应可以减少令牌费用。如果用户重复提供相同的输入,您无需为多次调用 AI 模型付费。
平台还应该让您避免“挂钟时间”的费用,也就是应用和智能体等待输入或响应的时间。只有在您的应用实际执行操作时,才会向您收费。由于您可能需要将数据从一个存储环境移动到另一个存储环境,因此该平台必须免除数据出口费用。
Cloudflare 为 构建、运行,和 保护 AI 驱动的应用和智能体提供可扩展、安全且经济高效的基础。Cloudflare 提供广泛的服务组合,以简化 AI 应用和 AI 智能体开发,其中包括用于加速 AI 开发的平台、用于构建 AI 驱动型智能体的 SDK、用于保护 AI 应用的安全服务,以及用于存储快速增长数据集且不产生出口费用的对象存储。
重要的是,Cloudflare 平台旨在支持纳米服务模型,使您能够构建和扩展数百万个高度个性化的应用和代理。它还提供了保持会话间上下文所需的有状态特性。此外,超大规模云服务商要将多种不同的服务串联起来以构建、保护和部署应用,而 Cloudflare 通过一个统一的全球连通云平台提供所有功能。Cloudflare 的 全球网络 使您能够在接近个人用户的地方运行这些应用和智能体,提供响应迅速、低延迟的体验。
将 Cloudflare 用作 AI 的基础,有助于您经济高效、安全且快速地构建和交付创新型高度个性化应用和智能体。在此基础上,您可以进一步最大化企业 AI 的投资回报率,同时降低风险。
本文来自有关影响当今技术决策者的最新趋势和主题的系列文章。
阅读《确保安全的 AI 实践:CISO 创建可扩展 AI 策略的指南》, 了解如何在增强安全性的同时支持企业 AI 计划。
阅读本文后,您将能够了解:
AI 和纳米服务如何改变应用开发
为什么超大规模计算平台无法充分支持 AI 应用
AI 应用开发平台的 3 项要求