最近的业界热点展示了一个旨在向企业引入生成性人工智能能力的新产品的全球趋势。从IBM、Google、Salesforce、微软、亚马逊等科技巨头到Meta,似乎每个科技公司都在利用围绕这一变革性新技术的兴奋点。越来越清楚的是,大多数组织都渴望拥抱人工智能。企业正在迅速发现人工智能所能提供的潜在生产力提升、效率和其他好处。
然而,当这些公司不完全确定他们如何开始利用生成性人工智能时,就会出现一个重大问题。对该技术如何运作以及如何实施有深入了解的专家是稀缺的,更不用说是非常昂贵的。
认识到这种脱节,戴尔科技公司和英伟达公司共同推出了名为Project Helix的产品,专门用于简化生成式人工智能的入门过程。Project Helix专注于创建全栈式的、企业内部的生成性人工智能解决方案,使企业能够使用自己的数据建立新的或定制现有的生成性人工智能基础模型。
企业开始使用生成性人工智能服务时出现的一个问题是内部知识产权泄漏的风险。事实上,包括三星和苹果在内的几家公司已经实施了政策,阻止他们的员工为工作目的使用ChatGPT等工具,因为担心与这个问题有关。
这种担忧的部分原因是,几乎所有早期的生成性人工智能迭代只能在大规模的云端数据中心运行,其中许多收集了输入其提示输入的数据。然而,在支撑生成式人工智能应用的基础模型令人难以置信的快速发展中,这些担忧有很多已经得到解决。值得注意的是,现在有各种各样的开源模型可从市场上获得,如Hugging Face。许多这些开源模型可以在更合理的计算要求下非常有效地运行,例如在一个适当装备的内部数据中心。此外,一些大的科技公司已经开始改变关于他们的模型可以在哪里运行的规则,并且正在创建他们的模型的较小版本,为现场使用进行优化。
此外,我们已经看到一些公司,包括NVIDIA开始提供专门为企业应用设计的模型。NVIDIA的发展在多个层面上都很有趣。该公司与生成性人工智能密切相关,主要是因为其硬件。NVIDIA的GPU芯片为目前云计算中的大部分生成性人工智能应用和服务提供动力。在该公司3月份的最后一次GTC会议上,他们公布了一整套生成性人工智能相关的软件,包括特定行业的软件基础模型和以企业为中心的开发工具,特别是其NeMo大型语言模型(LLM)框架和用于过滤不需要的主题的NeMo Guardrails,令许多人感到惊讶。这些模型被优化为在NVIDIA硬件上运行。
Helix项目代表了戴尔和NVIDIA的合作努力,组装了一系列戴尔PowerEdge服务器系统。这些系统包括NVIDIA H100 GPU和NVIDIA的Bluefield DPU(数据处理单元,用于AI工作负载所需的服务器之间的高速互连)系列,并与NVIDIA的企业AI软件捆绑。
此外,戴尔从其PowerScale和ECS企业对象存储产品线中提供了几种不同的存储选项,为人工智能工作负载进行了优化。其结果是一个全面的解决方案,使企业能够开始建立或定制生成性人工智能模型。潜在客户可以使用NVIDIA的一个基础模型选项,或者如果他们愿意,可以从Hugging Face(或其他技术供应商的解决方案)中选择一个开源模型并开始这个过程。
捆绑的NVIDIA软件允许导入一个组织的现有数据语料库--从文件、客户服务聊天记录、社交媒体帖子等等--然后用它来训练一个新模型或定制一个现有模型。训练过程完成后还包括配套的运行推理和利用新训练的模型创建新的应用程序所需的工具。戴尔的捆绑服务还提供了一个蓝图,帮助企业在创建/定制这些模型和建立这些工具的过程中进行导航,同时还提供了一系列技术支持服务。
最重要的是,由于这项工作是在企业实体内部完成的,Project Helix可以帮助减轻许多公司--甚至那些已经开始使用生成性人工智能工具的公司--所担心的知识产权泄漏问题。
Project Helix的另一个显著好处是,它允许公司以更独特和个性化的方式利用生成性人工智能。虽然目前可用的通用工具无疑可以帮助处理某些类型的应用和环境,但大多数公司认识到,生成性人工智能的真正竞争优势在于定制。人们对将公司自己的数据纳入这些工具有相当大的兴趣,但对于究竟如何做到这一点,也有很多困惑。
将生成性人工智能的"简易工具包"放在一起,并不意味着许多组织在利用其数据和技术来创建他们所需的解决方案时不会面临挑战。关键是要记住,生成性人工智能背后的概念仍然非常新,它是一项极其复杂的技术。然而,通过捆绑必要的硬件和软件,这些硬件和软件已经过预先测试,可以一起工作,同时还有关于如何引导这个过程的信息,Project Helix似乎是一个有吸引力的选择,对那些渴望--或觉得有竞争性--潜入这个令人兴奋的新领域的组织来说。