AI大模型私有化部署加快 巨头争做“卖铲人”

最新信息

AI大模型私有化部署加快 巨头争做“卖铲人”
2023-08-28 13:54:00
在过去的200多天里,AI大模型从最初的框架构建,逐步走到落地阶段。然而,随着AI大模型深入到千行百业中,市场开始意识到通用大模型虽然功能强大,但似乎并不能完全满足不同企业的个性化需求。
  《中国经营报》记者注意到,大模型技术的安全性、解释性、易用性等综合指标正在成为此轮AI竞赛的关键,部分企业不再执着于大模型的开发,而把目光向生成式AI+多云、大模型的私有化部署上转移。
  急需“卖铲人”
  以认知大模型为代表的通用人工智能,在全球范围内引发了热潮。OpenAI、微软、谷歌等国际企业不断加码,国内更是掀起“千模大战”,众多高科技企业竞相投入研发。从科技部发布的《中国人工智能大模型地图研究报告》来看,全球已发布的大模型中,中国和美国大幅领先,超过全球总数的80%。
  与此同时,大模型也被视为推动企业转型的新引擎。中国工程院院士邬贺铨表示:“我们需要深入思考大模型的应用方向,要将大模型切实投入到城市发展、金融科技、生物医药、工业制造、科学研究等领域,也需要专业的企业和组织加速其在实体产业落地,为产业刚需带来实实在在的大价值,去真正意义大规模服务社会。”
  日前,麦肯锡发布《生成式人工智能的经济潜力:下一波生产力浪潮》报告显示,如果将分析的63种生成式AI应用于各行各业,将为全球经济每年带来2.6万亿至4.4万亿美元的增长。这一预测还未将所有的生成式AI应用计算在内,若将尚未研究的应用计算在内,生成式AI所产生的经济影响可能会翻倍。
  理想是美好的,但在大模型具体落地的过程中,更多的企业意识到构建、训练大模型基座所必需的算力和工具体系,或者说需要一把“铲子”或工具助手,才能让企业在大模型的生态沙池中挖出适合自己的AI矿石。
  VMware首席执行官Raghu Raghuram对记者表示:“企业在使用生成式AI时面临着艰难的选择。虽然它们可以使用公共AI模型构建自己的生成式AI应用,但随之而来的风险是数据暴露和不确定的训练来源。它们也可以尝试‘自己动手’,但这个办法既不经济,实现价值的时间又长。企业只有能够在训练、定制和提供AI模型时保护数据隐私并最大程度地降低知识产权风险,才能充分挖掘生成式AI的巨大潜力。”
  生成式AI+多云
  为了向大模型客户提供高稳定性和高性价比的AI基础设施,生成式AI+多云的模式成为科技厂商们新的角力点。云被看作是AI的承载,而AI也是云的核心抓手,开展大模型所需要的算法、算力和数据等能力,以及覆盖IaaS、PaaS、MaaS的解决方案。
  近日,VMware 推出Intelligent Assist、Private AI架构方案。在此之前,阿里云提出了“Model as a service”的概念,亚马逊云科技推出了包括Amazon Bedrock和Amazon Titan模型等生成式AI新工具。
  Raghu表示:“生成式AI与多云可谓珠联璧合。客户的数据无处不在,遍布其数据中心、边缘、云等多处。我们将与NVIDIA一同助力企业放心地在数据附近运行生成式AI工作负载,并解决其在企业数据隐私、安全和控制方面的问题。”
  NVIDIA创始人兼首席执行官黄仁勋表示:“我们能够训练AI模型,微调AI模型,为了跨多个GPU部署AI模型和大语言模型,特别是大语言模型,一台计算机运行不了,必须将其分配到多机多卡上,并对其进行推理、生成token,实现交互,其速度可媲美人类日常交互。”
  同时他表示,通过与VMware扩大合作,我们将能够为金融服务、医疗、制造等领域的成千上万家客户提供其所需的全栈式软件和计算,使其能够使用基于自身数据定制的应用,充分挖掘生成式AI的潜力。
  据悉,Private AI由一套集成式AI工具组成,能够使企业自定义模型并运行各种生成式AI应用,如智能聊天机器人、助手、搜索和摘要等。该平台将作为全集成式解决方案,采用NVIDIA提供的生成式AI软件和加速计算,基于VMware Cloud Foundation构建,并针对AI进行了优化。
  VMware AI Labs副总裁Chris Wolf对记者表示:“最开始,AI是由一部分数据科学家为方便其他的数据科学家而构建和设计的。随着全新VMware Private AI产品的推出,VMware正在让计算和AI模型的选择更加贴近数据,从而使未来的AI服务于企业中的每一个人。”
(文章来源:中国经营网)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

AI大模型私有化部署加快 巨头争做“卖铲人”

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml