[微软] 微软财报会精华版:纳德拉锐评中国 AI 局势
纳德拉:从某种意义上讲,AI的发展与常规计算周期类似,都涉及到优化和提高效率的问题。在摩尔定律、缩放定律的推动下,AI的性能正在逐步提升,而成本则在下降。尤其是在推理领域,软件优化带来了每个周期10倍的性能提升。我认为,DeepSeek的确有一些创新成果,部分成果也出现在OpenAI的o1模型中。这些成果都已商品化,并且会得到广泛应用,而在这样的软件发展周期中,最大的受益者就是客户。
从客户服务器模式到云计算转变的过程,其实是更多的人购买了服务器,只不过这些服务器换成了“云”。随着token价格下降,推理计算的成本也随之降低,这意味着人们可以使用到更多的计算资源,也会有更多的应用程序开发出来。到了2025年年初,个人电脑上也能运行曾经需要庞大基础设施支持的模型。这意味着AI应用会变得更加无处不在,而微软作为超大规模云服务提供商和PC平台提供商,正处于这一变革的前沿。
问:微软参与星际之门项目及其与OpenAI关系调整的战略决策,对未来几年资本支出有何影响?
纳德拉:微软与OpenAI的合作关系非常成功,Azure业务得到了强力支持,目前确认的只是合作的初步成果,未来还会有更多好处。微软正在构建灵活且兼容的计算资源体系,以确保训练和推理之间达到恰当的平衡,并实现地理分布式布局。同时,微软致力于通过软件优化,并利用Deepseek所取得的成果,降低GPT模型的推理成本。在推理优化方面,降低成本是推动AI业务增长的关键,且不应过度采购资源,因为摩尔定律每年会提升性能,而优化可带来10倍的提升。
问:微软Copilot系列后续发展如何,将如何整合产品并推广以满足客户多样化需求?
纳德拉:微软最近发布了两项重要更新。首先,微软推出了微软365 Copilot Chat企业AI助手服务,并广泛部署到所有已安装产品中,用户可以通过 IT 部门开启这一功能,大家可以立即开始使用具备企业控制功能的网页聊天服务。此外,该功能内置了Copilot Studio,这意味着我们可以开始构建智能体。结合完整的 Copilot,这是一个不错的组合,它将加速席位使用量的增长和智能体的构建。
其次,在消费者一端,微软发布了Copilot的Think Deeper功能,由OpenAI o1模型提供技术支持,并且在全球范围内可用。由此可见,推理优化和成本降低使得一些原本高端的功能得以更广泛应用,这一趋势也在GitHub Copilot和Security Copilot等产品中得到体现。
问:在Azure上运行的推理任务中,专有模型与开源模型各自所占的比例有多大?这对微软有何影响?
纳德拉:在任何应用中,通常都会使用多种不同的模型。例如,Copilot或GitHub Copilot背后就有许多不同的模型,包括构建、微调和蒸馏的模型,其中一些可能会被蒸馏成开源模型。因此,未来将会是多种模型的结合。拥有前沿模型非常重要,因为开发者总是希望用最好的模型来构建应用,并在此基础上进行优化。随着时间的推移,初始的成本结构(COGS)也会改变,因为开发者会持续优化延迟和成本,并在不同模型下进行调整。
为了管理这些复杂性,新的应用服务器需要具备强大的能力。微软正在大量投资于Foundry,以确保应用开发者能够跟上不断涌现的模型趋势,使应用能够持续受益于创新,同时避免过高的开发或运维成本(如AIOps成本)。微软也在大力投资于应用服务器,确保任何工作负载都能从不同的模型中受益,无论是开源、闭源还是不同权重级别的模型。同时,从运维角度来看,这会让你的工作更快、更轻松。
问:Copilot在哪些领域表现强劲?常见使用场景是什么,为何有巨大的未来盈利潜力?
纳德拉:我认为最初的席位分配是针对那些更相信即时生产力的部门,比如销售团队、财务或供应链部门,这些地方有很多像 SharePoint 这样的数据,用户希望能够结合网络数据使用,并产生有益的结果。但随后发生的情况,非常像我们在上一代生产力工具中看到的那样,人们开始跨部门、跨职能协作。例如,在我自己的日常习惯中,我会使用聊天功能,通过工作标签获取结果,然后立刻通过页面分享给同事。我称之为“用 AI 思考,与人协作”。这种模式要求你在整个企业中更广泛地推广它。
这也是我们目前所看到的,虽然它可能从部门层面开始,但快速的协作效应会推动它在整个组织中推广。你可以按团队或其他方式进行部署。我们甚至通过将Copilot Chat与其他功能结合使用,进一步简化了这一过程,为企业客户提供了更大的灵活性,让这一工具在企业中更加普及。


分享: |
注: | 在此页中阅读全文 |