作为Google Cloud的产品副总裁,Michael Gerstenhaber主要负责Vertex AI,这是公司的统一平台,用于部署企业AI。他的工作让他能够从高层视角了解公司实际如何使用AI模型,并识别出仍需完成的工作,以释放自主式AI的潜力。
在采访中,Gerstenhaber提到一个我之前未曾听说过的观点:AI模型同时在三个前沿领域内推动着发展:原始智能、响应速度以及一种与其原始能力关系不大的成本质量——是否能够廉价部署到大规模且不可预测的运行规模中。这是一种新的思考模型能力的方式,并特别适合任何希望推动前沿模型发展方向的人。
以下是此次采访的简化版(已删减部分内容以确保长度和清晰度):
您能先为我们介绍一下您的AI经历以及在Google的工作内容吗?
我从事AI约两年时间。曾在Anthropic工作了1.5年,现在快半年了。我在运行Vertex AI,这是Google的开发者平台。我们的大多数客户都是工程师,他们正在构建自己的应用程序。他们需要访问自主式模式、自主式平台以及世界上最智能模型的推断功能。但我不提供这些应用本身,这些都是Shopify、Thomson Reuters和我们其他客户的领域。
是什么吸引了你加入Google?
我认为Google在世界上是独一无二的,因为它拥有从界面到基础设施的所有层面。我们可以建造数据中心、购买电力并建设发电站。我们有自己的芯片、模型以及控制推理层和自主式层的方式。我们还有API可以访问内存与交错代码写入,并且在顶部有一个确保合规性和管理的代理引擎。甚至我们还拥有Gemini企业版和Gemini聊天界面作为消费者使用的接口。
因此,我加入Google的部分原因是因为我认为它在垂直整合上是独一无二的优势。尽管公司之间存在差异,但感觉三大实验室的能力都非常接近。
这是一场追求更多智能的竞赛吗?还是更复杂呢?
我认为有三个界限:像Gemini Pro这样的模型专注于原始智能,比如编写代码时只需要得到最优质的代码,即使需要45分钟来生成,因为我必须对其进行维护并将其投入生产。再者是响应速度的问题,如果我在进行客户服务,并且需要知道如何应用一项政策,你需要智能来执行这项政策。我可以退货吗?我是否可以升级我的飞机座位?但如果答案不重要的话,那么等待45分钟就不再有帮助了。
最后,像Reddit或Meta这样的系统需要在全球范围内进行内容审核。他们拥有大笔预算,但如果没有明确的可扩展性,他们无法承担一种企业风险。因此,他们必须限制其预算在能够负担的最高智能水平上,并且这种规模是可以无限扩展的。
成本在这种情况下变得至关重要。我一直在思考为什么自主式系统迟迟未能普及。感觉这些模型已经存在了一段时间,并且我已经看到了令人惊叹的演示,但至今尚未看到一年前预期的重大变化。
您认为是什么阻碍了它的推广?
这项技术实际上只有两年历史,并且仍然缺少很多基础设施。我们没有审计自主式系统行为的模式、授权数据到代理的模式等等。这些需要投入生产的工作将需要额外的技术支持,而生产总是滞后于技术本身的发展。
推荐意见