Paul Vixie(11:10):
您必须拨开炒作迷雾,审问:“待一切尘埃落定,会是什么样子?” 在某些情况下,我们没有头绪。这是一项崭新的技术,许多硬件和软件都在为此而精心设计。除非由制造商以外的人使用工具,否则永远无法知晓工具到底会产生什么影响。如果要拿扳手当榔头,那并不是扳手制造商的本意;但在某些情况下可能有效。
我们尚未看到强有力的迹象表明,一旦炒作周期结束,还有其他内容会成为头条新闻。话虽如此,至少在过去的十几年里,我们亚马逊一直在研究、开发和部署基于人工智能的解决方案。所以,这并未令我们感到非常惊讶。
我们已经举了一个例子,那就是 CodeWhisperer 系统使用生成式人工智能技术,但看起来与头条新闻完全不一样。我在各种系统中都看到了这种情况。例如,当进行异常检测时,您查看来自系统的遥测流,看到的要么是表明可能出现问题的事件,要么是可能表明有人在攻击您的事件。现在有了这项技术,就有可能更好地交叉关联它们。再说一遍,我觉得我们只看到了 1% 的可能性。
一方面我鄙视炒作周期,希望我们能从一开始就认真对待;但我也明白这里确实有一些优点。我正在与 AWS Security 内部的一些团队合作,他们正试图回答这个确切的问题:“既然我们可以普遍使用并普遍理解,那么我们能做些什么来更好地为客户提供服务?”
Clarke Rodgers(13:14):
那么,是用生成式人工智能工具从技术角度帮助人类安全从业者完成很多繁重的工作?
Paul Vixie(13:25):
是的,我并不是说这是一个产品插件,但是亚马逊在云方面取得的最大成功一直是我们支持客户采用和构建的工作流程。而我们在大型语言模型领域中做的第一件事就是 Bedrock。具体理念是,如果您想使用大型语言模型,您是否也想支付训练费用? 您想构建模型吗?
因为这可能需要花费数千小时或数万小时非常昂贵的计算机时间来完成。而且,如果有各种预建模型,而且它们都以菜单形式提供,则可以选择需要的模型,但不必付费即可将其复制到自己的系统中,只需将逻辑放到 VPC 中,或者可以在我们的云环境中做任何事情,这些环境可以直接访问知道他们可以访问这些订阅模型的 API。
因此,最初的前提(我当时不知道,我来这里之后才知道),云计算的前提是有一个弹性的计算量,需要多少就有多少,再加上一个弹性的存储量,需要多少就有多少,没有访问限制,这才是我们发展壮大的原因。现在,我们刚刚在生成式人工智能内部复制了这一点,这样那些在自己的市场领域雄心勃勃的人就可以使用我们的云和 LLM,来完成他们一直在没有 LLM 的情况下使用我们的云所完成的事情。我们对此喜闻乐见。我喜欢这一点,因为它的真正力量将是我们的客户用它做了什么。
Clarke Rodgers(15:13):
客户从他们多年来使用的所有安全工具以及其他方面建立了这种信任,现在对于 Bedrock 等工具以及未来可能出现的任何其他工具也同样如此。
Paul,非常感谢您今天参与讨论。
Paul Vixie(15:26):
很棒的讨论。再次感谢您的邀请。