Paul Vixie (11:10):
我們必須拋開過度的炒作,並思考:「當熱潮退去後,這項技術的真正價值會是什麼?」 在某些情況下,我們難以判斷。這是相當新的技術,很多人正在為其打造硬體和軟體。而直到一項工具被創作者以外的人使用,我們才能真正了解其影響力。就好比你把扳手當成錘子使用,這可能並非扳手製造商的本意,但或許能在某些情況下奏效。
我們尚未看到強烈的跡象顯示,在炒作週期結束、其他搶佔頭條新聞的事物出現後,生成式 AI 能真正實現哪些可能性。話雖如此,Amazon 至少在過去十多年來一直在進行 AI 解決方案的研究、開發及部署。所以,生成式 AI 對我們而言並非完全陌生的領域。
我們已經有一個範例,就是 CodeWhisperer 系統,它使用了生成式 AI 技術,但與近期備受矚目的應用有著截然不同的樣貌。我認為這種情況會在各式各樣的系統上發生。例如,執行異常偵測時,您會查看系統的遙測流程,您會查看表示問題可能出現或有人可能正攻擊您的事件。現在藉由生成式 AI,即可進一步交叉比對這些資訊。我要再次強調,目前我們所看到的只是未來可能性的冰山一角。
因此,一方面我鄙視炒作週期,希望我們從一開始就能認真對待這項技術,但另一方面我也明白其確實擁有真正的潛力。我正在與 AWS Security 內部的一些團隊合作,他們試圖回答這個確切的問題:「既然生成式 AI 已普遍可用且受到一定程度的理解,我們能如何進一步服務客戶?」
Clarke Rodgers (13:14):
那麼,從技術角度來看,企業是否能運用生成式 AI 協助安全從業人員處理大量繁瑣的工作呢?
Paul Vixie (13:25):
是的,我並非要將此作為產品宣傳,但 Amazon 在雲端方面最大的成功,一直都是我們協助客戶採用和建置的工作流程。因此,我們在大型語言模型領域率先推出的服務之一就是 Bedrock。核心概念在於,如果你想使用大規模語言模型,那你是否也願意支付訓練成本? 你希望自己建立模型嗎?
因為這可能需要數千或上萬小時的昂貴電腦時間才能完成。若能提供多樣化的預先建置模型,讓使用者可以從功能表上挑選所需模型,而無須支付將模型複製到自有系統的費用,則即可直接在 VPC 或在 AWS 雲端環境執行的任何專案中,放置能直接存取 API 的邏輯,而這些 API 知道它們有權存取這些訂閱模型。
因此,當時我並不知道最初的成功條件,是來到這裡後才學會的。雲端之所以能成功是因為它擁有彈性運算容量,因此,無論你真正需要多少運算容量、多少彈性儲存容量,你都能在沒有存取罰則的前提下取得這些,這就是我們發展到如此大規模的訣竅。現在我們在生成式 AI 上複製了這個成功模式,讓各領域中富有企圖心的使用者能在我們的雲端服務和 LLM 的結合下,完成他們一直以來在沒有 LLM 的情況下,利用我們的雲端完成的工作。我們很喜歡這樣。我喜歡這樣,因為這項技術的真正威力將來自於客戶如何運用它。
Clarke Rodgers (15:13):
而且,客戶對多年來使用的所有安全工具及其他方面的信任早已建立起來,現在可以延伸到 Bedrock 等工具,以及其他未來可能出現的新產品。
Paul,非常感謝您參加我們今天的訪談。
Paul Vixie (15:26):
很開心與您交談。再次感謝您邀請我。