Clarke Rodgers (00:10):
當您與客戶執行長和同行進行這種私人會議時,他們會問您哪些問題? 在安全性、隱私、合規性,以及我們看到的監管制度方面,他們會與您談論哪些話題? 您能讓我們了解一下這些對話內容嗎?
Adam Selipsky (00:28):
這些都是非常重要的對話,許多執行長真的非常關心這些話題,而這些話題引起了其中許多人的共鳴,也應該如此。我想我要指出一些事情,其中一個是,生成式 AI 當然是每個人最關注的議題。我們還有很多問題圍繞「在生成式 AI 的世界要如何考慮安全性」、「事情發展如此快」、「我應該使用哪些類型的應用程式或技術?」以及「我如何知道這是否安全,還有我該如何考慮公司內部的安全機制?」 答案的第一部分是
「您應該預期生成式 AI 的安全等級要與您所使用的任何其他服務完全相同。」
不知為何,人們在談論所有這些服務的企業安全時會出現這種分裂,然後,「哦,現在讓我們談談生成式 AI」。 有些最早的生成式 AI 聊天機器人或消費級助理,是在沒有安全模型的情況下就推出了,這確實是讓我非常震驚。而資料實際上是透過網際網路發佈,對模型的任何改進實際上都將與使用模型的每個人共用。這就是為什麼許多資訊長、資安長和執行長在很長時間內會禁止他們公司使用其中一些助理程式。
► 收聽播客:資料信任:AI 創新最重要的元素
但這讓我感到驚訝,因為我想去找注重安全的執行長、資訊長或資安長,並告訴對方:「嗨,我有這個超讚的全新資料庫服務,比其他服務都好。您會喜歡它!我真的認為您應該採用它。順便一提,它沒有連接安全模型,但不用擔心,因為我會提供 v2,然後就會安全了。」 各位一定知道,我接著會被掃地出門!
Clarke Rodgers (02:20):
沒錯。
Adam Selipsky (02:21)
至少我希望會這樣,應該要這樣。所以,我認為這個領域中的其他公司出於某種原因,我無法告訴您為什麼,在安全方面採取不同的方法,並在某種程度上認為這不太重要。而且我們在此相當可預測。我們的生成式 AI 服務,例如 Amazon Bedrock,這是用於作業基礎模型的託管服務,與任何其他 AWS 服務相比,安全性並未降低。
以上是關於生成式 AI 的第一種對話內容。然後還有一些其他主題,以及「如何將安全思維引入我的公司?」 我認為這可以回到文化。這回到了今天我和您討論的一些關於真正由上而下領導的事情,並從高層領導人傳遞訊息,表明這很重要。而且這個標準非常高。我經常為同事提供建議,大部分是關於堅持最高標準,人們需要了解安全標準有多高,以及絕不容忍除了這些最高標準以外的任何情況。