Danielle Ruderman (02:14):
Penso che il terzo aspetto molto interessante sia la promessa dell'IA di aiutare anche i professionisti della sicurezza esperti a capire cosa devono fare. Immagina che tu debba analizzare i log e abbia imparato a programmare in un determinato linguaggio, magari Python, ma ora ti accingi ad analizzare i log e a imparare a scrivere query SQL. L'ostacolo è dover imparare questi diversi linguaggi da estrarre. Sai dove si trovano i dati, ma devi imparare a estrarli con il codice diverso. Immagina se potessi semplicemente dire all'IA cosa vuoi fare e quali dati vuoi raccogliere per fare la tua analisi, senza dover imparare tutti questi diversi modelli di codifica esoterici.
C'è una grande spinta che può davvero aiutarci a velocizzare i tempi delle indagini e aiutare davvero tutti, a partire dai nostri professionisti della sicurezza junior fino ai nostri professionisti molto esperti, a svolgere il proprio lavoro più velocemente.
Chris Rothe (02:58):
La grande sfida nel campo della sicurezza, in definitiva, è che non c'è abbastanza personale a disposizione. Ecco perché è così importante il lavoro svolto da AWS nel rendere la piattaforma e i servizi più sicuri, passo dopo passo.
In generale, vogliamo che tutti i membri del team di Red Canary utilizzino l'IA generativa in un modo coerente ai rispettivi ruoli. Se sei un addetto alle vendite e hai appena avuto un'ottima conversazione telefonica con un cliente e hai bisogno di preparare un'e-mail di follow-up, velocizziamo il processo e miglioriamo la qualità della comunicazione. Perché, in fin dei conti, è la cosa migliore per il cliente e per te, perché ci sono voluti cinque minuti invece di, forse, un'ora.
Il nostro approccio è stato questo: assicurarci che tutti possano utilizzarla in modo sicuro. Ma penso che siamo all'inizio in termini di apprendimento su quali sono le insidie e quali sono le sfide ad essa associate? Che tipo di questioni legali emergeranno nei prossimi anni in relazione all'IA generativa?