Danielle Ruderman (02:14):
Acho que a terceira coisa que tem sido muito interessante é a promessa da IA de ajudar até mesmo profissionais de segurança maduros a se aprofundarem no que precisam fazer. Imagine que você está analisando logs e aprendendo a codificar em uma determinada linguagem, talvez Python, mas agora precisa analisar logs e aprender a escrever consultas SQL. A barreira é ter que aprender essas linguagens diferentes para fazer extrações. Você sabe onde estão os dados, mas precisa aprender a extraí-los com o código diferente. Imagine se pudesse simplesmente dizer à IA o que deseja fazer e quais dados reunir para análise, sem ter que aprender todos esses diferentes modelos de codificação esotérica.
Há muitas possibilidades que podem nos ajudar a acelerar o tempo das investigações e ajudar todos, dos profissionais de segurança juniores até os mais maduros, a trabalhar com mais rapidez.
Chris Rothe (02:58):
Em última análise, o grande desafio da segurança é que não há pessoas suficientes para esse trabalho. Por isso é tão importante o trabalho que a AWS está desenvolvendo em termos de tornar a plataforma e os serviços mais seguros, em cada detalhe possível.
De modo geral, queremos que todos na equipe da Red Canary usem a IA generativa de uma maneira que faça sentido para suas funções. Caso seja um vendedor que acabou de fazer uma ótima ligação com um cliente e precisa elaborar um e-mail de acompanhamento, vamos agilizar isso e melhorar a qualidade dessa comunicação. No final das contas, isso é melhor para o cliente e melhor para você, porque você demorou cinco minutos em vez de talvez uma hora.
Esta tem sido nossa abordagem: garantir que todos possam usá-la de maneira segura. Mas acho que estamos no início da jornada em termos de reconhecer as armadilhas e os desafios associados a elas. Que tipo de questões legais surgirão nos próximos anos em relação à IA generativa?