Кларк Роджерс:
Это прекрасно! Учитывая скорость развития технологий и, конечно же, существующие инструменты на базе генеративного искусственного интеллекта, каким вы видите будущее Операционного центра безопасности? Не знаю, можете ли вы рассказать, используете ли вы сегодня или планируете использовать какие-либо инструменты на базе генеративного искусственного интеллекта либо исследуете их возможности, но как, по вашему мнению, они могут помочь вашим аналитикам Операционного центра безопасности и другим специалистам? Как, по вашему мнению, злоумышленники могут использовать эти технологии и что вы делаете для их выявления или нейтрализации?
Том Авант:
Мы начинаем использовать генеративный искусственный интеллект для создания автоматических ответов для некоторых наших клиентов. Кроме того, мы рассматриваем возможность автоматизации рабочих процессов, чтобы подойти к вопросу так: «Хорошо, мы знаем, что это обычные рабочие процессы, основанные на наших метриках, которые клиенты ищут чаще всего. Как нам интегрировать получаемые данные и сразу применять их в решениях, которые нужны нашим клиентам? И если в этих случаях не требуется человеческое участие, почему бы полностью не исключить человека из этой цепочки?». Именно над этим мы сейчас работаем.
Кларк Роджерс:
Потрясающе! А что происходит с точки зрения злоумышленника?
Том Авант:
Взгляд со стороны злоумышленников – это действительно интересная тема. Это своего рода новое поле деятельности. Вы слышите так много нового о внедрении в… Люди хотят попробовать эту технологию и начинают скачивать все, что находят на разных веб-сайтах. В половине случаев они даже не знают, что скачивают. Вам не нужны люди, которые бездумно ринутся в горящий дом. Сначала вам нужно оценить масштаб пожара и найти наилучшую точку входа.
То же самое происходит, когда мы говорим о генеративном искусственном интеллекте. С какой стороны безопаснее всего войти? Как обеспечить проверку использования перед внедрением? Какие проверки можно выполнить в фоновом режиме, чтобы с уверенностью заявить: «Да, это действительно то, что нужно», прежде чем продвигать свое решение дальше. Ведь если ошибка будет выявлена на этапе распространения, вам придется устранять ее последствия и пытаться остановить этот процесс. А для тех из нас, кто уже занимался таким раньше, это далеко не самое приятное занятие. Поэтому перед внедрением обязательно нужно провести предварительные проверки.
► Прочтите отчет об исследовании: «Обеспечение безопасности генеративного искусственного интеллекта: что важно сейчас»
И, как мне кажется, есть еще одна связанная с этим угроза, которая пока встречается нечасто, – это соблюдение норм. Это, пожалуй, одна из наиболее заметных тенденций, которую я отмечаю по мере увеличения количества рабочих нагрузок и клиентов, переходящих в облако. Мы переходим во все больше различных сред и охватываем больше стран. Мы наблюдаем увеличение количества суверенных облаков в разных местах. И сейчас действительно нужно подумать о соблюдении норм. Раньше этому уделяли мало внимания, а теперь это один из основных пунктов наших обсуждений. Прежде чем двигаться дальше, нам нужно понять, как соблюдать требования, продолжать приносить пользу клиентам, при этом соблюдая требования и сообщая об этом.
Кларк Роджерс:
Думаю, это невероятная тенденция, которую я тоже заметил. Раньше мы могли говорить о безопасности, заложенной на этапе проектирования, правильно? Включать аспекты безопасности еще на стадии создания концепции или прототипа. А сейчас это звучит так: «Ах, да, еще нужно предусмотреть конфиденциальность, соответствие нормативным требованиям и регуляторные обязательства».
Том Авант:
Конечно.
Кларк Роджерс:
Я рад, что люди обращают на это внимание, что это все активнее интегрируется в стек, и когда дело доходит до выпуска, все согласуется с требованиями.
Том Авант:
Конечно.
Кларк Роджерс:
Что ж, это было потрясающе, Том. Признателен вам за уделенное сегодня время. Спасибо.
Том Авант:
Спасибо, что пригласили. Я тоже очень признателен.