Недавно я почитал про будущих ИИ-хакеров (ИИ-агенты на базе рассуждающих моделей, натренированные для взлома систем) и понял, что проблема намного больше, чем «станет больше кибератак». Это уже не выглядит фантазией. OpenAI прямо пишет, что готовится к моделям уровня, способного создавать рабочие zero-day-эксплойты против хорошо защищённых систем или существенно помогать в сложных скрытных вторжениях и уже показывает оборонительную версию той же идеи: их agentic security researcher Aardvark ищет уязвимости в кодовых базах, предлагает патчи и уже находил новые CVE. Anthropic и другие лидеры отрасли также ведут работу в этом направлении и уже демонстрируют сильные результаты по части обнаружения уязвимостей в кодовых базах.
Главная проблема тут не в том, что ИИ начнёт взламывать лучше человека. Главная проблема в другом: он почти обнулит стоимость ещё одной попытки атаки.
До сих пор интернет держался на простом, хотя и неявном компромиссе. Да, системы ломали, деньги крали, базы утекали, людей фишили. Но хорошая атака всё ещё стоила дорого. Чтобы реально атаковать сложные системы, нужны были люди, квалификация, время, инфраструктура, терпение. Защитник не обязан был быть идеальным. Ему часто было достаточно сделать атаку слишком сложной, слишком долгой или слишком дорогой.
ИИ меняет именно это.
Он не просто помогает писать код или искать баги. Он удешевляет всю цепочку: поиск поверхности атаки, перебор гипотез, написание и адаптацию эксплойтов, анализ ошибок, обход защит, повторные попытки, смену тактики, масштабирование сработавшего сценария на тысячи целей. Не получилось с первого раза - попробует со второго, с сотого, с тысячного. Без усталости. Без дефицита специалистов. Почти без предельной стоимости каждой новой попытки.