Комментарии 2
Звучит не очень впечатляюще, но это на целых 15% больше, чем было бы исправлено без ее помощи
Во-первых, на 15 процентных пунктов. Во-вторых, не верно считаете. Модель создала патчи на все уязвимости, из которых 85% было отсеяно. Если бы программисты писали бы патчи сами вместо того, чтобы отсеивать шлак созданный машобучем, они бы закрыли, Х% уязвимостей. Так что это не на 15 процентных пунктов больше, а на ( 15 - Х ) процентных пунктов больше. Или меньше, если Х > 15.
Справедливое замечание. Вообще вопрос эффективности нейронок в этом сценарии остается открытым, пока я готовил текст к публикации, вышла еще пара интересных исследований. В одной система команды Project Zero Google нашла уязвимость в SQLite, которую чуть не пропустили в релиз.
А еще вышла любопытная статья от группы китайских ученых про исправление кода без локализации ошибок. Потенциально подход может повысить КПД моделей в этой задаче.
Информация
- Сайт
- bastion-tech.ru
- Дата регистрации
- Дата основания
- 2014
- Численность
- 201–500 человек
- Местоположение
- Россия
- Представитель
- Игорь Santry
AI на фронтире кибервойны. Как LLM меняют ИБ-ландшафт