ai red team

  1. Сергей Попов

    Статья AI пентест: как LLM-агенты ускоряют поиск уязвимостей и где ломаются на практике

    Начну интересно, с неудобной правды. Полтора года я интегрирую LLM-агенты в свой рабочий процесс - от разведки до написания PoC. И картина, которую вижу, кардинально отличается от маркетинговых обещаний. GPT-4 действительно умеет вещи, которые ещё два года назад казались фантастикой. Но он же...
  2. Сергей Попов

    Статья ИИ в пентесте: реальные техники использования LLM в атакующих операциях

    Без маркетинговой мишуры. Я последние полтора года интегрирую LLM в свои пентест-цепочки - от разведки до генерации PoC. Результат неоднозначный: в одних задачах LLM сокращает time-to-exploit в разы, в других - галлюцинирует и жрёт время впустую. Эта статья - конкретика: какие техники работают...
  3. Luxkerr

    Статья Red Team против AI-продукта: как тестировать безопасность LLM-сервиса

    AI Red Teaming для LLM‑продукта начинается с понимания простой вещи: модель почти никогда не является единственной точкой риска. Риск живёт в системе вокруг неё - в том, какие данные подмешиваются в контекст, какие инструменты доступны, как устроены права, и как ответы превращаются в действия...