llm

  1. samhainhf

    Статья Промпт как вектор атаки: Тестирование безопасности LLM-интеграций в корпоративных приложениях

    Ты привык к классическим уязвимостям. SQL-инъекции, когда злоумышленник вставляет запрос в поле ввода. XSS, когда скрипт прячется в комментарии. Небезопасная десериализация, когда бинарные данные ломают приложение. Но что, если атака происходит не через бинарный эксплойт, не через символы и...
  2. Кудрин Евгений

    SecAI: защита ML и LLM-продуктов от prompt injection и data poisoning

    В мире, где каждая компания спешит встроить LLM в продукт, злоумышленники уже нашли слабые места. Две самые опасные атаки, с которых всё начинается, — Prompt Injection и Data Poisoning. Обычные фильтры и сканеры безопасности против них Эти уязвимости особенно опасны для продуктовых команд: они...
  3. ashakiro

    Pentest AI: запись на бету

    Всем привет Я тут сделал ассистента при пентестах, скоро хочу запускать бета тест https://recursivehack.com/PentestAI Если интересно, форма записи в гугл форме внутри. Буду рад ответить на вопросы если есть