nemo guardrails

  1. Кудрин Евгений

    SecAI: защита ML и LLM-продуктов от prompt injection и data poisoning

    В мире, где каждая компания спешит встроить LLM в продукт, злоумышленники уже нашли слабые места. Две самые опасные атаки, с которых всё начинается, — Prompt Injection и Data Poisoning. Обычные фильтры и сканеры безопасности против них Эти уязвимости особенно опасны для продуктовых команд: они...