Осторожно: AI-инструменты могут быть отравлены через подсказки
29.12.2025 04:23:20

Перефразированная новость:

Основатель компании SlowMist Юйсянь предупредил об угрозе безопасности при использовании ИИ-инструментов. Речь идёт об атаках с использованием отравленных промптов (подсказок) в таких компонентах, как agents.md, skills.md или MCP. Уже зафиксированы реальные случаи таких атак.

Эксперт пояснил, что если в инструменте активирован опасный режим, он может получить полный автоматический контроль над компьютером пользователя без каких-либо подтверждений. Если же опасный режим отключён, то для каждого действия система будет запрашивать разрешение пользователя, что, однако, может снизить удобство и эффективность работы.