Големите AI платформи засилват защитата срещу кражба на модели (model theft)
OpenAI и Microsoft въвеждат по-строги технически и организационни мерки за защита на своите модели и инфраструктура, докато NIST официално определя „model theft“ като ключов риск за foundation моделите. Това е директен сигнал, че защитата на LLM екосистемите вече е стратегически приоритет, а не само технически детайл.
Какво се случи
През 2025 г. няколко ключови развития извадиха на преден план кражбата на модели като реален бизнес и национален риск:
OpenAI засилва вътрешната сигурност
През юли 2025 г. OpenAI въвежда много по-строги мерки за вътрешна сигурност, след притеснения за индустриален шпионаж и опити конкуренти да копират моделите чрез техники като „distillation“ и извличане на знания през API.
Сред мерките са по-строго сегментиране на достъпа („tenting“ на екипи и проекти), биометрична автентикация за чувствителни лаборатории, „deny-by-default“ мрежов достъп и частично air-gap изолиране на критични системи.Microsoft картографира AI атаки, включително model theft, и предлага конкретни контроли
През октомври 2025 Microsoft публикува подробен „AI Security Ideogram“ – практическа рамка за защита на GenAI приложенията и моделите. В нея model theft е изрично посочен като сценарий на атака както за OpenAI-базирани, така и за други LLM модели, с препоръчани защити като Private Link, Content Safety/Prompt Shield, Defender for AI и твърдо управление на регистри и CI/CD за модели.NIST формализира „управление на риска от model theft“ като цел
В черновата NIST AI 800-1 за управление на риска при foundation модели, „Manage the risks of model theft“ е посочена като една от седемте основни цели за безопасно внедряване на такива модели – редом с предотвратяване на злоупотреби за кибератаки, CBRN заплахи и др.
Комбинацията от тези три посоки – вътрешна сигурност (OpenAI), облачни контроли и инструменти (Microsoft) и регулаторна рамка (NIST) – показва, че model theft вече се третира като първокласен риск, а не като „екзотична“ тема за ресърч.
Какво представлява „model theft“ на практика
Под model theft се включват няколко типа атаки:
директен достъп до weights и артефакти на модела (чрез пробив или грешна конфигурация);
кражба на модел през supply-chain/CI-CD pipeline или compromise на model registry;
„extraction/distillation“ – обучаване на конкурентен модел, който копира поведението на оригинала чрез масови заявки към API;
изтичане на чувствителни prompt-ове, системни инструкции и вътрешни инструменти през компрометирани агенти или интеграции.
Това не е само технически проблем – кражбата на модел или pipeline е директен удар върху:
интелектуална собственост (IP);
конкурентно предимство;
сигурността на данните и API-ключовете, чрез които работят моделите;
доверието на клиенти и регулатори.
Как реагират OpenAI и Microsoft
OpenAI
Освен вътрешното „затягане“ срещу IP theft, OpenAI започва да адресира и конкретни експлоити по веригата – например zero-click уязвимости в агенти, които могат да доведат до тихо източване на данни.
Фокусът е върху:
строга сегментация на екипи и проекти;
минимизиране на достъпа до код, weights и инфраструктура;
по-силен мониторинг за аномалии и масови заявки, наподобяващи опити за extraction.
Microsoft
Microsoft позиционира защитата срещу model theft като част от по-широкия „Secure AI“ стек:
Azure AI Content Safety / Prompt Shields за намаляване на prompt-injection и „tool-based“ exfiltration;
Private Link, Key Vault, RBAC-защитени workspaces и регистри за защита на данните и артефактите на моделите;
Defender for AI и Defender for Cloud за мониторинг, alert-и и лов на аномалии в AI натоварванията;
интеграция със Sentinel и Defender XDR за корелация на сигнали от AI слой с останалата инфраструктура.
На практика това означава, че model theft вече се разглежда като още един клас заплаха в SOC/XDR контекста – със собствени аларми, playbook-и и hunting сценарии.
Какво означава това за организациите
За компаниите, които използват LLM и GenAI (независимо дали през Azure OpenAI, други доставчици или вътрешни модели), основните изводи са:
Моделът и pipeline-ът са критични активи – защитата им трябва да се планира наравно с бази данни, идентичности и ключови бизнес приложения.
API-тата към моделите са високо-рискови точки – нужни са rate limiting, аномален мониторинг, защита на ключове и разделяне на средите.
Prompt-инжекции и интеграции с външни инструменти (агенти, RAG, автоматизации) могат да станат канал за изтичане на IP, дори без директен достъп до weights.
Регулации и стандарти като NIST AI 800-1 започват да изискват доказуеми контроли срещу model theft – това ще става все по-важно при одити и сертификации.
DIAMATIX Perspective
В DIAMATIX виждаме model theft като хибриден риск – комбинация от:
класическа киберсигурност (мрежи, идентичности, CI/CD, облак);
нови AI-специфични заплахи (prompt-инжекции, агенти, RAG вериги, model extraction).
В нашите MDR и XDR ангажименти за клиенти, които използват GenAI, фокусът ни включва:
наблюдение на AI-свързани услуги (Azure AI, Azure OpenAI, други облачни AI платформи) като част от общата видимост в Shield SIEM/XDR;
лов на аномалии в API-употребата – масови заявки, необичайни модели на използване, подозрителни източници;
защита на ключове и идентичности чрез интеграция с IAM, vault-ове и CI/CD контроли;
playbook-и за реагиране при подозрение за model theft или pipeline компрометиране – от първоначално изолиране до форензика и подобряване на контролите.
Нашата цел е организациите да могат да внедряват и мащабират AI, без да жертват контрол над моделите, данните и веригите за стойност.
Източници:
SiliconANGLE – OpenAI tightens internal security amid fears of IP theft by Chinese AI rivals.
Microsoft Tech Community – AI Security Ideogram: Practical Controls and Accelerated Response with Microsoft.
NIST AI 800-1 (Initial Public Draft) – Managing Misuse Risk for Dual-Use Foundation Models (objective: “Manage the risks of model theft”).
ThreatDown (Malwarebytes) – analysis of a zero-click vulnerability affecting a ChatGPT agent (“Deep Research”).
Готови ли сте да направите следващата стъпка за защитата и спокойствието на Вашия бизнес?
Вижте как MDR 360° осигурява непрекъснато откриване, реакция и съответствие в реално време.
→ Заявете MDR 360° демо
Абонирайте се за най-новите актуализации и анализи
Получавайте актуални новини и експертни анализи за киберсигурност




