Contacts
Book a Meet
Close

Контакти

Каварна, България
Рияд, Саудитска Арабия

+359 875 328030

sales@diamatix.com

Големите AI платформи засилват защитата срещу кражба на модели (model theft)

54172

Големите AI платформи засилват защитата срещу кражба на модели (model theft)

OpenAI и Microsoft въвеждат по-строги технически и организационни мерки за защита на своите модели и инфраструктура, докато NIST официално определя „model theft“ като ключов риск за foundation моделите. Това е директен сигнал, че защитата на LLM екосистемите вече е стратегически приоритет, а не само технически детайл.

Какво се случи

През 2025 г. няколко ключови развития извадиха на преден план кражбата на модели като реален бизнес и национален риск:

  • OpenAI засилва вътрешната сигурност
    През юли 2025 г. OpenAI въвежда много по-строги мерки за вътрешна сигурност, след притеснения за индустриален шпионаж и опити конкуренти да копират моделите чрез техники като „distillation“ и извличане на знания през API.
    Сред мерките са по-строго сегментиране на достъпа („tenting“ на екипи и проекти), биометрична автентикация за чувствителни лаборатории, „deny-by-default“ мрежов достъп и частично air-gap изолиране на критични системи.

  • Microsoft картографира AI атаки, включително model theft, и предлага конкретни контроли
    През октомври 2025 Microsoft публикува подробен „AI Security Ideogram“ – практическа рамка за защита на GenAI приложенията и моделите. В нея model theft е изрично посочен като сценарий на атака както за OpenAI-базирани, така и за други LLM модели, с препоръчани защити като Private Link, Content Safety/Prompt Shield, Defender for AI и твърдо управление на регистри и CI/CD за модели.

  • NIST формализира „управление на риска от model theft“ като цел
    В черновата NIST AI 800-1 за управление на риска при foundation модели, „Manage the risks of model theft“ е посочена като една от седемте основни цели за безопасно внедряване на такива модели – редом с предотвратяване на злоупотреби за кибератаки, CBRN заплахи и др.

Комбинацията от тези три посоки – вътрешна сигурност (OpenAI), облачни контроли и инструменти (Microsoft) и регулаторна рамка (NIST) – показва, че model theft вече се третира като първокласен риск, а не като „екзотична“ тема за ресърч.

Какво представлява „model theft“ на практика

Под model theft се включват няколко типа атаки:

  • директен достъп до weights и артефакти на модела (чрез пробив или грешна конфигурация);

  • кражба на модел през supply-chain/CI-CD pipeline или compromise на model registry;

  • „extraction/distillation“ – обучаване на конкурентен модел, който копира поведението на оригинала чрез масови заявки към API;

  • изтичане на чувствителни prompt-ове, системни инструкции и вътрешни инструменти през компрометирани агенти или интеграции.

Това не е само технически проблем – кражбата на модел или pipeline е директен удар върху:

  • интелектуална собственост (IP);

  • конкурентно предимство;

  • сигурността на данните и API-ключовете, чрез които работят моделите;

  • доверието на клиенти и регулатори.

Как реагират OpenAI и Microsoft

OpenAI
Освен вътрешното „затягане“ срещу IP theft, OpenAI започва да адресира и конкретни експлоити по веригата – например zero-click уязвимости в агенти, които могат да доведат до тихо източване на данни. 
Фокусът е върху:

  • строга сегментация на екипи и проекти;

  • минимизиране на достъпа до код, weights и инфраструктура;

  • по-силен мониторинг за аномалии и масови заявки, наподобяващи опити за extraction.

Microsoft
Microsoft позиционира защитата срещу model theft като част от по-широкия „Secure AI“ стек:

  • Azure AI Content Safety / Prompt Shields за намаляване на prompt-injection и „tool-based“ exfiltration;

  • Private Link, Key Vault, RBAC-защитени workspaces и регистри за защита на данните и артефактите на моделите; 

  • Defender for AI и Defender for Cloud за мониторинг, alert-и и лов на аномалии в AI натоварванията; 

  • интеграция със Sentinel и Defender XDR за корелация на сигнали от AI слой с останалата инфраструктура. 

На практика това означава, че model theft вече се разглежда като още един клас заплаха в SOC/XDR контекста – със собствени аларми, playbook-и и hunting сценарии.

Какво означава това за организациите

За компаниите, които използват LLM и GenAI (независимо дали през Azure OpenAI, други доставчици или вътрешни модели), основните изводи са:

  • Моделът и pipeline-ът са критични активи – защитата им трябва да се планира наравно с бази данни, идентичности и ключови бизнес приложения.

  • API-тата към моделите са високо-рискови точки – нужни са rate limiting, аномален мониторинг, защита на ключове и разделяне на средите.

  • Prompt-инжекции и интеграции с външни инструменти (агенти, RAG, автоматизации) могат да станат канал за изтичане на IP, дори без директен достъп до weights.

  • Регулации и стандарти като NIST AI 800-1 започват да изискват доказуеми контроли срещу model theft – това ще става все по-важно при одити и сертификации. 

DIAMATIX Perspective

В DIAMATIX виждаме model theft като хибриден риск – комбинация от:

  • класическа киберсигурност (мрежи, идентичности, CI/CD, облак);

  • нови AI-специфични заплахи (prompt-инжекции, агенти, RAG вериги, model extraction).

В нашите MDR и XDR ангажименти за клиенти, които използват GenAI, фокусът ни включва:

  • наблюдение на AI-свързани услуги (Azure AI, Azure OpenAI, други облачни AI платформи) като част от общата видимост в Shield SIEM/XDR;

  • лов на аномалии в API-употребата – масови заявки, необичайни модели на използване, подозрителни източници;

  • защита на ключове и идентичности чрез интеграция с IAM, vault-ове и CI/CD контроли;

  • playbook-и за реагиране при подозрение за model theft или pipeline компрометиране – от първоначално изолиране до форензика и подобряване на контролите.

Нашата цел е организациите да могат да внедряват и мащабират AI, без да жертват контрол над моделите, данните и веригите за стойност.

Свържете се с DIAMATIX


Източници:

  • SiliconANGLE – OpenAI tightens internal security amid fears of IP theft by Chinese AI rivals.

  • Microsoft Tech Community – AI Security Ideogram: Practical Controls and Accelerated Response with Microsoft.

  • NIST AI 800-1 (Initial Public Draft) – Managing Misuse Risk for Dual-Use Foundation Models (objective: “Manage the risks of model theft”).

  • ThreatDown (Malwarebytes) – analysis of a zero-click vulnerability affecting a ChatGPT agent (“Deep Research”).

Готови ли сте да направите следващата стъпка за защитата и спокойствието  на Вашия бизнес?

Вижте как MDR 360° осигурява непрекъснато откриване, реакция и съответствие в реално време.

→ Заявете MDR 360° демо

Абонирайте се за най-новите актуализации и анализи

Получавайте актуални новини и експертни анализи за киберсигурност

Please enable JavaScript in your browser to complete this form.