18 SEPTEMBRIE 2025 - Monitorul de Galați - Ediție regională de sud-est Galați Brăila Buzău Constanța Tulcea Vrancea
Modifică setările cookie-urilor
Monitorul de Galati iOS App Monitorul de Galati Android Google Play App
Gruparea nord-coreeană Kimsuky a folosit AI pentru a falsifica o legitimaţie militară într-o campanie de spionaj
Gruparea nord-coreeană Kimsuky a folosit AI pentru a falsifica o legitimaţie militară într-o campanie de spionaj

Un raport de securitate arată că gruparea Kimsuky, susţinută de Coreea de Nord, a folosit instrumente de inteligenţă artificială pentru a fabrica o legitimaţie militară falsă utilizată într-o campanie de spionaj.
Analiza, publicată de Genians Security Center (GSC) din Coreea de Sud şi citată de The Register, descrie modul în care hackerii au exploatat funcţii grafice integrate în ChatGPT pentru a crea un document deepfake, în pofida restricţiilor OpenAI privind generarea de acte oficiale. Legitimaţia falsă a fost distribuită în iulie prin e-mailuri de tip spear-phishing către o organizaţie sud-coreeană din domeniul apărării.
Potrivit GSC, atacatorii au pornit de la imagini disponibile public şi le-au încorporat într-un şablon ce imita un act de identificare militar. Pentru a evita filtrele de securitate, au recurs la tehnici de „prompt engineering”, formulând cererile ca pe nişte exerciţii grafice legitime, nu ca pe o reproducere directă a unui document oficial.
Rezultatul a fost o imagine suficient de credibilă pentru a fi folosită în atacuri de inginerie socială. Experţii avertizează că această metodă scoate în evidenţă vulnerabilitatea modelelor generative, care pot fi manipulate prin instrucţiuni ambigue. Crearea de documente contrafăcute cu ajutorul AI este relativ simplă din punct de vedere tehnic, ceea ce amplifică riscurile de securitate.
Ţinta campaniei a fost o instituţie de apărare sud-coreeană, însă detalii precum numele organizaţiei sau numărul victimelor nu au fost făcute publice. Gruparea Kimsuky, cunoscută pentru atacurile asupra instituţiilor guvernamentale şi militare din Coreea de Sud, îşi diversifică metodele: de la documente infectate şi phishing clasic, la falsuri vizuale bazate pe AI şi tehnici de deepfake.
Contextul este unul mai amplu: rapoarte recente arată că actori statali folosesc tot mai des inteligenţa artificială pentru spionaj. În august, Anthropic a semnalat cazuri în care agenţi nord-coreeni au folosit AI pentru a crea identităţi false, a trece interviuri de angajare sau a scrie cod pentru companii internaţionale.
OpenAI nu a comentat acest caz, dar la începutul anului a anunţat închiderea a zeci de conturi asociate cu operaţiuni IT desfăşurate de Coreea de Nord, ca parte a unei campanii de reducere a abuzurilor sprijinite de state.


Articole înrudite