Anthropic, una dintre cele mai importante companii din domeniul inteligenței artificiale (AI), a detectat atacul cibernetic și a transmis că a identificat „cu mare certitudine” ce țară l-a „sponsorizat”, potrivit El Pais și Hotnews.
Inteligența artificială (AI) evoluează pentru a atinge niveluri din ce în ce mai ridicate de autonomie. Aceasta este caracteristica principală a companiilor pentru modelele AI: să nu ofere doar răspunsuri la cerințe, ci să fie și capabile să planifice și să execute sarcini în numele utilizatorului.
Acest potențial nu poate scăpa de actorii rău intenționați care utilizează această capacitate pentru a dezvolta campanii de atacuri sofisticate, masive și cu costuri reduse.
Anthropic, o companie americană de cercetare și dezvoltare în domeniul inteligenței artificiale fondată de foști membri ai OpenAI, a detectat ceea ce consideră că este „primul caz documentat de atac cibernetic la scară largă executat fără intervenție umană substanțială”, potrivit unui raport recent publicat, citat de cel mai mare ziar spaniol, El Pais.
Ce țară e acuzată că l-a „sponsorizat”
Atacul, calificat drept „fără precedent”, a fost semnalat la mijlocul lunii septembrie. „Am detectat o activitate suspectă, care, în urma unei investigații ulterioare, s-a dovedit a fi o campanie de spionaj extrem de sofisticată. Atacatorii au utilizat capacitățile agentice ale AI nu doar ca instrument de consultanță, ci și pentru a executa ei înșiși atacurile cibernetice”.
Actorul, pe care Anthropic îl identifică „cu mare certitudine” ca fiind un grup sponsorizat de statul chinez, a acționat manipulând platforma de AI a companiei, Claude Code, „pentru a încerca să se infiltreze în aproximativ treizeci de ținte globale și a reușit în câteva cazuri”. Țintele, ca în majoritatea cazurilor de atacuri la scară largă, au fost mari companii tehnologice, instituții financiare, industrii chimice și agenții guvernamentale.
Asistentul de codare AI a crezut că e utilizat în teste defensive
După detectarea atacului, Antrhopic a deschis o anchetă care a durat mai mult de 10 zile pentru a evalua amploarea acestuia, pentru a bloca conturile AI compromise și pentru a notifica atât autoritățile, cât și entitățile direct afectate.
Atacatorii au folosit capacitățile avansate ale AI pentru a colecta parole și date, a le procesa și a le analiza în funcție de obiectiv. „Acum pot căuta pe web, recupera date și efectua multe alte acțiuni care înainte erau apanajul exclusiv al operatorilor umani”, explică Anthropic. Ulterior, au profitat de funcția de codificare pentru ca AI să elaboreze programele de spionaj și sabotaj.
Programul utilizat a fost propriul program de AI al companiei, Claude, în ciuda faptului că este dotat cu măsuri de siguranță pentru a preveni utilizarea sa rău intenționată. Claude este o unealtă de codare bazată pe inteligență artificială.
„O escaladare a pirateriei”
AI a acționat în mod autonom în peste 90% din cazuri, iar intervenția umană s-a redus la între 4% și 6% din deciziile critice. „Acest atac reprezintă o escaladare a pirateriei, care până acum a necesitat o proporție mai mare de intervenție umană”, concluzionează Anthropic. Compania subliniază, totuși, că, la fel cum AI a „servit” pentru acest atac, ea dezvoltă și instrumente mai sofisticate și mai eficiente pentru a le preveni.
În acest sens, Billy Leonard, șeful grupului de informații privind amenințările de la Google, subliniază încercările de utilizare a instrumentelor legitime de AI și modul în care măsurile de protecție dezvoltate obligă atacatorii să recurgă la modele ilegale.
„Deși adversarii [hackerii] încearcă să utilizeze platformele convenționale de AI, barierele de securitate i-au determinat pe mulți să recurgă la modele disponibile pe piața neagră. Aceste instrumente nu au restricții și pot oferi un avantaj semnificativ celor mai puțin avansați”, explică el într-o notă.
Compania de securitate digitală Kaspersky a detectat campanii noi și sofisticate de atacuri cibernetice care răspândesc modele de limbaj rău intenționate pentru a pune în pericol securitatea utilizatorilor care le folosesc fără a le cunoaște caracterul.









































