Imaginile încărcate pe chatbot-urile cu inteligență artificială pot fi păstrate pe termen necunoscut și, dacă ajung în mâini nepotrivite, pot fi folosite pentru escrocherii, falsuri și conturi false pe rețelele sociale Tendința generată de inteligența artificială (AI) de a crea caricaturi colorate care reflectă „tot ce știe un chatbot despre o persoană” poate ascunde riscuri serioase de securitate, avertizează experții în domeniul cibernetic.
Într-un articol realizat de euronews, se menționează că tot mai mulți utilizatori încarcă o fotografie proprie, adesea alături de logo-ul companiei unde lucrează sau detalii despre profesia lor, și solicită chatbot-ului ChatGPT, creat de OpenAI, să realizeze o caricatură care să-i reprezinte.
Potrivit specialiștilor consultați de Euronews Next, provocările de acest tip apărute pe rețelele sociale – inclusiv cele bazate pe AI – pot oferi escrocilor o sursă uriașă de informații valoroase. O singură imagine, combinată cu detalii personale, poate dezvălui mult mai mult decât își dau seama utilizatorii.
„Practic, le faceți munca în locul lor – le oferiți o reprezentare vizuală a identității voastre”, a declarat Bob Long, vicepreședinte al companiei Daon, specializată în autentificarea vârstei. El consideră că simpla formulare a acestor tendințe ar trebui să ridice semne de întrebare, „deoarece sună ca o idee pornită intenționat de un fraudator care vrea să-și ușureze treaba”.
Ce se întâmplă cu imaginile după ce sunt încărcate?
Când un utilizator încarcă o fotografie pe un chatbot bazat pe AI, sistemul o procesează pentru a extrage diverse informații – cum ar fi emoțiile, mediul sau indicii despre locație, explică expertul în securitate cibernetică Jake Moore. Datele obținute pot fi stocate pentru o perioadă nedeterminată. Bob Long susține că imaginile colectate pot fi utilizate ulterior pentru antrenarea generatoarelor de imagini AI, devenind parte din bazele lor de date.
O eventuală breșă de securitate la o companie precum OpenAI ar putea expune aceste informații sensibile – fotografii și date personale colectate de chatbot – unor persoane rău intenționate care le-ar putea exploata. În mâinile nepotrivite, o singură imagine de înaltă rezoluție poate fi folosită pentru a crea conturi false pe rețelele sociale sau deepfake-uri realiste, care pot fi utilizate în escrocherii, avertizează Charlotte Wilson, directoare în cadrul companiei israeliene de securitate cibernetică Check Point.
„Selfie-urile îi ajută pe infractori să treacă de la escrocherii generale la impersonări personalizate, foarte convingătoare”, spune Wilson.
Politica de confidențialitate a OpenAI precizează că imaginile încărcate pot fi folosite pentru îmbunătățirea modelelor AI – ceea ce poate include și antrenarea lor. Întrebat despre acest aspect, ChatGPT a explicat că acest lucru nu înseamnă că toate fotografiile ajung într-o bază de date publică, ci doar că sistemul folosește tipare din conținutul utilizatorilor pentru a-și rafina modul de generare a imaginilor.
Ce trebuie să știi dacă vrei să participi la astfel de tendințe AI
Pentru cei care vor totuși să urmeze trendul, experții recomandă prudență și limitarea informațiilor oferite. Charlotte Wilson sugerează să nu fie încărcate fotografii care pot dezvălui detalii de identificare.
„Decupați imaginea cât mai strâns, folosiți un fundal simplu și evitați să apară ecusoane, uniforme, legitimații, indicii de locație sau orice alt element care vă leagă de angajator ori de rutina zilnică”, a precizat aceasta.
Totodată, Wilson îi sfătuiește pe utilizatori să nu ofere în textul solicitării informații precum funcția, orașul sau numele angajatorului. Jake Moore recomandă și verificarea setărilor de confidențialitate înainte de a participa la astfel de tendințe, inclusiv opțiunile care permit excluderea datelor din procesul de antrenare AI.
OpenAI pune la dispoziție un portal de confidențialitate prin care utilizatorii pot selecta opțiunea „do not train on my content” („nu folosi conținutul meu pentru antrenare”). De asemenea, utilizatorii pot dezactiva funcția „improve the model for everyone” („îmbunătățește modelul pentru toți”), astfel încât conversațiile lor textuale cu ChatGPT să nu fie utilizate pentru instruirea sistemului.
În conformitate cu legislația Uniunii Europene, persoanele au dreptul de a solicita ștergerea datelor personale colectate de companie. Totuși, OpenAI menționează că poate păstra anumite informații chiar și după ștergere, în scopul prevenirii fraudei, abuzului și problemelor de securitate.



























































