10.2 C
Sibiu
sâmbătă, aprilie 12, 2025

Metoda accidentul trece pe IA. Un important om de afaceri a fost înșelat de către inteligenta artificiala să transfere sume uriașe de bani în conturi false

Cele mai citite

Clonarea persoanelor apropiate în mediul online provoacă pagube uriașe pentru o prestigioasă multinațională.

Un important om de afaceri a fost manipulat de către inteligenta artificială să transfere sume uriașe de bani în conturi false.

Deepfake și metoda accidentul

Inteligența artificială, ca oricare altă invenție, poate fi folosită pentru a ajuta populația, dar și pentru a fi uzitată în moduri periculoase. Și ne referim acum la manipularea oamenilor de către escrocii virtuali. Aceasta poate include transferul de bani, furnizarea de informații sensibile sau comiterea altor forme de fraudă. Înșelăciunile din mediul online sunt variate și accesibile oricui, indiferent de cunoștințele tehnologice deținute.

În ultimii ani, tehnologia inteligenței artificiale Deepfake a evoluat considerabil, făcând o adevărată provocare recunoașterea acesteia. Termenul de deepfake este tot mai des întâlnit în mediul online. Așadar, ce înseamnă acesta? Metoda de escrocherie folosește un cumul de factori pentru a induce în eroare persoanele vulnerabile. Escrocii recurg la instrumente evoluate pentru a clona voci și imagini ale apropiaților victimelor. În mediul online găsim tot mai multe videoclipuri cu clone ale unor personalități cunoscute care se mișcă și vorbesc după indicațiile creatorului.

Cel mai cunoscut caz în care s-a folosit IA Deepfake a implicat un funcționar financiar de la o sucursală din Hong Kong a unei corporații multinaționale, care a fost amăgit să autorizeze transferuri uriașe de fonduri, de peste 25 milioane de dolari. Acest eveniment a avut loc anul trecut în luna ianuarie, iar din informațiile disponibile pâna acum, infractorii nu au fost încă identificați.

Omul de afaceri care a căzut victima escrocilor participa la o videoconferință la care erau prezenți doar indivizi creați cu ajutorul IA, așadar niciun alt participant nu era real. Printre personajele create artificial se afla și CEO-ul companiei în cadrul căreia era angajat, alături de alți directori seniori. Acest atac a făcut uz de strategii psihologice și de o tehnologie bine antrenată de deepfake pentru a câștiga încrederea angajatului.

Metoda accidentul trece pe IA

În Romania, tehnologia inteligenței artificiale este tot mai întâlnită, atât în mediul online, prin fotografii false care manipulează utilizatorii rețelelor de socializare (link cu art) sau e-mail-uri prin care oamenii încearcă să compromită persoane sau organizații – și chiar guverne, cât și în viața reala. cea mai cunoscută practică înșelătoare e cea sub forma apelurilor telefonice care folosesc voci generate de IA pentru a imita oameni reali, cum ar fi o persoană dragă sau autorități de încredere. Aceste apeluri sună incredibil de convingător, având ca scop furtul de informații personale sau bunuri materiale.

Având în vedere că aceste metode de înșelăciune vor fi tot mai prezente, oamenii trebuie să-și facă propriile cercetări despre subiect, să găsească surse de încredere de unde pot afla noile invenții si, mai important decât orice, sa fie atenți la orice solicitare neobișnuită.

Urmărește Sibiu 100% în Google News 

Publicitate
Ultimele știri

Avertismentul polițiștilor înainte de Florii: Asigurați-vă că produsele sunt avizate sanitar – veterinar

În perioada 11 – 13 aprilie, polițiștii din cadrul Inspectoratului de Poliție Județean Sibiu, împreună cu celelalte structuri specializate,...

Publicitate

spot_img

Știri pe același subiect