Metoda „accidentul” îmbunătățită cu ajutorul inteligenței artificiale este mult mai periculoasa

Metoda “accidentul” este cunoscuta ca o  înșelăciune, in care escrocii se adresează aleatoriu sau în mod țintit unor persoane, afirmând că un membru al familiei sau un apropiat a fost implicat într-un (pretins) accident și are nevoie urgentă de bani. Prin această abordare, unii escroci au reușit să obțină sume semnificative de bani, având ca ținte în special persoanele în vârstă.

In prezent metoda “accidentul”  a fost îmbunătățită prin utilizarea inteligenței artificiale pentru a recrea vocile unor persoane, conferind astfel înșelăciunii un aspect mai realist și convingător. Escrocii își conving victimele, în special pe cei apropiați celor implicați, să ofere bani sau alte bunuri valoroase.  De remarcat este faptul pentru a pune în practică această metodă, escrocii nu trebuie să fie experți în tehnologie, ci doar să dispună de un computer și de o conexiune la internet stabilă.

Tehnologia “deepfake” (?) utilizează algoritmi de învățare profundă pentru a replica cu precizie vocile și pentru a manipula imaginile. În ceea ce privește vocile, algoritmii analizează și înțeleg modul de vorbire, tonalitatea și intonația unei persoane. În cazul imaginilor, rețelele neurale profunde analizează și sintetizează elementele specifice ale feței sau ale mediului, permițând modificarea sau înlocuirea conținutului vizual. Această tehnologie ridică preocupări etice și de securitate, deoarece poate fi utilizată în mod necinstit pentru înșelarea oamenilor sau manipularea opiniei publice.

Sursa:

https://dnsc.ro 

https://www.scamadviser.com/ro/articles/nu-va-lasati-pacaliti-de-deepfakes