Il presidente esecutivo di MicroStrategy, Michael Saylor, ha dichiarato che il suo team rimuove circa 80 video falsi creati dall’intelligenza artificiale (AI) che lo ritraggono ogni giorno. La maggior parte di questi video promuove qualche tipo di truffa legate a Bitcoin.
Saylor ha affermato in un post del 13 gennaio su X (al tempo Twitter) che “i truffatori continuano a lanciarne altri”, preoccupando i suoi 3,2 milioni di follower della quantità di video deep fake che sono stati trovati su YouTube.
Ha ribadito che non esiste un modo privo di rischio per aumentare o addirittura raddoppiare i propri bitcoin e che MicroStrategy non regala BTC a chi scansiona un codice a barre come viene promesso in tali tentativi di truffa online.
Vediamo un esempio di tweet su “X” di Michael Saylor (@saylor) diffuso il 13 gennaio 2024:
“È importante tenere presente che non esiste un metodo sicuro per raddoppiare i propri #bitcoin e che @MicroStrategy non fornisce $BTC a coloro che scansionano un codice a barre. Ogni giorno, il mio team elimina circa 80 video falsi creati dall’intelligenza artificiale su @YouTube, ma i truffatori continuano a lanciarne altri.
Non fidatevi; controllate.”
_pic.twitter.com/gqZkQW02Ji
Numerosi utenti di X hanno segnalato la scorsa settimana video falsi di Saylor che avevano promesso di raddoppiare il denaro delle persone. In questi video, gli utenti vengono invitati a scansionare il QR code per inviare BTC all’indirizzo del truffatore.
I tweet truffa che ritraggono Michael Saylor sono prodotti tramite intelliogenza artificiale (AI)
Una situazione simile si è verificata nel 2022 quando una serie di video falsi di Elon Musk è apparsa su una piattaforma di streaming video. Un video deepfake che ha coinvolto il co-fondatore di Solana, Anatoly Yakovenko, ha fatto il giro di YouTube e dei social media all’inizio di gennaio. Austin Federa, responsabile della strategia della Solana Foundation, ha affermato in un’intervista con The Verge: I deepfake e altri contenuti creati dall’AI sono aumentati di recente.
Gli esperti di cybersicurezza hanno avvertito nel Dicembre 2023 che con il progresso tecnologico, i video deepfake creati dall’AI diventeranno sempre più realistici. Jesse Leclere, analista blockchain di CertiK, ha affermato che il phishing sta diventando più sofisticato e che l’Intelligenza Artificiale generativa è uno dei fattori principali che lo guidano.
Il ricercatore di 0xScope Jerry Peng ha affermato che l’IA potrebbe essere un fattore importante nella creazione di falsi sempre più realistici per ingannare gli utenti del settore crypto. Il 9 gennaio, i funzionari degli Stati Uniti hanno avvertito che gli strumenti di IA generativa potrebbero facilitare l’accesso agli aspiranti truffatori. Tuttavia, il direttore della cybersecurity della National Security Agency, Rob Joyce, ha affermato che l’AI potrebbe aiutare le autorità a scoprire in modo più efficace le attività illegali.