Gli NFT possono arginare i fake generati dall’intelligenza artificiale

Laura Di Maria
| 3 min read

Il CEO di Animoca Brands Yat Siu ne è certo: gli NFT rappresentano la maniera migliore per tutelare il diritto d’autore e proteggere i singoli individui dall’ingerenza dell’intelligenza artificiale.

Il fondatore della compagnia che ha dato vita al principale metaverso, The Sandbox, si esprime con entusiasmo nei confronti di uno degli ambiti più incompresi del settore crypto, i token non fungibili.

Gli NFT sono uno strumento per contrastare l’ingerenza dell’intelligenza artificiale


Nel 2021 non si parlava d’altro e oggi, dopo un periodo di declino, il ritorno del mercato toro punta di nuovo i riflettori sugli NFT.

A difenderli a spada tratta è soprattutto chi in questo settore ha costruito il proprio impero e le sorti avverse del mercato non hanno incrinato la fiducia nella visione a lungo termine.

Di recente il presidente e cofondatore di Animoca Brands, Yat Siu, intervistato da TechCrunch ha spiegato in che modo gli NFT possono aiutare a contrastare la crescente influenza dell’intelligenza artificiale specie nell’ambito dei contenuti online.

Il vantaggio chiave di questi strumenti è legato alla capacità di dimostrare, in maniera semplice, l’autenticità e il diritto sulla proprietà intellettuale di un prodotto digitale. Fin qui niente di nuovo sotto il sole.

Sono le applicazioni a cui si può estendere questo concetto a rendere la faccenda interessante.

In un mondo in cui valanghe di contenuti vengono riversate sul web ogni giorno, gli NFT offrono interessanti occasioni per generare ricchezza su diversi livelli.

Dimostrare l’autenticità dei contenuti con gli NFT per creare valore reale


Negli anni Animoca ha prodotto collezioni NFT e giochi che hanno suscitato l’interesse di molti brand di spicco, le collaborazioni vantano nomi del calibro di Disney, WWE, Power Rangers, The Walking Dead, Formula E e Snoop Dogg.

Andando oltre le mode del momento, secondo Siu, gli NFT potrebbero trovare impiego nella generazione democratica di reddito facilitandone i processi. Il vantaggio degli NFT sta nella velocizzazione e nell’abbattimento di costi di solito importanti, come la registrazione di un marchio commerciale, la stipula di un contratto legale, o la registrazione di un diritto d’autore o di proprietà intellettuale.

Ha spiegato:

“Il Web3 è molto importante, specie se si considera la predominanza dell’intelligenza artificiale nelle nostre vite, dal momento che senza non possiamo esercitare alcun controllo sulla proprietà intellettuale di quello che viene generato dall’AI.”

Al contrario, la tecnologia blockchain consente a chiunque di creare un marchio o provare il copyright su qualcosa che ha creato. Tutti possono difendere il proprio diritto d’autore.

Strumenti delle big tech contro l’uso dell’AI per creare deepfake


Venerdì le principali aziende del comparto tech hanno firmato un accordo per adottare in maniera volontaria delle “ragionevoli contromisure” per impedire l’ingerenza di strumenti di intelligenza artificiale nei contesti elettorali di tutto il mondo.

Si tratta di un problema estremamente delicato che è entrato da tempo nel dibattito politico internazionale. La possibilità di influenzare gli elettori e manipolare i risultati elettorali non è così remota, basti pensare agli effetti sulle elezioni negli USA e in UK delle campagne di Cambridge Analytica.

I dirigenti delle principali società tecnologiche, Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, X e TikTok si sono riuniti a Monaco durante la Conferenza sulla sicurezza. In questa cornice internazionale hanno annunciato di aver adottato nuove misure per permettere una facile individuazione dei contenuti generati con l’intelligenza artificiale.

L’attenzione è rivolta ai video falsi, i cosiddetti deepfake generati dall’intelligenza artificiale il cui scopo è ingannare in particolare gli elettori.

Durante un’intervista prima del vertice, Nick Clegg, presidente degli affari globali di Meta ha dichiarato:

“Tutti concordano che nessuna azienda tecnologica, nessun governo, nessuna organizzazione di una società civile è in grado di affrontare in maniera autonoma l’avvento di questa tecnologia e il suo possibile uso criminale.”

Serve dunque la collaborazione di tutti e la massima allerta per smascherare immagini, audio e video sempre più realistici generati dall’intelligenza artificiale. Diventa sempre più complicato scoprire chi “falsifica o altera per ingannare l’aspetto, la voce o le azioni di candidati politici, funzionari elettorali e altre figure chiave interessate in un’elezione democratica, o che forniscono false informazioni agli elettori su quando, dove e come possono votare legalmente”.

L’impegno delle aziende non riguarda la censura o la rimozione di questi contenuti falsi. I deepfake, invece, saranno identificati con etichette che permetteranno ai fruitori di distinguere i contenuti veri da quelli falsi.

La collaborazione tra le parti permetterà di condividere le buone pratiche necessarie per identificare i contenuti ingannevoli quando inizieranno a diffondersi.

___

Leggi anche: