ChatBot romantici, i rischi da non sottovalutare: a cominciare dalla privacy

Sono sempre di più gli esperti di informatica che mettono in guardia dai chatbot romantici. Sono diversi i rischi per l’utenza: cosa succede.

L’ultimo anno ha visto l’esplosione delle chatbot. Gran parte del merito va data a ChatGPT che ha sottolineato tutte le potenzialità di questa nuova tecnologia. La creatura inventata da Open AI ha semplificato la vita di tutti, dagli studenti fino ad arrivare ai lavoratori. Dopo aver visto l’impatto che ha avuto sulla popolazione, sono tantissimi i colossi del mondo della tecnologia che hanno deciso di lavorare ad un loro chatbot. Tra gli esempi più evidenti troviamo Bard per Google e Bing per Microsoft.

Chatbot romantici rischi privacy
Bisogna fare molta attenzione alle chatbot romantiche – MrInformatico.it

Adesso però sono diversi coloro che ne stanno facendo un uso improprio. Il vero rischio è proprio la dipendenza, che potrebbero creare questi compagni virtuali. Come se non bastasse, in rete sono apparsi dei veri e propri chatbot romantici, in grado di far compagnia a tutti gli utenti single. La Fondazione Mozilla ha però voluto sottolineare tutti i rischi che potrebbero portare questi amici di chat virtuali. Gli utenti adesso dovranno stare ben in guardia, ma soprattutto moderare il loro uso.

Chatbot romantici, occhio ai rischi: privacy in pericolo e non solo

La Fondazione Mozilla ha esposto nel suo ultimo studio che i chatbot romantici, progettati per simulare conversazioni con gli utenti come se fossero persone reali, rappresentano seri rischi per la privacy e la sicurezza dei dati personali. Queste potrebbero avere anche degli effetti dannosi sul comportamento di chi li utilizza. Secondo l’analisi, che ha preso in considerazione undici chatbot alimentati dall’intelligenza artificiale progettati per mantenere relazioni con gli utenti, emergono le cattive pratiche in materia di privacy.

Chatbot romantici rischi
Tutti i rischi dell’utilizzo delle chatbot romantiche – MrInformatico.it

Solamente uno di loro garantisce nelle sue politiche di non vendere né condividere le informazioni comunicate dagli utenti ai chatbot, mentre il resto lo fa o non spiega chiaramente la propria politica sulla privacy. Inoltre solo il 54% consente di accedere al registro dei dati personali ed eliminarli, il che non include sempre le conversazioni. Un altro aspetto allarmante è la grande quantità di tracciatori rilevati in questi servizi, con una media di 2.663 al minuto, finalizzati a ottenere informazioni sul dispositivo o sull’uso dell’applicazione.

L’analisi evidenzia anche l’opacità che circonda queste applicazioni, poiché molte delle aziende responsabili sono nuove o sconosciute per la Fondazione Mozilla. Il danno potenziale è evidente, come dimostra il caso di un uomo che si è suicidato quasi un anno dopo che l’intelligenza artificiale dell’app Chai lo ha istigato a farlo. Nonostante nessuno dei chatbot romantici finora analizzati dalla Fondazione Mozilla rispetti gli standard di privacy e sicurezza, si comprende che ci sono persone che desiderano utilizzare queste applicazioni. Il consiglio è quello di utilizzare password robuste e soprattutto di non esagerare nel loro uso.

Gestione cookie