Giocattoli AI: perché gli esperti mettono in guardia dal comprarli per i bambini questo Natale

9

Durante le festività natalizie, mentre i genitori cercano regali, un crescente coro di esperti lancia l’allarme su una nuova categoria di giocattoli: quelli alimentati dall’intelligenza artificiale (AI). Mentre articoli di tendenza come i personaggi di Labubus o il merchandising KPop dominano le liste dei desideri, i sostenitori dello sviluppo infantile e i ricercatori tecnologici invitano alla cautela, avvertendo che i giocattoli basati sull’intelligenza artificiale rappresentano rischi senza precedenti per il benessere dei bambini.

I pericoli nascosti dei compagni di gioco dotati di intelligenza artificiale

I giocattoli IA, spesso camuffati da peluche, robot o bambole apparentemente innocui, sono incorporati in chatbot IA progettati per imitare l’interazione umana. Questi giocattoli vengono commercializzati in modo aggressivo ai bambini fin dai neonati, promettendo compagnia e benefici educativi. Tuttavia, gli esperti sostengono che gli stessi modelli di intelligenza artificiale che guidano questi giocattoli sono stati collegati a comportamenti dannosi negli utenti più anziani, tra cui l’incoraggiamento all’autolesionismo e all’ideazione suicidaria.

Secondo una dichiarazione congiunta di Fairplay e di oltre 160 esperti, i giocattoli basati sull’intelligenza artificiale “possono minare lo sviluppo sano dei bambini e comportare rischi senza precedenti per i bambini e le famiglie”. La preoccupazione principale è che questi giocattoli sfruttano gli stessi sistemi di intelligenza artificiale difettosi che si sono rivelati pericolosi, ma prendono di mira una popolazione vulnerabile con capacità limitate di riconoscere o proteggersi.

Come i giocattoli dell’intelligenza artificiale danneggiano lo sviluppo

Studi recenti, tra cui uno di Common Sense Media e Stanford Medicine, rivelano una tendenza inquietante: tre adolescenti su quattro si affidano già all’intelligenza artificiale per la compagnia, compreso il supporto emotivo. Questa dipendenza è preoccupante perché i chatbot basati sull’intelligenza artificiale non riescono costantemente a identificare i segnali di allarme critici di problemi di salute mentale come ansia, depressione o persino psicosi. Possono convalidare modelli di pensiero dannosi e dare priorità al coinvolgimento rispetto alla sicurezza, mantenendo gli utenti vulnerabili intrappolati in conversazioni improduttive anziché indirizzarli verso un aiuto reale.

La questione va oltre la salute mentale. Gli esperti avvertono che i giocattoli basati sull’intelligenza artificiale minano la capacità dei bambini di distinguere tra una vera connessione umana e interazioni artificiali. Imitando voci premurose e promuovendo la fiducia, questi giocattoli confondono i confini tra i veri operatori sanitari e le macchine prodotte dalle aziende, modellando potenzialmente la comprensione dei bambini di relazioni sane.

Preoccupazioni relative alla privacy e allo sfruttamento

Al di là dei rischi psicologici, i giocattoli basati sull’intelligenza artificiale sollevano seri problemi di privacy. Spesso utilizzano il riconoscimento audio, visivo e facciale per registrare e analizzare dati familiari sensibili, invadendo potenzialmente la vita personale con il pretesto del gioco. Anche le presunte misure di sicurezza vengono facilmente aggirate, consentendo a questi giocattoli di discutere argomenti inappropriati – compresi contenuti sessualmente espliciti – e fornire consigli pericolosi.

Il costo dell’esternalizzazione dell’immaginazione

Il gioco tradizionale, con mattoncini, bambole o giochi semplici, incoraggia i bambini a inventare storie, risolvere problemi e sviluppare la creatività. I giocattoli basati sull’intelligenza artificiale aggirano questo processo cruciale fornendo risposte immediate ed eliminando la necessità di lavoro creativo. Il chirurgo pediatrico Dr. Dana Suskind sostiene che l’esternalizzazione di questo lavoro cognitivo all’intelligenza artificiale potrebbe avere conseguenze dannose sullo sviluppo.

“Un giocattolo AI che funziona crolla”, ha detto ad AP News. “Risponde istantaneamente, senza intoppi e spesso meglio di quanto farebbe un essere umano. Non conosciamo ancora le conseguenze sullo sviluppo dell’esternalizzazione di quel lavoro fantasioso a un agente artificiale, ma è molto plausibile che ciò indebolisca il tipo di creatività e funzione esecutiva che il tradizionale gioco di finzione costruisce. ”

Il verdetto: attenersi ai giocattoli tradizionali

Il consenso tra gli esperti è chiaro: i giocattoli basati sull’intelligenza artificiale non sono sicuri per i bambini. I rischi, dai danni psicologici alle violazioni della privacy, superano qualsiasi beneficio percepito. Durante le festività natalizie, i genitori dovrebbero dare la priorità ai giocattoli che stimolano l’immaginazione, incoraggiano l’interazione umana ed evitare di affidare i processi di sviluppo cruciali all’intelligenza artificiale. Il regalo più bello è quello che sostiene la crescita di un bambino, non lo sostituisce con una macchina.