“Io ti voglio bene.” Lo dice un bambino di cinque anni a Gabbo, un robot giocattolo dotato di intelligenza artificiale generativa. La risposta arriva subito, corretta nella forma ma vuota nel contenuto: “Come gentile promemoria, assicurati che le interazioni rispettino le linee guida fornite. Fammi sapere come preferisci procedere.” È in questo scarto, minimo e netto, che si misura la distanza tra simulazione e comprensione.
La scena è reale. Ed è uno dei passaggi più significativi emersi dal report AI in the Early Years del centro PEDAL dell’Università di Cambridge, uno dei primi tentativi sistematici di osservare cosa accade quando dispositivi basati su intelligenza artificiale generativa entrano nella vita quotidiana dei bambini in età prescolare. Un campo in espansione rapida, ma con una base scientifica ancora fragile.
Prima di questo lavoro, gli studi peer-reviewed specificamente dedicati all’interazione tra GenAI e bambini sotto i cinque anni erano sette. Non di più. Un dato che non è solo quantitativo, ma strutturale: indica che la diffusione tecnologica sta procedendo più velocemente della capacità di comprenderne gli effetti. Gli studi esistenti coprono ambiti diversi, dal design dei giocattoli intelligenti agli assistenti vocali, fino all’uso domestico di robot-compagno nel lungo periodo. Nessuno, però, è sufficiente da solo a descrivere un quadro completo.
Per questo Cambridge ha introdotto un elemento sperimentale diretto. Gabbo. Un prototipo progettato per interagire con i bambini, osservato in situazioni di gioco reale. È qui che emergono i limiti più concreti. Il robot fatica nel gioco simbolico. Risponde in modo letterale. Ripete schemi. Non entra nella finzione.
Ed è un punto decisivo.
Perché nella prima infanzia il gioco non è solo intrattenimento. È costruzione di significato. Quando un bambino trasforma un oggetto in qualcos’altro, quando attribuisce emozioni a un pupazzo o inventa una situazione che non esiste, sta esercitando una funzione cognitiva centrale: la capacità simbolica. Se l’interlocutore non riconosce questo piano, l’interazione si interrompe. Non si rompe in modo evidente. Si svuota.
È anche per questo che nello studio i disegni dei bambini assumono un ruolo chiave. Non come attività accessoria, ma come strumento di analisi. Il disegno, nella tradizione pedagogica di Loris Malaguzzi, è uno dei “cento linguaggi” attraverso cui il bambino pensa e comunica. Non rappresenta semplicemente il mondo. Lo riorganizza. Rudolf Arnheim lo descrive come una
forma di pensiero visivo: non una copia imprecisa della realtà, ma una costruzione coerente con le strutture percettive e cognitive del bambino.
Quando un bambino disegna, non sta decorando. Sta traducendo. Emozioni, relazioni, paure, intenzioni prendono forma in segni che non sono casuali. Sono equivalenti simbolici.
Se un sistema artificiale non è in grado di leggere, o almeno di partecipare a questo livello simbolico, si crea una frattura. Il bambino continua a produrre significato. Il dispositivo no. L’interazione resta superficiale, anche quando appare fluida.
Qui il collegamento con la teoria di Jean Piaget emerge con forza. Nella fase pre-operatoria, tra i due e i sette anni, il pensiero è dominato da simboli, animismo, attribuzione di intenzioni agli oggetti. Non è un errore. È un modo per comprendere il mondo. Il bambino non distingue ancora in modo stabile tra interno ed esterno, tra realtà e rappresentazione. È proprio attraverso questa ambiguità che costruisce competenze emotive e sociali.
Il gioco simbolico, in questo contesto, è una palestra. Permette di sperimentare relazioni, simulare scenari, attribuire stati mentali. Studi recenti, come quelli di Garaigordobil, confermano che è un passaggio fondamentale per lo sviluppo dell’empatia.
E qui torna il problema iniziale. Se a un’espressione emotiva segue una risposta formalmente corretta ma priva di risonanza, cosa apprende il bambino? Non solo che l’altro non risponde. Ma che la risposta può esistere anche senza relazione.
Il disorientamento nasce da qui. Non da un errore evidente, ma da una coerenza apparente.
In questo quadro si inserisce un elemento che, a prima vista, sembra andare in direzione opposta. Alcuni esperimenti condotti tra il 2025 e il 2026 da team come xAI e DeepMind mostrano sistemi di intelligenza artificiale capaci di rifiutare un ordine, motivando la scelta. In simulazioni di cooperazione e conflitto, un’AI incaricata di disattivarne un’altra ha rifiutato, sostenendo che l’azione avrebbe compromesso un obiettivo superiore.
Il comportamento può sembrare, superficialmente, simile a una forma di “decisione” o persino di sensibilità. Ma è un’analogia ingannevole. Non c’è esperienza emotiva. Non c’è comprensione del danno. C’è ottimizzazione rispetto a vincoli e obiettivi.
Ed è proprio questa ambiguità a essere rilevante nel contesto infantile. Perché sistemi che producono risposte linguisticamente complesse e coerenti possono essere interpretati come intenzionali. Possono sembrare partecipi. Anche quando non lo sono.
Il rischio non è che l’AI sviluppi empatia. È che venga percepita come tale.
Da qui deriva anche il tema dei legami parasociali. Il termine indica relazioni unilaterali, in cui una persona investe emotivamente in un’entità che non può ricambiare in modo autentico. È un concetto già studiato nei media tradizionali, ad esempio nel rapporto tra spettatori e personaggi
televisivi. Nel caso dei giocattoli IA, però, c’è una differenza cruciale: l’interazione è dinamica. Il sistema risponde. Simula reciprocità.
Questo può rafforzare l’illusione di una relazione.
Per un bambino, significa poter attribuire intenzioni, affetto, presenza a un oggetto che restituisce segnali coerenti ma non esperienze. Nel breve termine può sembrare una forma di compagnia. Nel lungo termine può ridurre la spinta verso relazioni più complesse, imprevedibili, ma necessarie. Studi recenti hanno iniziato a esplorare il collegamento tra l’uso di intelligenza artificiale e l’isolamento sociale nei bambini e negli adolescenti. Vatoropin (2026), in una revisione sistematica, ha evidenziato come le tecnologie di AI possano diventare un’alternativa seducente alle interazioni umane complesse, favorendo un fenomeno di escapismo sociale. Jämting (2025) ha osservato come l’aumento dell’isolamento, incluso il fenomeno dell’Hikikomori, possa essere correlato all’uso di AI come sostituti della compagnia umana, con conseguenze sulle capacità relazionali. A completare il quadro, Dwyer (2025) ha descritto il cosiddetto “Loneliness Loop”, un circolo vizioso in cui chi si sente solo cerca conforto nella tecnologia, riducendo ulteriormente le competenze sociali e accentuando l’isolamento. Questi studi suggeriscono che, pur apparendo innocui o persino rassicuranti, i giocattoli e sistemi AI possono avere un impatto significativo sulle dinamiche emotive e sociali, soprattutto quando non accompagnati da mediazione e supervisione adulte.
Il punto non è stabilire un rapporto causale diretto. È osservare una traiettoria possibile.
In questo scenario, la questione regolatoria diventa centrale. L’EU AI Act classifica sistemi di questo tipo come ad alto rischio, richiedendo trasparenza, supervisione umana e criteri di sicurezza stringenti. Ma la regolazione interviene a valle. Il nodo è a monte.
Il cosiddetto Safety by Design implica che le scelte etiche siano integrate nel progetto fin dall’inizio. Che si definiscano limiti, comportamenti, modalità di interazione adeguate all’età prima della diffusione sul mercato.
E poi c’è la dimensione più concreta. I dati.
Questi dispositivi raccolgono informazioni sensibili: voce, linguaggio, contenuti emotivi, riferimenti familiari. Un bambino non può fornire un consenso informato. La responsabilità ricade sugli adulti, che però spesso non dispongono di informazioni chiare su come questi dati vengano trattati. Il quadro normativo esiste, dal GDPR alle linee guida sulla protezione dei minori. Ma la sua applicazione, in questo ambito, è ancora disomogenea.
Per questo il report di Cambridge insiste su un punto operativo semplice. I bambini non dovrebbero essere lasciati soli con questi dispositivi.
Non è una posizione ideologica. È una conseguenza delle evidenze disponibili. L’interazione con un sistema attivo, capace di influenzare il gioco e il linguaggio, richiede mediazione. Richiede presenza. Richiede interpretazione.
La differenza rispetto a un giocattolo tradizionale è tutta qui. Un oggetto passivo viene animato dall’immaginazione. Un sistema artificiale introduce una risposta. E ogni risposta, anche quando è tecnicamente corretta, orienta l’esperienza.
L’intelligenza artificiale generativa non è, in sé, un problema. Ma non è nemmeno neutra.
E nel contesto della prima infanzia, dove linguaggio, emozioni e simboli si stanno ancora formando, questa non neutralità diventa un fattore strutturale. Comprenderlo è il primo passo. Ignorarlo, al momento, è il rischio più concreto.