Il 25 marzo, al termine di un processo durato oltre un mese, una giuria della Corte Superiore della California, nella contea di Los Angeles, ha stabilito la responsabilità di Meta e YouTube per i danni psicologici subiti da una giovane donna. La ragazza aveva utilizzato in modo compulsivo Instagram e YouTube fin dall’infanzia.
Il caso rappresenta uno dei primi verdetti di questo tipo. Ma potrebbe non restare isolato.
La vicenda, identificata con le iniziali KGM per tutelare l’identità della querelante, ricostruisce un uso precoce e prolungato delle piattaforme digitali. Instagram a partire dai 6 anni. YouTube dagli 11. Nel tempo, secondo quanto emerso in aula, si sarebbero sviluppati disturbi significativi: dipendenza, ansia, dismorfofobia. Fino alla comparsa di pensieri suicidi. La giovane ha descritto un comportamento persistente anche in età adulta. Accessi frequenti durante l’orario di lavoro. Uso intensivo di filtri per modificare l’aspetto fisico. Una relazione con le piattaforme definita “patologica”.
Al centro del procedimento non ci sono stati i contenuti. Ma la struttura stessa delle piattaforme. L’accusa ha puntato su alcune funzionalità chiave: riproduzione automatica dei video, scrolling infinito, sistemi di raccomandazione personalizzata. Meccanismi progettati per prolungare il tempo di permanenza degli utenti.
Secondo i legali della querelante, si tratterebbe di soluzioni studiate per stimolare risposte neurochimiche legate alla gratificazione. In particolare nei cervelli più giovani, più sensibili a dinamiche di ricompensa immediata. Qui entra in gioco un elemento scientifico rilevante. Il ruolo della dopamina, il neurotrasmettitore associato ai meccanismi di ricompensa. Le interazioni rapide e ripetute — notifiche, like, contenuti brevi — attivano circuiti che nel cervello adolescente risultano particolarmente plastici e reattivi. Le aziende, è stato sostenuto, erano consapevoli dei rischi. Ma non avrebbero adottato misure adeguate per limitarli.
La questione si inserisce in un quadro economico preciso.
Le piattaforme operano all’interno della cosiddetta economia dell’attenzione. Il tempo trascorso online diventa una risorsa. Più permanenza significa più dati raccolti. E quindi maggiore valore pubblicitario. In questo contesto, il design “coinvolgente” non appare come una semplice scelta tecnica. Ma come un elemento strutturale del modello di business. Un equilibrio delicato. Tra crescita economica e impatto sugli utenti.
Meta ha attribuito i disturbi della giovane a fattori personali e a un contesto familiare complesso. Una linea difensiva che sposta l’attenzione dall’ambiente digitale a quello individuale. La replica della controparte è stata netta: proprio la vulnerabilità dei minori imporrebbe standard più elevati di protezione. YouTube, attraverso il proprio portavoce, ha sottolineato invece la natura della piattaforma. Non un social network, ma un servizio di streaming gestito in modo responsabile. Prima del processo, anche Snap e TikTok erano
stati coinvolti nel procedimento. Entrambe le società hanno però raggiunto accordi extragiudiziali.
Il caso apre anche una questione più ampia. Fino a che punto è legittimo progettare tecnologie per essere difficili da abbandonare? Il tema rientra nel campo del design etico. Un ambito che analizza le responsabilità dei progettisti quando le scelte tecniche producono effetti sul comportamento umano. Non si tratta solo di efficienza o innovazione. Ma di intenzionalità. E, nel caso dei minori, di tutela.
La giuria ha quantificato un risarcimento complessivo di 3 milioni di dollari. Il 70% a carico di Meta, il restante 30% di YouTube. A questi si aggiungono danni punitivi: 2,1 milioni per Meta e 900.000 per YouTube. Una misura tipica del sistema statunitense, pensata non solo per compensare ma anche per sanzionare comportamenti ritenuti particolarmente gravi. Le due aziende hanno annunciato ricorso. Contestano la sentenza e ribadiscono la complessità del tema salute mentale, ritenuto non riconducibile a una singola piattaforma. Sottolineano inoltre l’introduzione, negli ultimi anni, di strumenti di tutela: controllo parentale, limitazioni sui contenuti sensibili, sistemi di monitoraggio.
Il verdetto arriva in un contesto già segnato da un aumento dei contenziosi. Secondo diverse stime, migliaia di cause analoghe sono in corso negli Stati Uniti. Il caso KGM è tra i primi ad arrivare a sentenza. E potrebbe diventare un precedente rilevante. Pochi giorni prima, in New Mexico, Meta era stata condannata in un procedimento distinto per non aver adeguatamente protetto i minori da contatti con adulti predatori. L’accumulo di decisioni sfavorevoli potrebbe avere un impatto concreto. Non solo economico. Anche reputazionale. E spingere le aziende a rivedere il design delle piattaforme.
Il tema si sta progressivamente spostando. Da problema individuale a questione sistemica. Nel campo della salute pubblica, cresce l’attenzione verso l’impatto dei social media su larga scala. Ansia, depressione, disturbi del sonno, difficoltà di concentrazione. Fenomeni sempre più osservati nelle fasce più giovani. Non più episodi isolati. Ma tendenze diffuse. Con possibili ricadute anche sul piano economico e sociale.
Il parallelo emerge con frequenza nel dibattito pubblico. Le cause contro le multinazionali del tabacco negli anni Novanta. Allora, le evidenze scientifiche e le battaglie legali portarono a restrizioni pubblicitarie, obblighi informativi più stringenti e un calo dei consumi. Oggi, alcuni osservatori ipotizzano un percorso simile per i social media. Con possibili interventi normativi e modifiche strutturali dei prodotti digitali.
Uno degli aspetti più rilevanti riguarda l’impianto legale. Tradizionalmente, le piattaforme online sono protette dalla Sezione 230 del Communications Decency Act del 1996. Una norma che limita la loro responsabilità rispetto ai contenuti generati dagli utenti. In questo caso, però, l’argomentazione è stata diversa. Il danno non deriverebbe dai contenuti, ma dalle scelte di progettazione. Una distinzione che ha permesso al procedimento di arrivare fino alla sentenza. Secondo diversi esperti, si tratta di un passaggio cruciale. Potrebbe ridefinire i confini della responsabilità nel settore tecnologico.
Un eventuale intervento in appello o legislativo potrebbe cambiare radicalmente l’equilibrio su cui si è basata finora l’economia digitale.
Il contesto economico rafforza l’attenzione sul fenomeno. Uno studio della Harvard T.H. Chan School of Public Health ha stimato che nel 2022 le principali piattaforme abbiano generato circa 11 miliardi di dollari di ricavi pubblicitari da utenti sotto i 18 anni, solo negli Stati Uniti. Un dato che evidenzia il peso dei minori nei modelli di business basati sull’engagement. E che alimenta il dibattito sulla sostenibilità di sistemi progettati per massimizzare il tempo di utilizzo.
Le iniziative legali si intrecciano con un confronto politico sempre più ampio. Diversi Paesi stanno valutando restrizioni per l’accesso ai social da parte dei minori. L’Australia ha già introdotto limiti per gli under 16. Il Regno Unito e altre giurisdizioni stanno seguendo percorsi simili. Anche in India il tema è in discussione. Il verdetto di Los Angeles potrebbe accelerare questi processi. Offrendo una base giuridica per interventi più incisivi.
Secondo alcuni analisti, si sta affermando un nuovo approccio. Le piattaforme non sono più viste solo come strumenti neutri. Ma come sistemi progettati, le cui scelte tecniche producono effetti concreti sulla salute e sul comportamento.
Una trasformazione che potrebbe ridefinire, nei prossimi anni, l’intero ecosistema digitale.