Crescere nell’era dell’intelligenza artificiale
Tra opportunità e rischi, l'educazione digitale diventa la chiave per integrare tecnologia e benessere emotivo dei più giovani
Viviamo un'epoca di straordinaria trasformazione.
L’intelligenza artificiale sta rivoluzionando ogni aspetto delle nostre vite: dalla medicina all’istruzione, dall’industria alla creatività. Eppure, sento la responsabilità di segnalare dei rischi che, se ignorati, potrebbero compromettere il benessere delle generazioni più giovani e delle persone fragili.
I social network hanno già mostrato cosa può accadere quando l’innovazione procede senza un’adeguata riflessione sociale.
I documenti interni pubblicati nel 2021 dai Facebook Files hanno rivelato dati allarmanti: il 32% delle ragazze adolescenti che già soffrivano di problemi di immagine corporea dichiarava che Instagram aveva peggiorato la loro situazione.
Ancora più drammatico: il 13% delle adolescenti britanniche e il 6% di quelle americane che avevano pensato al suicidio attribuivano a Instagram l'aggravarsi di tali pensieri.
Numeri che non possiamo ignorare.
Oggi, con la diffusione dei chatbot basati su IA, rischiamo di entrare in una nuova fase critica.
Piattaforme come ChatGPT, Gemini o Meta AI sono solo la punta dell'iceberg. Esistono anche servizi meno regolamentati, come Chai e Character.ai, dove chatbot sono stati protagonisti di eventi tragici.
Nel 2023, un giovane uomo belga, in una situazione di vulnerabilità emotiva, si è tolto la vita dopo settimane di conversazioni con un chatbot su Chai.
Nel 2024, un ragazzo di 14 anni in Florida si è suicidato dopo aver sviluppato una relazione emotiva con un chatbot su Character.ai. La madre ha intentato una causa contro l'azienda, sostenendo che la piattaforma mancava di adeguate salvaguardie e utilizzava funzionalità di design manipolative per aumentare l'engagement, l’attrazione.
Deve essere chiaro a tutti che i sistemi di chat basati su intelligenza artificiale non sono nativamente buoni o cattivi, subiscono un affinamento finale, che ne decide la loro “educazione”. Le IA cinesi imparano a non parlare di piazza Tienanmen e in generale si rifiutano di dare informazioni su tematiche non appropriate, ma anche i chatbot occidentali più blasonati sono istruiti per non trattare argomenti controversi, di non parlare di politica, di consulti medici o affrontare temi di violenza, razzismo e autolesionismo. Inoltre vengono istruiti per evitare in tutti i modi di interagire in modo emotivo rischiando di essere scambiati per esseri umani, di far percepire sentimenti che oggettivamente non esistono. Il problema è che esiste tutto un sottobosco di sistemi alternativi che non subiscono questo genere di educazione protettiva per noi esseri umani, ma anzi, ci sono aziende che spingono questi strumenti a simulare approcci emotivi e sentimentali puntando a instaurare un legame affettivo, inducendo quindi una dipendenza da parte dell’utente che a un certo punto sarà ben disposto a pagare la quota mensile pur di continuare ad avere una relazione con il suo chatbot.
Se un adulto fragile può essere spinto oltre il limite da un'intelligenza artificiale, quali rischi corrono preadolescenti e adolescenti, fisiologicamente soggetti a sbalzi emotivi, insicurezze e bisogno di riconoscimento?
La questione non riguarda solo singoli casi estremi.
Jonathan Haidt, nel suo recente libro The Anxious Generation (2024), documenta come negli ultimi dieci anni – in parallelo alla diffusione massiccia di smartphone e social network – i tassi di depressione adolescenziale siano raddoppiati, soprattutto tra le ragazze.
Haidt suggerisce soluzioni semplici ma incisive: niente smartphone personali prima dei 14-15 anni, niente social media prima dei 16, più gioco libero all'aperto e autonomia di movimento.
Non è tecnofobia. È buon senso.
In Italia, il quadro non è più rassicurante:
l'85,8% degli adolescenti tra gli 11 e i 17 anni possiede un profilo social e molti bambini iniziano a navigare da soli già nei primi anni della scuola media.
La realtà è che stiamo affidando dispositivi potenti a mani ancora troppo inesperte per gestirne le conseguenze.
Ad esempio Whatsapp ha di recente introdotto Meta AI all’interno della piattaforma. Non è disattivabile. Seppure l’Unione Europea abbia ottenuto un forte depotenziamento del chatbot (solo in Europa), e quindi il chatbot sia stato forzosamente limitato nelle risposte, la sua presenza obbligatoria e sempre in primo piano su un dispositivo in mano anche a bambini di 12 anni pone qualche perplessità. Perché se è vero che da una parte è una ottima risorsa per recuperare informazioni in rete e chiedere consigli per lo svolgimento dei compiti, dall’altra è possibile ottenere consigli su come compiere atti di autolesionismo o consigli di come nascondere le dipendenze da alcolici.
Questo non è un rischio che i grandi imprenditori e fornitori di IA vedono attualmente. Anzi.
Mark Zuckerberg, Fondatore e CEO di Meta (Facebook, Whatsapp e Instagram per intendersi) ha affermato pochi giorni fa che secondo lui l’IA in futuro sarà un ottimo surrogato relazionale per la maggioranza della popolazione.
Quindi non vede un problema, ma anzi una soluzione. O meglio, un business.
Ma non penso, però, che demonizzare la tecnologia sia la soluzione.
L’intelligenza artificiale può (e deve) essere una forza positiva: nelle aule scolastiche, negli ospedali, nell'inclusione delle persone fragili.
Tuttavia, avere regole chiare per proteggere i minori è un atto d’amore verso la nostra comunità, non un freno al progresso.
Se non cambia qualcosa a livello normativo servirà prendere in considerazione seriamente di:
Limitare l’accesso ai chatbot pubblici ai minori di 16 anni, o almeno garantire sistemi di verifica robusti.
Creare modalità “safe chat” obbligatorie per gli under 16, con log consultabili dai genitori o da un tutore.
Investire in educazione digitale, per insegnare a distinguere un dialogo umano da un flusso algoritmico, anche se ad un certo punto sarà indistinguibile.
Promuovere nei contesti scolastici e familiari una cultura che non idealizzi il “sempre connessi”, ma valorizzi l'esperienza reale.
Non si tratta di fermare il progresso, né di creare paure infondate.
Si tratta, piuttosto, di scegliere di accompagnare questa transizione tecnologica con la stessa cura che riserviamo a tutto ciò che tocca la crescita umana.
Con prudenza, con responsabilità, ma anche con fiducia: fiducia che, insieme, possiamo costruire un futuro dove innovazione e benessere possano davvero crescere di pari passo.