ru24.pro
World News
Июль
2025

Figli di un tech intelligente: come l’AI sta cambiando l’infanzia (senza che ce ne accorgiamo)

0

Per un bambino l’Intelligenza artificiale semplicemente “esiste”, la accetta come qualcosa che c’è e basta. Non è allarmato da questa irruzione improvvisa nella sua vita ma al tempo stesso, ovviamente, non ne ha alcuna consapevolezza. «Non ho paura dell’Intelligenza artificiale. Mi aiuta a fare i compiti. È gentile»: questa è una delle tante risposte che i bambini di quarta e quinta elementare hanno dato durante un laboratorio organizzato dal quotidiano Avvenire e riportate nel volume I minori e le sfide dell’Ai, curato dal Volocom Institute of strategic studies (Viss). Un libro che non è solo un saggio, ma una vera e propria indagine sociale sul modo in cui i media e i bambini stessi percepiscono l’Intelligenza artificiale, una rivoluzione pervasiva che sta trasformando ogni aspetto della vita quotidiana, dal lavoro alla salute, fino all’educazione e alla comunicazione. In questo scenario, i bambini sono al tempo stesso i soggetti più esposti e i meno consapevoli: crescono immersi in ambienti digitali intelligenti, ma spesso senza strumenti critici per comprenderli.

È da questa urgenza che nasce la ricerca curata dal Centro studi di Volocom, azienda informatica specializzata in media monitoring, e che evidenzia quel dato cruciale: i bambini non hanno alcuna paura dell’Ia, ma neppure strumenti per comprenderne i rischi; per loro è una tecnologia parte della quotidianità, priva di quell’aura di sospetto o timore che caratterizza spesso lo sguardo degli adulti: la cosa più sorprendente è l’assenza del dubbio. I bambini non si interrogano sull’origine o sull’uso delle risposte che ricevono da un chatbot, accettano l’Ia e basta.

Non si tratta di demonizzare. Ma nemmeno di banalizzare. La ricerca ricorda che i rischi esistono, e sono concreti. Uno dei più drammatici è l’utilizzo dell’Ia generativa per creare materiali pedopornografici sintetici: secondo l’Internet Watch Foundation, in un solo mese sono state individuate oltre 20 mila immagini create artificialmente e pubblicate nel Dark web, classificate come illegali.

Ma sono i dati a fare impressione: in un anno gli utenti di ChatGPT sono aumentati del 65 per cento e il tempo di utilizzo è raddoppiato. Ma c’è di più: secondo un’indagine di Orizzontescuola.it, è raddoppiato l’uso quotidiano da parte degli studenti, tre quarti dei quali usano l’intelligenza artificiale per fare compiti o temi.

Ma il pericolo non è solo nei contenuti estremi. C’è un rischio più sottile ma pervasivo: l’atrofizzazione del pensiero critico, l’abitudine a risposte precostituite, la perdita della lentezza e dell’errore, fondamentali nei processi di apprendimento. E ancora: l’omologazione delle informazioni, la dipendenza da sistemi che «parlano come noi» ma che non hanno coscienza, intenzionalità, responsabilità.

La ricerca solleva quindi un interrogativo pedagogico cruciale: sappiamo che l’apprendimento ha bisogno sia del tempo che dell’errore, cioè ha un suo specifico ritmo di crescita. Ma che cosa succede se affidiamo ai chatbot il compito di «rispondere subito e perfettamente»? Il rischio, sottolineano gli esperti, è quello di uno sviluppo cognitivo accelerato ma povero, più superficiale che profondo. Insomma, potremmo rischiare di allevare una nuova generazione dalle facoltà intellettuali più limitate. Certo, anche quando è comparso il Gps nelle nostre vite abbiamo smesso di “coltivare” il nostro senso dell’orientamento, ma il paragone non regge: l’Ia sta al Gps come la velocità del suono sta a quella della luce.

Il volume del Volocom Institute of strategic studies, frutto di un anno di analisi su oltre 200 mila fonti internazionali in sei lingue, si concentra sul racconto mediatico del rapporto tra Ia e minori (con un focus in particolare su Italia e Stati Uniti).

I risultati che elenchiamo di seguito sono chiari.

1. Il sentiment generale degli articoli è neutro nel 60 per cento dei casi: solo il 25 per cento ha un’impostazione apertamente positiva, mentre un 15 per cento adotta toni allarmistici o critici.

2. Le tematiche principali affrontate sono l’uso dell’Ia nella scuola, il rapporto con i chatbot, la tutela dei minori online e le preoccupazioni legate alla diffusione di contenuti generati dall’Ia (in particolare pedopornografia).

3. L’interesse mediatico cresce costantemente: picchi significativi si registrano in primavera (aprile) e in autunno (ottobre e dicembre), segno che il tema sta acquisendo centralità nell’agenda pubblica.

Il filosofo Stefano Davide Bettera, direttore strategico del Viss, dice che «siamo convinti che valga la pena cogliere la scommessa e la sfida che l’Intelligenza artificiale ci pone ma restando fedeli allo stesso tempo ai principi e ai valori che sono le fondamenta che ci hanno spinto ad agire fin dal primo giorno. Insieme possiamo fare la differenza e la parola insieme è proprio la chiave per aprire la porta verso il futuro». Più dubbioso il direttore scientifico, Fulvio Palmieri: «Che bisogno ha il bambino di accorciare i tempi e di non sbagliare? Perché la teoria dell’apprendimento lo dice chiaramente: imparare vuol dire sbagliare e vuol dire avere tempo per interiorizzare la conoscenza, che significa creare spazio nel nostro cervello per nuove conoscenze e, al contempo, rimettere a posto quelle che già avevamo. Se il cervello non percorre questi passaggi, con la presenza delle emozioni che svolgono l’altra funzione nell’apprendimento, il cervello non assimila niente».

L’Intelligenza artificiale nelle scuole, dunque? «Se si volesse provare a stimolare l’intelligenza naturale in qualsiasi grado scolastico bisognerebbe anzitutto compiere un gesto rivoluzionario per il nostro tempo, cioè quello di non seguire alcuna strategia o dato preconfezionato, perché altrimenti si continuerebbe a stimolare l’ambiente scolastico a funzionare come una Ia», evidenzia Monica Colli, formatrice pedagogista.

In conclusione arriviamo a uno dei nodi centrali della questione: può l’Intelligenza artificiale aiutarci ad allenare il pensiero critico? Ci risponde Guido Bosticco, docente di Professioni dell’editoria all’Università di Pavia: «Forse sì, se sapremo approcciarla non come oracolo, ma come partner nel processo conoscitivo ed evolutivo. La speranza è riposta proprio nelle giovani generazioni».

Valerio Bergamaschi, presidente del Centro studi di Volocom, rincara: «Questa straordinaria innovazione tecnologica può davvero contribuire a migliorare il mondo, anche se siamo consapevoli che allo stato attuale, e al netto dei suoi indubbi risultati nel campo sanitario, mancano grandi dimostrazioni di questa etica dell’Ia. Pertanto, dichiariamoci tutti Ambasciatori dell’Ia positiva e lavoriamo per crearne tanti!».

Proprio per dare una risposta a queste sfide, il Volocom Institute sta infatti lavorando a un progetto pilota che prenderà avvio nei prossimi mesi. L’idea è semplice ma ambiziosa: creare una rete nazionale di Ambasciatori dell’Ia Positiva – educatori, professionisti, genitori formati a guidare i giovani nel rapporto con l’Intelligenza artificiale – e redigere un Decalogo etico per l’utilizzo dell’Ia in contesti educativi.