Cosa rischiano i minori nell’era dell’intelligenza artificiale: come proteggerli

Ecco cosa ci ha raccontato una voce autorevole sull'intelligenza artificiale, circa i pericoli per i nostri figli e cosa fare per aiutarli in questa nuova realtà tecnologica.

Foto di Giorgia Marini

Giorgia Marini

Parenting Specialist

Ex avvocato. Blogger, con la laurea sul campo in Problemi di Mammitudine. Da 6 anni scrivo di gravidanza, maternità ed infanzia, sul mio blog “Stato di Grazia a Chi?” e su altre testate online. Racconto la maternità con brio, garbo ed empatia.

Pubblicato: 10 Settembre 2024 09:00

Anche se non tutti ne siamo ancora pienamente consapevoli, viviamo in un’era digitale nella quale l’intelligenza artificiale si muove a pieno titolo nei nostri contenuti e nel mondo che ci viene condiviso, in quest’ottica non si possono tralasciare i nuovi rischi e la sicurezza online dei bambini, e più in generale il rapporto tra l’AI e minori.

Se l’avvento della tanto attesa (ma anche temuta) intelligenza artificiale ha lasciato interdetti molti adulti, va detto che i nostri figli, più curiosi quanto più avvezzi ai cambiamenti, possono essere attratti da queste tecnologie dalle innegabili potenzialità. Tuttavia i benefici che emergono dall’uso dell’intelligenza artificiale possono essere pari ai rischi. Per questo, garantire la sicurezza on line dei minori deve diventare una nostra prerogativa di genitori e di adulti, altrimenti gli scenari negativi del suo uso potrebbero essere peggiori di quanto già ora non si immagini.

In questo articolo parleremo di rischi ma anche di strategie per tutelare i minori. Parleremo anche dell’uso delle immagini dei nostri bambini/e, condivise a volte con troppa superficialità sui social, in quanto con l’intelligenza artificiale anche esse, con le manipolazioni oggi possibili, possono mettere a rischio la loro dignità e la loro sicurezza.

L’argomento ha richiesto il contributo di un’ esperta, in una materia che non tutti, non ancora, maneggiamo con adeguata disinvoltura. La nostra esperta è la dottoressa Mariella Borghi, business executive, con esperienza nell’Intelligenza Artificiale dal 2011, LinkedIN Top Voice Intelligenza Artificiale, TEDx Speaker, co-fondatrice di AIDEA per strategie e formazione sull’AI e di Aziende Vincenti, boutique-agency di digital marketing. Da anni, Mariella Borghi è un punto di riferimento per chi si occupa di AI.

I bambini e le nuove tecnologie dell' AI
Fonte: iStock
Cosa rischiano i minori con l’intelligenza artificiale

AI e rischi per i minori: dalle deepfake alle dipendenze

Se ancora troppi di noi sottovalutano ed ignorano il tema dell’accesso dei bambini ai device e dei rischi connessi, immaginiamo quanto si brancoli nel buio sui molteplici pericoli dell’uso dell’AI sui minori.

Abbiamo chiesto alla dottoressa Mariella Borghi, quali siano i principali rischi per i minori che, ad oggi, lei stessa ravvisa.

“L’intelligenza artificiale offre indubbiamente numerosi vantaggi ma presenta anche dei rischi che non possono essere negati, essi sono:

  1. la potenziale esposizione a contenuti inappropriati;
  2. la creazione di deepfake;
  3. la dipendenza tecnologica;
  4. il rischio di isolamento;
  5. l’esacerbazione del bullismo;
  6. il furto di identità;
  7. la manipolazione e l’uso improprio delle immagini personali”.
I bambini e le nuove tecnologie dell' AI
Fonte: iStock
Cosa rischiano i minori con l’intelligenza artificiale

Contenuti manipolati e rischio di dipendenza

Circa la possibilità di manipolare immagini, anche i meno interessati al tema hanno avuto un assaggio di cosa può accadere on line. È un problema che abbiamo avuto modo di conoscere recentemente, quello relativo ai contenuti finti, messi on line con perizia, che ci hanno fatto credere, seppur per un brevissimo lasso di tempo, che quel dato personaggio, avesse fatto o detto cose mai accadute. Solo per fare un esempio, ricorderemo tutti le immagini del Papa con l’ingombrante piumino bianco!

“L’AI può essere uno strumento nelle mani di chi intende manipolare o disinformare. La creazione di deepfake o contenuti falsi estremamente realistici può influenzare profondamente le opinioni dei giovani e delle giovani, che potrebbero non avere ancora sviluppato un senso critico sufficiente per distinguere il vero dal falso.

Un altro aspetto critico, come sottolineato dal neuropsichiatra Manfred Spitzer nella sua teoria della “demenza digitale”, è la dipendenza tecnologica che coinvolge adulti e minori. Molti sistemi di intelligenza artificiale sono infatti progettati per massimizzare l’engagement degli utenti, rendendo difficile staccare la spina. Questo uso eccessivo di schermi, soprattutto nei bambini, può avere serie ripercussioni sulla loro salute mentale e fisica, influenzando negativamente lo sviluppo cognitivo, le capacità di attenzione e il benessere emotivo”.

Violazione della privacy e rischio di isolamento

Seppur ormai il concetto di privato abbia subito non poche alterazioni, in nome di un pugno di like, la necessità di proteggerlo rimane alta, se sono in gioco la vita ed il futuro dei nostri bambini e bambine.

“La privacy dei minori è un’altra area di grande preoccupazione: l’AI può facilitare la raccolta e l’utilizzo improprio di dati personali, esponendoli a rischi di lungo termine legati alla loro sicurezza e identità digitale.

Il cyberbullismo, già un problema serio, può essere ulteriormente peggiorato dall’AI. Questa tecnologia può essere sfruttata per creare contenuti offensivi o per automatizzare comportamenti di bullismo online, rendendo più difficile per le vittime difendersi o per gli adulti intervenire efficacemente.

Infine, c’è il rischio di isolamento sociale. L’interazione eccessiva con sistemi AI, che possono sembrare sempre più “umani” e coinvolgenti, potrebbe portare giovani (ma anche adulti) a ridurre le loro interazioni sociali reali. Questo può avere un impatto negativo sullo sviluppo delle loro competenze sociali e emotive, fondamentali per benessere futuro”.

I bambini e le nuove tecnologie dell' AI
Fonte: iStock
Cosa rischiano i minori con l’intelligenza artificiale

L’AI e il furto d’identità

C’è poi un problema ulteriore che merita di essere menzionato, separatamente rispetto agli altri rischi nei quali possono incorrere i minori. Un rischio sempre più tangibile e probabile in quanto legato alla sovraesposizione delle immagini dei nostri bambini/ bambine e dei giovani in genere, sui social. Parliamo del furto di identità.

Sebbene si sappia che condividere immagini ed informazioni molto personali sui social sia pericoloso, rendendoci soggetti esposti a decine, centinaia o migliaia di estranei che, in tal modo, sanno che faccia abbia nostro figlio, dove vada a scuola, che strada faccia per ritornare a casa, dove sia in vacanza, spesso giochiamo con il fuoco pur di mostrare che ci siamo anche noi: scatto, condivido, ergo esisto!

Con l’uso dell’intelligenza artificiale e con la possibilità di manipolare le immagini, i nostri bambini e le nostre bambine avranno a che fare con situazioni ancora più pericolose. Ce lo spiega meglio Borghi.

“Le immagini dei bambini, condivise spesso innocentemente sui social media, possono diventare strumenti pericolosi nelle mani sbagliate. Malintenzionati potrebbero utilizzarle per creare profili falsi sui social, ingannando altri utenti e potenzialmente danneggiando la reputazione del minore. Ancora più allarmante è la possibilità di generare deepfake, video o immagini manipolate in modo estremamente realistico, che potrebbero mettere il minore in situazioni compromettenti o false. Nel lungo termine, queste foto potrebbero facilitare il furto d’identità, perché forniscono informazioni cruciali per compiere atti fraudolenti. Inoltre, c’è il rischio che le immagini vengano utilizzate in contesti completamente diversi da quelli originali, potenzialmente dannosi per il minore coinvolto”.

Si rendono necessari, dunque, un cambiamento radicale delle nostre abitudini social ed un dialogo con i più giovani circa la consapevolezza dei nuovi pericoli conseguenti alla  propria eccessiva esposizione in rete.

I bambini e le nuove tecnologie dell' AI
Fonte: iStock
Cosa rischiano i minori con l’intelligenza artificiale

Come proteggere i minori dall’AI

Forse, sin qui, vi abbiamo un po’ spaventati, se così fosse, è bene sapere che l’intelligenza artificiale non è nostra nemica, purché la si conosca e la si usi nel modo opportuno.

Del resto, proteggere i nostri figli e le nostre figlie si può fare attraverso:

  1. una corretta ed indispensabile educazione digitale;
  2. strumenti che proprio la tecnologia ci mette a disposizione;
  3. leggi ad hoc.

Se anche prima dell’avvento dell’AI si chiedeva ad educatori e genitori di farsi portavoce di una buona e solida educazione digitale, non diversa da quella che si fa per altre materie della nostra vita, orami ciò diventa indispensabile per vivere serenamente.

A venirci incontro, ci sono anche strumenti che, come anticipato, è proprio la tecnologia a fornirci, si pensi al parental control e a come si presti esso stesso a proteggere ed, in alcuni casi, ad educare.

Inoltre, i Paesi stessi non possono ignorare la realtà nella quale siamo calati da decenni e devono trovare modi per aiutarci in questa battaglia di salvaguardia dei nostri figli. Ma, ora, approfondiamo con la nostra esperta.

Cosa possono fare le famiglie

“L’educazione digitale deve essere un pilastro fondamentale: famiglie e scuole dovrebbero collaborare per insegnare come navigare consapevolmente nel mondo tecnologico. Genitori e insegnanti, a loro volta, dovrebbero formarsi per comprendere le sfide dell’era digitale, creando un dialogo intergenerazionale su temi come la privacy online e l’uso responsabile dei social media.

Parallelamente, il controllo parentale evolve con la tecnologia. Software avanzati offrono ai genitori strumenti sofisticati per monitorare e limitare l’accesso dei figli a contenuti potenzialmente dannosi.

Per tutelare i minori, noi adulti dobbiamo:

  • limitare la condivisione: di foto ed informazioni;
  • limitare l’accesso ai contenuti solo a cerchie ristrette di persone;
  • evitare dettagli identificativi (nomi completi, date di nascita o luoghi precisi);
  • Utilizzare watermark o bassa risoluzione per rendere più difficile il riutilizzo delle immagini.

Anche le piattaforme considerate più sicure come WhatsApp non sono esenti da rischi. La chiave è la consapevolezza e l’uso responsabile di qualsiasi piattaforma”.

Cosa possono fare le Istituzioni

“Sul fronte istituzionale, i legislatori devono necessariamente confrontarsi con la necessità di regolamentare l’uso dell’AI in relazione ai minori.

L’AI Act dell’UE (la legge che disciplina lo sviluppo e/o l’uso dell’intelligenza artificiale nell’Unione Europea) include disposizioni specifiche per proteggere i minori:

  • classifica sistemi AI che li influenzano, come ad alto rischio;
  • impone restrizioni sull’uso dei dati;
  • vieta pratiche dannose;
  • richiede trasparenza e valutazioni d’impatto;
  • promuove la supervisione umana e l’educazione digitale;
  • prevede sanzioni severe per le violazioni.

Inoltre, la comunità scientifica intensifica gli sforzi di ricerca e monitoraggio per comprendere l’impatto a lungo termine dell’AI sullo sviluppo cognitivo e sociale dei minori.

Questo approccio su più fronti, che coinvolge famiglie, istituzioni e ricercatori si propone di creare un ecosistema digitale sicuro in cui i minori possano beneficiare delle opportunità offerte dall’AI, minimizzando al contempo i rischi associati”.

I bambini e le nuove tecnologie dell' AI
Fonte: iStock
Cosa rischiano i minori con l’intelligenza artificiale

I Paesi all’avanguardia nella tutela dei minori

Infine, abbiamo sottoposto a Mariella Borghi un ulteriore aspetto, con il quale concludiamo la nostra disamina sulla sicurezza on line dei minori, quando si ha a che fare con le nuove intelligenze artificiali. Le abbiamo chiesto se esistono dei Paesi più virtuosi di altri su questo fronte e cosa stanno facendo in pratica.

“Diversi Paesi stanno emergendo come pionieri nella regolamentazione e nell’uso etico dell’intelligenza artificiale, con particolare attenzione alla protezione dei minori. L’Unione Europea si distingue con il GDPR e il l’AI Act, che stabiliscono standard elevati per la privacy e l’uso responsabile dell’AI.

La Corea del Sud ha fatto passi significativi implementando linee guida etiche e sviluppando normative specifiche per l’AI.

Il Canada ha adottato un approccio proattivo, concentrandosi sull’uso etico dell’AI nel settore pubblico attraverso direttive mirate.

Il Giappone, con la sua visione di un’AI incentrata sull’uomo, sta elaborando principi e linee guida che pongono le esigenze e i diritti umani al centro dello sviluppo tecnologico.

Questi Paesi stanno creando modelli che potrebbero influenzare le politiche globali sull’AI, bilanciando innovazione e protezione, anche dei minori”.