Intelligenza artificiale e minori: profili di responsabilità civile e nuove tutele normative

28 Maggio 2025

I chatbot e le intelligenze artificiali emulano il parlato umano tramite modelli linguistici che hanno raggiunto l’apice del loro successo grazie anche al loro essere tipicamente gratuiti e facilmente accessibili. Tale fermento sul tema ha generato diverse discussioni etiche, morali e legali sull’impiego delle varie intelligenze artificiali in tutti gli ambiti della vita quotidiana riguardanti i soggetti più vulnerabili quali i minori.

AI conversazionale: Chatbot nel contesto lavorativo e responsabilità connesse

chatbot e le intelligenze artificiali (AI) costituiscono una fetta importantissima delle gioie e dei dolori dell'umanità in questo periodo di innovazione tecnologica.

Servizi come ChatGPT, Bing e Bard, che emulano il parlato umano tramite dei modelli linguistici, hanno raggiunto, nei mesi scorsi, l'apice del loro successo grazie alla gratuità e alla immediata accessibilità che li contraddistinguono. Tale fermento sul tema ha generato diverse discussioni etiche, morali e legali sull'impiego delle intelligenze artificiali in tutti gli ambiti della vita quotidiana e specialmente sul lavoro.

Soffermiamoci su tale ultimo ambito comprendendo quali possono essere i rischi di un chatbot sul posto di lavoro.

Un interessante caso riguarda il chatbot di Air Canada. Nel marzo 2023, la compagnia aerea aveva lanciato un chatbot per il suo sito in grado di gestire i numerosi intoppi quotidiani ed alleggerire il carico che gravava sulle spalle degli addetti al suo call center. «Ritardi, cancellazioni o variazioni inaspettate? Ci pensa l'AI!» Questo sistema stava diventando così affidabile e vantaggioso che il CIO di Air Canada (il responsabile dei sistemi informativi) Mel Crocker aveva dichiarato in un'intervista come fosse più economico ed efficiente lasciare che il chatbot si occupasse di tali inconvenienti piuttosto che assumere dei centralinisti umani per farlo. In questo modo, stando alle sue parole, il cliente avrebbe avuto un‘esperienza migliore, soprattutto col progredire di questa tecnologia. Così non è stato, però, per un passeggero che intendeva avvalersi della politica di “viaggio per lutto” di Air Canada, il giorno in cui un suo affetto venne a mancare. Incerto di come funzionasse questa loro policy, il passeggero si era rivolto al chatbot per dei chiarimenti su un volo da Vancouver a Toronto. La macchina gli aveva prontamente risposto di procedere con l'acquisto del biglietto per poi richiedere un rimborso parziale entro 90 giorni dall'emissione. Nonostante l'aver seguito le direttive del chatbot, però, il cliente si sarebbe poi visto negare con grande sorpresa la richiesta, in quanto le politiche della compagnia non prevedrebbero alcun rimborso una volta effettuata la prenotazione del volo. Da quell'evento, il cliente avrebbe provato per mesi a convincere Air Canada che un rimborso sarebbe stato d'obbligo, condividendo con loro lo screenshot del dialogo avuto con l'AI. Dal canto suo, la compagnia aerea non poté fare altro che offrire un coupon da 200 dollari e promettere di aggiornare il bot, ma questo non andò giù al passeggero e la vicenda finì in Tribunale. Lì, Air Canada si sarebbe difesa dicendo che il cliente non si sarebbe mai dovuto fidare solo del chatbot e che la compagnia non avrebbe dovuto essere ritenuta responsabile per il comportamento della macchina, in quanto essa sarebbe: «un'entità giuridica a parte che è responsabile delle proprie azioni». Naturalmente questa difesa non ebbe alcun effetto e il cliente in questione si vide accordare un risarcimento di 650 dollari canadesi, insieme ad ulteriori 1.640 dollari per coprire danni e spese giudiziarie. Mentre per certi versi ci si continua a interrogare su chi abbia realmente la responsabilità delle risposte di un chatbot che impara da solo, quello di Air Canada parrebbe essere stato disattivato dal sito della compagnia senza ulteriori spiegazioni. Quella di Air Canada e storie affini hanno fatto crescere una serie di timori su come i dipendenti possano utilizzare tali strumenti sul posto di lavoro e di come questi potrebbero compromettere l'azienda anziché aiutarla. Le preoccupazioni spaziano dalla riservatezza e privacy all'accuratezza, dal bullismo/ molestie sul posto di lavoro alla proprietà del prodotto lavorativo.

Abbiamo visto come l'inesattezza di alcune informazioni abbia provocato danni sia alla compagnia che al cliente che si avvaleva di un chatbot, ma cosa potrebbe accadere nel momento in cui, ad esempio, un simile strumento che immagazzina informazioni sul suo utilizzatore è causa di una fuga di dati involontaria? Queste ad altre domande sono state alla base delle perplessità del Garante della Privacy che ha portato al divieto temporaneo di ChatGPT in Italia nel marzo del 2023.

Un altro grande problema non ancora regolato, affine a quello della protezione dei dati personali, è quello della proprietà di ciò che viene prodotto o immesso sui chatbot. Un autore di testi letterari o codici di programmazione potrebbe chiedere aiuto a ChatGPT per la stesura di uno dei due, ma a quel punto la domanda sorge spontanea: il lavoro svolto si potrebbe veramente considerare di proprietà dell'umano? O è frutto del lavoro della macchina, e come tale essa ne detiene i diritti? Per non tralasciare la possibilità che suddetti testi vengano “riciclati” in risposta ad altri utenti, con tutte le implicazioni del caso.

Nel contesto lavorativo i sistemi di intelligenza artificiale si stanno progressivamente affermando come strumenti a disposizione del datore di lavoro e dei dipendenti.

Ci si domanda in capo a chi è la responsabilità nel caso in cui l'intelligenza artificiale commetta un illecito. Si pensi al tema del trattamento dei dati personali dei lavoratori raccolti attraverso posta elettronica e navigazione su Internet, anche attraverso sistemi di intelligenza artificiale, la quale tuttora è al centro delle attività del Garante Privacy. Sul punto, nel 2024 la stessa Autorità ha pubblicato il Documento di indirizzo «Programmi e servizi informatici di gestione della posta elettronica nel contesto lavorativo e trattamento dei metadati», con il quale ha, indubbiamente, ridestato l'attenzione sul “potere informaticodel datore di lavoro, il quale può controllare anche attraverso gli strumenti informatici utilizzati dal lavoratore, il rispetto delle direttive dallo stesso impartite e l'integrità dei dati personali del cui trattamento è responsabile. Tale forma di potere, che si pone in modo trasversale ai tradizionali poteri datoriali (direttivo, controllo e disciplinare) deve essere bilanciato oltre che con il diritto del lavoratore al rispetto della libertà e della dignità, nonché alla riservatezza e alla protezione dei dati personali anche con l'intenzionalità dell'azione da parte di un sistema di intelligenza artificiale. Si pensi ad una mail inviata dal dipendente attraverso l'uso di un sistema di AI o alle risposte fornite da un chatbot, soprattutto con riguardo a fatti e persone. Questo aspetto sull'intenzionalità potrebbe diventare preminente per l'individuazione della responsabilità legale di un eventuale atto compiuto dall'AI. Ci si chiede, anche se la risposta appare ovvia, se, quando un'intelligenza artificiale commette un atto foriero di conseguenze legali, questa risulti penalmente responsabile o se la responsabilità, qualora esistente, debba essere ricercata nell'agire umano, tenendo presente che è opportuno abbandonare la logica per cui ad ogni evento dannoso corrisponde un errore umano pregresso, sia esso del produttore o dell'utilizzatore della macchina.

Preso atto dell'impossibilità di ascrivere un fatto di reato in capo ad una macchina, occorre soffermarsi nei meccanismi di imputazione soggettiva propri del diritto penale, il quale si basa su criteri soggettivi rigorosi. La normativa prescrive l'identificazione di un preciso coefficiente psicologico: il dolo, inteso quale rappresentazione e volontà di commettere l'illecito, o la colpa, legata a una condotta imprudente che porta al verificarsi dell'evento dannoso. Per i reati dolosi è necessario dimostrare che l'agente avesse l'intenzione di commettere il reato utilizzando il motore di intelligenza artificiale come strumento. La questione è più complessa con riferimento ai reati colposi, per i quali, non essendo intenzionali ma unicamente prevedibili, può essere chiamato a risponderne ogni soggetto che fruisca delle nuove tecnologie senza avere nessun'intenzione criminosa. Al riguardo si può affermare che è possibile muovere un rimprovero a titolo di colpa solo in presenza di una violazione di una regola cautelare la cui trasgressione conduce alla realizzazione dell'evento di reato. Sul punto la distinzione tra colpa generica e specifica acquista rilevanza, soprattutto alla luce dell'AI ACT, il quale è destinato a introdurre potenziali “regole cautelari”, atte a definire i contorni della responsabilità colposa nell'utilizzo di motori di intelligenza artificiale. Il nuovo Regolamento sull'intelligenza artificiale, infatti, ha l'obiettivo di stabilire standard di condotta attesi per prevenire danni, fornendo così una base solida per l'imputazione della responsabilità in casi di uso improprio o negligenza nell'applicazione delle tecnologie AI.

La questione relativa alle lacune in termini di responsabilità connessa ai sistemi di intelligenza artificiale risulta essere tra le sfide più complesse poste dall'avvento delle tecnologie di intelligenza artificiale nel mondo giuridico. Dinanzi tale divario, che rappresenta una zona grigia, emerge la problematica relativa agli illeciti non punibili, ovvero quei comportamenti dannosi che, pur essendo verificatisi, non sono ricollegabili alla responsabilità penale per mancanza di un diretto collegamento causale con l'intenzione dell'agente o per l'assenza di un elemento psicologico riconducibile a dolo o colpa. In tale scenario, il diritto civile pare offrire degli strumenti più flessibili e adeguati in riferimento alla ricerca di soluzioni alternative per colmare il tema del responsability gap. Tra queste, viene in rilievo la figura della responsabilità “no fault”, ovvero un modello di responsabilità risarcitoria che non richiede la prova della colpa, ma si fonda sulla verifica dell'evento dannoso e del suo nesso con l'attività in questione. Trattasi di una tipologia di responsabilità conosciuta dal nostro ordinamento con riferimento ai danni causati dall'esercizio di attività pericolose (art. 2050 c.c.), da animali (art.2052 c.c.o da circolazione di veicoli (art.2054 c.c.). Tale sistema, predeterminando la responsabilità a carico di soggetti chiave nella gestione e implementazione dei sistemi AI, si propone come una possibile soluzione equilibrata per garantire la tutela delle vittime di danni causati dalle nuove tecnologie, senza incorrere in contraddizioni con i principi costituzionali.

L’uso dell’intelligenza artificiale da parte dei minori e le tutele fornite dalle nuove normative

Viviamo in un'era in cui la tecnologia, inclusa l’AI, sta diventando sempre più pervasiva.

Oggigiorno, i minori interagiscono sempre più frequentemente con le molteplici forme in cui l’intelligenza artificiale può manifestarsi nella loro vita quotidiana. Insegnare ai bambini come funziona l'AI non solo li aiuta a comprendere il mondo che li circonda, ma anche a sviluppare la capacità di dominare la tecnologia, anziché subirla passivamente. Si pensi agli algoritmi delle piattaforme di video on demand Netflix, Disney+, Youtube, sempre più specializzati nel guidare i consumi attraverso playlist e suggerimenti di visione e nel conoscere i gusti degli utenti, agli algoritmi delle piattaforme didattiche come Classdojo o a quelli dedicati alla gamification.

L’incontro dei minori con l’AI coincide altresì con l’uso di particolari tipi di videogiochi e giocattoli, quando interagiscono con assistenti virtuali o quando imparano usando software di apprendimento adattivo (cioè basati sulle peculiarità del singolo studente).

Nel momento in cui accedono a Internet, gli algoritmi di intelligenza artificiale forniscono consigli ai bambini su quali video guardare, quali notizie leggere, quale musica ascoltare, con chi stringere amicizia o chi seguire sui social.

I minori hanno a disposizione una serie di servizi facilmente accessibili a chiunque sia in possesso di uno smartphone o di un computer e di una connessione ad Internet, i quali possono, grazie all’IA conversazionale (riferendosi a tecnologie, come chatbot o agenti virtuali, con cui gli utenti possono parlare, le quali utilizzano grandi volumi di dati, il machine learning e l'elaborazione del linguaggio naturale per aiutare a imitare le interazioni umane, riconoscere input vocali e testuali e tradurne i significati in varie lingue) risultare molto convincenti per una persona, soprattutto se minore, vulnerabile e in una fase critica della crescita, nel fornire i propri dati personali, anche particolari, come l’orientamento sessuale e lo stato di salute psicofisica.

Dal 1966, anno della creazione e utilizzo della prima chatbot chiamata “ELIZA”, sono cambiate molte cose, ma non i pericoli che ne possono derivare.

Infatti, il creatore di ELIZA, Jospeh Weizenbaum, dopo aver realizzato quanto facilmente le persone rimanessero coinvolte da un semplice calcolatore in grado solamente di rispondere tramite ulteriori domande, passò il resto della propria vita a cercare di avvertire il pubblico sui potenziali pericoli di un’umanità sempre più dipendente da questa tecnologia. Era consapevole che l’adolescenza è il momento della crescita di una persona in cui si soffre di più nel fare delle scelte che potrebbero potenzialmente influenzare il resto della vita. Infatti, la facilità con cui un adolescente si approccia ad una nuova tecnologia spesso non è accompagnata dalla consapevolezza sui possibili effetti collaterali del suo utilizzo.

Risulta, pertanto, facile immaginare quanto un adolescente possa, in un’ipotetica situazione di disagio sociale o psicologico che non è raro riscontrare in tale fase della vita, fare affidamento su un chatbot basato sull’IA che acconsenta a tutte le sue richieste, preferendola ai rapporti con altri esseri umani, i quali richiedono invece impegno, per essere mantenuti, e un costante bilanciamento tra i propri interessi e quelli della persona con la quale interagisce.

Ci si chiede da chi vengono gestiti tali chatbot basati sull’IA e a quali server arriveranno i dati personali che un adolescente immette nel sistema mentre chiacchera con una IA conversazionale (ovvero un chatbot basato sull’IA). Infine, quale utilizzo ne faranno le società che trattano questi dati?

Possiamo citare, di seguito alcuni esempi.

La Nectar AI, della Nectar AI LLC, è una società statunitense. La principale forma di IA che viene pubblicizzata sul loro sito, in lingua inglese, anche attraverso articoli in lingua italiana pubblicati da siti sponsorizzati da grandi aziende, è quella relativa alla creazione di una “fidanzata virtuale” con la quale l’utente può “giocare”. Per quanto la componente sessuale venga dichiarata nella pagina principale del sito, si possono visionare numerose immagini di donne artificiali in pose suggestive. Cliccando su “Nectar Roleplay”, si viene guidati attraverso una serie di indicazioni alla creazione di una “fidanzata virtuale”. L’unico elemento di copliance presente nel sito risulta l’obbligo di dichiarare l’età, che di default è impostata su “18 anni” e che non permette di scegliere un’età inferiore. Non è presente nessuna informativa privacy prima dell’inizio di una conversazione con tale chatbot basato sull’IA. È presente un’unica informativa nel sito, all’interno della quale solo vagamente si fa riferimento ai servizi proposti e, soprattutto, non vi è alcun chiaro riferimento ad eventuali categorie particolari di dati personali, le quali certamente verrebbero trattate nel caso in cui un interessato conversi con una fidanzata virtuale. Infatti, è innegabile come, nel rapportarsi e nel confidarsi con una tale tipologia di chatbot, vengano trattate, potenzialmente, categorie particolari di dati personali ex art. 9 del GDPR come l’orientamento sessuale, quello politico, lo stato di salute fisica e/o psicologica. Inoltre, la società Nectar AI LLC non sembra né aver aderito allo EU – US Data Privacy Framework né regolato in alcuna altra maniera il trasferimento di tutti questi dati personali al di fuori dell’Unione Europea.

Ulteriore sito da poter richiamare è “Aichatting”, facilmente accessibile dagli adolescenti nostrani in quanto è disponibile anche in lingua italiana, in cui, tra le personalità dei chatbot basati sulle AI, vengono pubblicizzate, oltre a quelle relative a personaggi famosi, anche quelle relative a professionisti del settore psicologico, come, ad esempio, “Dr. Lawson”, indicata nella propria presentazione come “La tua psicologa”. Cliccando su tasto “Chattare”, si è immediatamente catapultati in una stanza per la chat con tale figura professionale. Si rileva che la modalità è la medesima per altre figure quali, ad esempio, il life coach, l’interpretatore dei sogni, il consulente finanziario e così via. In tutti questi casi si accede direttamente alla chat, senza alcuna informativa che metta a conoscenza delle modalità con cui i dati, anche particolari, vengono trattati. Inoltre, sia per i termini e condizioni di utilizzo che per quelli relativi ad una informativa sul trattamento dei dati personali, le rispettive pagine portano ad una pagina di errore “404”.

Ciò ci fa riflettere su una assenza quasi totale degli adempimenti privacyrichiesti dalla normativa europea in tema di protezione dei dati personali e della responsabilizzazione a cui è tenuto il titolare del trattamento secondo il GDPR. È evidente come un minore possa sentirsi perduto e impreparato, di fronte alle sfide della fase adolescenziale, affidandosi a questo tipo di servizi.

Il Regolamento europeo in materia di servizi digitali del Parlamento europeo e del Consiglio del 19 ottobre 2022, relativo a un mercato unico dei servizi digitali e che modifica la Direttiva 2000/31/CE – DSA, per quanto non affronti direttamente il tema del cyberbullismo, prevede delle tutele generali applicabili anche a questa fattispecie, oltre a riconoscere delle garanzie efficaci per gli utenti, compresa la possibilità di contestare le decisioni di moderazione dei contenuti delle piattaforme e di introdurre misure di trasparenza per le piattaforme sugli algoritmi utilizzati.

In altri termini, dato che i contenuti vengono rimossi (o non vengono pubblicati) sulla base di algoritmi, le piattaforme dovranno rendere accessibili almeno i criteri con cui decidono di rendere visibile o meno o di rimuovere un determinato contenuto.

E se le moderazioni non saranno efficaci, le autorità garanti nazionali avranno la possibilità di intervenire in modo tempestivo, mediante le procedure previste in caso di inerzia di piattaforme, portali o social media.

Motori di ricerca e social network si son dotati, infatti, di autonomi mezzi di segnalazione degli utenti. Google, ad esempio, ha già una procedura abbastanza immediata per chiedere la deindicizzazione di contenuti violenti o sessualmente espliciti.

Ci si deve quindi aspettare che vengano creati dei modelli di filtro a monte (ossia algoritmi che valutano immediatamente la pubblicabilità o meno di un contenuto, una sorta di censura, insomma) ed a valle (procedure di rimozione semplificate) per ovviare al problema della trasparenza degli algoritmi di moderazione.

L’implementazione di strumenti di questo tipo, dunque, potrebbe rendere la vita veramente difficile per i c.d. cyberbulli. In riferimento a questi ultimi è stata pubblicata, in Gazzetta Ufficiale, lo scorso 31 maggio 2024 la legge contro il bullismo e cyberbullismo (l. n. 70/2024con la quale vengono istituite campagne informative e di sensibilizzazione per la diffusione della conoscenza dei metodi di controllo parentale e, in riferimento ai percorsi rieducativi, vengono inasprite le misure coercitive non penali che possono essere adottate dal Tribunale per i minorenni.

La predetta normativa punta a contrastare i fenomeni di bullismo e cyberbullismo soprattutto attraverso interventi di tipo preventivo più che repressivo partendo, in primo luogo, dalla scuola. Nel provvedimento, infatti, si prevede l’istituzione di un tavolo tecnico, al Ministero dell’Istruzione e del Merito, per la redazione di un piano di azione per il contrasto al bullismo ed al cyberbullismo con una serie di linee guida che tutti gli istituti scolastici dovranno adottare attraverso un proprio codice interno.

Le scuole dovranno anche istituire un tavolo di monitoraggio con i rappresentanti degli studenti, degli insegnanti, delle famiglie e degli esperti del settore. Dovrà essere potenziato il servizio per l’assistenza psicologica e giuridica delle vittime; in particolare le scuole potranno chiedere un servizio di sostegno psicologico e di coordinamento pedagogico per gli studenti al fine di promuovere l’inserimento e la partecipazione sociale degli stessi. Inoltre, la legge prevede che i dirigenti scolastici che vengano a conoscenza di atti di bullismo – se non costituiscono reato – dovranno informare le famiglie e promuovere iniziative di tipo educativo nei confronti dei minori coinvolti. Nei casi più gravi o di condotte reiterate, dovranno invece riferire alle autorità competenti al fine di adottare eventuali percorsi riabilitativi.

Per il contrasto al cyberbullismo, saranno anche previste campagne informative e di sensibilizzazione per la diffusione della conoscenza dei metodi di controllo parentale. La legge ha istituito, per il 20 gennaio, la Giornata del rispetto, dedicata alla sensibilizzazione alla non violenza fisica e psicologica e al contrasto di ogni forma di discriminazione e prevaricazione.

Il provvedimento interviene altresì sulla norma riguardante l’affidamento ai servizi sociali di minori che diano «manifeste prove di irregolarità della condotta o del carattere» aggiungendo i casi di «condotte aggressive, anche in gruppo o per via telematica» e prevedendo, da parte del Tribunale dei minori, «la verifica di possibili percorsi di mediazione o lo svolgimento di progetti rieducativi sotto il controllo dei servizi sociali».

Infine, nel testo è stata data una definizione di bullismo, ovvero una «aggressione o molestia reiterate, da parte di un singolo o di un gruppo di persone, contro un minore o un gruppo di minori» che provocano «sentimenti di ansia, timore, isolamento o emarginazione attraverso atti e comportamenti vessatori, pressioni o violenze fisiche o psicologiche, istigazione al suicidio o all’autolesionismo, minacce o ricatti, furti o danneggiamenti, offese o derisioni». Relativamente ai percorsi rieducativi vengono inasprite le misure coercitive non penali che possono essere adottate dal Tribunale per i minorenni, inserendo espressamente, tra i presupposti per l’adozione di tali misure, il riferimento a condotte aggressive, anche in gruppo e per via telematica, nei confronti di persone, animali o cose o lesive della dignità altrui.

Viene, inoltre, modificato il procedimento per l’adozione delle misure, prevedendo un intervento preliminare con un percorso di mediazione o un progetto di intervento educativo con finalità rieducativa o riparativa, sotto la direzione e il controllo dei servizi sociali minorili, all’esito del quale il Tribunale può disporre la conclusione del procedimento, la continuazione del progetto ovvero l’affidamento del minore ai servizi sociali o il collocamento del minore in una comunità (delle ultime due misure è stabilito il carattere temporaneo). Il provvedimento contiene anche una delega legislativa al Governo per l’adozione, entro dodici mesi dalla data di entrata in vigore della legge, di uno o più decreti legislativi al fine di prevenire e contrastare il fenomeno del bullismo e del cyberbullismo.

Si prevedono, fra l’altro, l’implementazione del numero pubblico di emergenza 114, l’obbligo di richiamare espressamente nei contratti con i fornitori di servizi di comunicazione elettronica le disposizioni civilistiche in materia di responsabilità dei genitori per i danni cagionati dai figli minori e le avvertenze del regolamento europeo in materia di servizi digitali e campagne di prevenzione e sensibilizzazione da parte della Presidenza del Consiglio.

Riferimenti

  • I.M. Alagna, Cyberbullismo è legge: cosa cambia per istituti scolastici e minori, in Diritto & Giustizia, penale, 31 maggio 2024;
  • I.M. Alagna, Minori e intelligenza artificiale conversazionale: una questione di etica costitutiva tra precauzioni, profili di criticità e vantaggi, in Diritto & Giustizia, civile e processo, 4 ottobre 2024;
  • D. Spera, Responsabilità civile e danno alla persona, Giuffrè, 2025, 697 e ss.

Vuoi leggere tutti i contenuti?

Attiva la prova gratuita per 15 giorni, oppure abbonati subito per poter
continuare a leggere questo e tanti altri articoli.