E-Mail: [email protected]
- Avvocati e commercialisti devono informare sull'uso dell'IA.
- Vietato il controllo a distanza dei dipendenti con IA.
- Giustizia predittiva: IA solo come supporto, non decisione autonoma.
- Ricerca IA: dati utilizzabili senza consenso esplicito, ma con limiti.
- Garante interviene solo su trattamenti non conformi, non preventivamente.
- Comitati etici necessari solo per dati personali identificabili.
L’iter legislativo sull’intelligenza artificiale in Italia ha compiuto un passo significativo con l’approvazione da parte della Camera dei Deputati del disegno di legge (ddl) che delega il Governo a regolamentare l’uso dell’IA nel paese. Questo provvedimento, ora in attesa della terza lettura al Senato, potrebbe posizionare l’Italia come il primo Stato membro dell’Unione Europea a dotarsi di una legislazione nazionale organica sull’IA, integrando e attuando l’AI Act europeo.
Regolamentazione dell’IA: Ambito e Punti Chiave
Il disegno di legge mira a disciplinare l’impiego dell’intelligenza artificiale sia nel settore pubblico che in quello privato, concentrandosi su aree cruciali come le professioni, il mondo del lavoro, la giustizia, la pubblica amministrazione e la tutela del diritto d’autore. *Una delle disposizioni più rilevanti impone a figure professionali come avvocati e commercialisti di rendere edotti i propri assistiti circa l’impiego dell’IA nell’erogazione dei servizi. Allo stesso modo, viene sancito il divieto per i datori di lavoro di impiegare strumenti di intelligenza artificiale per il controllo a distanza dei dipendenti, una misura volta a proteggere la privacy e i diritti dei lavoratori.
Un altro aspetto fondamentale riguarda i limiti imposti alla cosiddetta “giustizia predittiva”, consentendo l’uso dell’IA solo come supporto tecnico o organizzativo all’attività dei magistrati, escludendo qualsiasi forma di decisione automatizzata. Questa restrizione mira a preservare l’indipendenza e l’imparzialità del sistema giudiziario.

- 🚀 Un passo avanti importante, ma......
- 🤔 Occasione persa? Ecco perché......
- ⚖️ Giustizia predittiva: un'arma a doppio taglio......
Reazioni Politiche e Preoccupazioni
L’approvazione del ddl ha suscitato reazioni contrastanti nel panorama politico italiano. Il sottosegretario all’Innovazione, Alessio Butti, ha espresso soddisfazione per il risultato, definendolo “un passaggio fondamentale per l’Italia” e auspicando una rapida approvazione definitiva al Senato. Tuttavia, la vicepresidente della Camera, Anna Ascani, ha criticato il testo, definendolo “un’occasione mancata per affermare una vera sovranità tecnologica europea”. Ascani ha lamentato la bocciatura di emendamenti volti a promuovere la trasparenza algoritmica e l’addestramento dei modelli di IA, paventando il rischio di una “colonizzazione” da parte di imperi tecnologici globali.
Anche la Rete per i Diritti Umani Digitali ha manifestato inquietudine, sottolineando la mancanza di bilanciamenti democratici e l’eccessiva influenza concessa al Governo. L’organizzazione ha criticato la bocciatura di proposte volte a istituire un’autorità indipendente, a garantire la trasparenza e a limitare la sorveglianza biometrica, definendo il ddl “un’occasione persa per tutelare i diritti fondamentali”.
Ricerca e Dati: L’Articolo 8 e le Sue Implicazioni
L’articolo 8 del disegno di legge introduce importanti novità in materia di gestione dei dati personali per la ricerca sull’intelligenza artificiale e settori affini. Facendo leva su una deroga contemplata dal GDPR, l’articolo identifica tali trattamenti come di “rilevante interesse pubblico”, rendendo possibile la loro esecuzione senza il consenso esplicito degli interessati, purché i soggetti coinvolti siano enti pubblici, organizzazioni private senza scopo di lucro o IRCCS impegnati in progetti di ricerca.
In aggiunta, l’articolo stabilisce che il Garante per la protezione dei dati personali non sia tenuto a concedere autorizzazioni preventive, ma possa intervenire attivamente solo per impedire eventuali trattamenti non conformi. La disposizione specifica altresì che l’approvazione da parte dei comitati etici è resa obbligatoria unicamente per il trattamento di dati personali identificabili, mentre non è richiesta per i dati anonimizzati, favorendo in tal modo una maggiore celerità nella ricerca scientifica*. Tuttavia, questa disposizione solleva interrogativi sul bilanciamento tra tutela della privacy e promozione dell’innovazione.
Verso una Sovranità Tecnologica? Riflessioni Conclusive
Il percorso legislativo italiano sull’intelligenza artificiale si trova a un bivio cruciale. Da un lato, l’approvazione del ddl rappresenta un passo avanti nella definizione di un quadro normativo nazionale, potenzialmente in linea con le direttive europee. Dall’altro, le critiche sollevate da più parti evidenziano il rischio di una visione limitata e provinciale, incapace di affrontare le sfide globali poste dall’IA.
La soppressione del comma che prevedeva l’installazione dei server in Italia per garantire la sicurezza dei dati sensibili, così come la possibilità di partecipare a fondazioni o società con soggetti pubblici o privati di paesi dell’Alleanza atlantica o extraeuropei, sollevano dubbi sulla reale volontà di perseguire una sovranità tecnologica nazionale. La questione della sovranità dei dati, infatti, è centrale in un’epoca in cui l’IA si nutre di informazioni e algoritmi.
È fondamentale che il legislatore italiano tenga conto delle preoccupazioni espresse dalle opposizioni e dalla società civile, aprendo un dibattito ampio e trasparente sulle implicazioni etiche, sociali ed economiche dell’intelligenza artificiale. Solo così sarà possibile costruire un futuro in cui l’IA sia al servizio del bene comune, nel rispetto dei diritti fondamentali e della dignità umana.
Amici lettori, riflettiamo insieme su un concetto fondamentale: l’intelligenza artificiale, per quanto avanzata, è uno strumento. La sua efficacia dipende dalla qualità dei dati con cui viene addestrata e dalla chiarezza degli obiettivi che le vengono posti. Un algoritmo, per quanto sofisticato, non è in grado di sostituire il pensiero critico e la capacità di giudizio dell’essere umano.
E qui entra in gioco un concetto più avanzato: l’explainable AI, o XAI. Si tratta di un approccio all’intelligenza artificiale che mira a rendere comprensibili le decisioni prese dagli algoritmi, consentendo agli utenti di capire come e perché un determinato risultato è stato raggiunto. L’XAI è fondamentale per garantire la trasparenza e l’affidabilità dei sistemi di IA, soprattutto in contesti delicati come la giustizia e la sanità.
In definitiva, l’intelligenza artificiale è una straordinaria opportunità per migliorare la nostra vita, ma è necessario affrontarla con consapevolezza e responsabilità, senza cedere a facili entusiasmi o a paure irrazionali. Il futuro dell’IA dipende da noi, dalla nostra capacità di governarla e di indirizzarla verso un orizzonte di progresso e di benessere per tutti.








