19 giugno: Normativa e implicazioni dell’AI Act per ricerca e impresa

condividi
condividi

Dal 2025 le aziende europee, o che operano in Europa, dovranno rispettare i requisiti fissati dalla prima normativa comunitaria in materia di Intelligenza Artificiale, approvata a fine maggio: l’AI Act

L’obiettivo è quello di sfruttare le opportunità ed evitare i rischi connessi all'applicazione dell'AI in impresa. Ma quali contributi possono arrivare dal mondo della ricerca, e quali implicazioni per il settore produttivo sono previste dal regolamento?

Se ne discute mercoledì 19 giugno 2024 ore 14.30-18.30, al Campus Scientifico di Mestre, durante l’evento HAI presente l’AI? Normativa e implicazioni dell’AI Act per ricerca & impresa organizzato con il patrocinio di Confindustria Veneto Est. Tra gli appuntamenti, anche una tavola rotonda sui vari aspetti che ruotano attorno all'AI e l'applicazione della nuova normativa (giuridici, informatici, etici, epistemologici), con l'opportunità di partecipare anche a un'ora di laboratori (AI LAB) in cui esplorare una delle aree di interesse dell'AI Act, come l’Integrazione dei sistemi di AI nei processi aziendali, la valutazione dei rischi, la sostenibilità e la sicurezza.

L’incontro è gratuito, in presenza. Per partecipare: https://bit.ly/AIACT-CF

Ne abbiamo parlato con Teresa Scantamburlo, ricercatrice di informatica presso il Dipartimento di Scienze Ambientali, Informatica e Statistica, che interverrà all’evento sul tema ‘impatto etico e sociale dell’AI’.

“L’AI Act considera l’intelligenza artificiale come un sistema socio-tecnico, non solo tecnico. Questo regolamento rappresenta una novità assoluta ed è il primo passo verso una IA ‘certificata’ UE. Il documento considera (e tutela) l’impatto che l’intelligenza artificiale può avere sulle persone, con l’obiettivo di indirizzarne lo sviluppo a vantaggio del benessere comune e di riequilibrare il rapporto uomo-macchina affrontando rischi come quello dell’ Automation Bias

Cosa si intende per 'Automation Bias'?

È la propensione a fidarsi troppo dell’algoritmo depotenziando l’analisi critica degli esseri umani. Potremmo chiamarlo ‘sovraffidamento’ tecnologico, ed è un rischio particolarmente evidente quando si sviluppano sistemi in grado di guidare le decisioni in ambiti critici, come l’ambito medico, ma anche nei casi di selezione del personale, o di selezione degli studenti all’Università, oppure nei sistemi di tutoraggio o assistenza virtuali. Un rischio simile si ha anche con l’IA generativa, come Chat GPT, se si lascia all’algoritmo l’idea creativa, perché non si sa bene cosa cerchiamo e come strutturare i comandi (i cosiddetti ‘prompt’). Siamo di fronte all’inizio di una delega pericolosa: lasciare che sia la macchina a decidere che cosa vogliamo. I sistemi di IA generativa sono predittivi, ma non hanno né intenzionalità né esperienza della realtà, prerogative degli esseri umani. Ecco, infatti, che l'AI Act introduce il requisito della supervisione umana (Human oversight)

Ce lo può spiegare?

Per sviluppare sistemi di IA serve il controllo degli esseri umani. Servono mediatori, serve un network di figure professionali con competenze diverse, non solo tecniche ma anche scientifiche, storiche, filosofiche, umanistiche. In questo percorso la Ricerca universitaria è molto coinvolta, e la sfida è doppia: far dialogare su questi temi Ricerca e aziende, ma anche fare in modo che figure professionali diverse imparino a parlarsi, condividendo un vocabolario condiviso. È una sfida all’autoreferenzialità e un'opportunità, per ricerca e imprese, di scoprire nuovi percorsi di innovazione digitale, più equi e sostenibili.

Federica Scotellaro