Guidare il cambiamento legato all’AI, per garantire che le innovazioni tecnologiche basate sull’AI costituiscano un’opportunità di incremento del benessere e della qualità di vita

 

INFORMATICA

Il termine «informatica» e` stato coniato nel 1962 da Philippe Dreyfus e deriva dal francese «informatique», composto da «information» e «automatique», vale a dire «informazione automatica»

I "DATI" rappresentano la vera risorsa per la creazione di modelli AI

 

Negli ultimi anni i dati hanno assunto importanza via via crescente nell’organizzazione delle attività di produzione e di scambio, a tal punto da poter essere considerati una risorsa economica a tutti gli effetti, anzi la risorsa di gran lunga più importante in molti settori.

Nel contesto di tecnologie AI, l’accesso ai dati risulta cruciale non solo per la formazione di soluzioni di AI (addestramento e fine-tuning) a monte ma altresì per l’implementazione e l’offerta di servizi basati sull’AI.

Le piattaforme digitali sono diventate luoghi di scambio in cui l’utente non è solo un consumatore passivo, ma una risorsa attiva che contribuisce alla creazione di valore (monetizzazione da sfruttamento dei dati).

Con il termine «big data» si indica un complesso di dati enormemente vasto che può essere utilizzato per formare nuova conoscenza attraverso le relazioni tra dati conoscibili.

In specifici settori l’utilizzo dei big data diventa centrate:

ad es. nell’offerta di nuovi servizi pubblici contribuendo a migliorare la qualità della vita della collettività. Si pensi, per esempio, al traffico che può essere monitorato costantemente grazie alla condivisione dei dati relativi agli spostamenti registrati dagli smartphone, e gestito, nella misura in cui molteplici applicazioni di navigazione satellitare usano questi dati per suggerire ai propri consumatori il percorso più breve e meno congestionato. Ancora, secondo l’approccio Big Data possono essere monitorati i tempi di attesa presso gli sportelli pubblici. Analogamente, in ambito sanitario, grazie ai progressi nelle tecnologie di nuova generazione che hanno portato ad una disponibilità crescente di dati biomedici, sono state create banche dati ad accesso libero contenenti dati genomici e clinici di pazienti in forma anonima. Tali database contenenti un gran numero di dati eterogenei costituiscono un grande opportunità per gli scienziati, i quali, avvalendosi di tecniche di analisi dei Big Data, possono estrarre nuova conoscenza in maniera automatizzata su una determinata patologia.

 

VANTAGGI AI

capacita` di elaborare quantita` enormi di dati in tempi estremamente ravvicinati, minimizzando i tempi di latenza e contribuendo cosı` alla soluzione efficiente di problemi che normalmente richiederebbero il concorso di diversi attori umani muniti di competenze eterogenee

 

TECNICHE PER PROCESSARE I DATI

 

Le tecniche utilizzate sono diverse:

1. Il data mining è il processo di analisi dei dati da diversi punti di vista al fine di ottenere informazioni utili. È il processo di ricerca di correlazioni o modelli tra i dati raccolti nei database relazionali

2. La data fusion è il processo di integrazione di più dati e conoscenze. L’aspettativa è che i dati «uniti» contengano informazioni superiori ai dati originali.

3. La procedura di clustering ha lo scopo di raggruppare i dati e di organizzarli in gruppi in modo che i dati contenuti nello stesso cluster siano più simili tra loro rispetto a quelli contenuti in cluster diversi.

4. L’«analisi di regressione» viene utilizzata per stimare la forza e la direzione della relazione tra le variabili che sono in relazione lineare tra loro.

 

Le tecniche di analisi consistono per lo più in algoritmi tra i quali si distinguono quelli di interrogazione e quelli di apprendimento.

 

L’accesso e la condivisione di dati è cruciale al fine di sviluppare le applicazioni di IA

 

SISTEMI DI INTELLIGENZA ARTIFICIALE

 

IA DEBOLE: L'intelligenza artificiale debole (o AI ristretta/ANI) è un tipo di AI progettato per eseguire un compito specifico e ben definito, come il riconoscimento vocale o i motori di raccomandazione. 

IA GENERATIVA: è un tipo di intelligenza artificiale che crea nuovi contenuti, come testo, immagini, musica, audio e video, analizzando e apprendendo da grandi quantità di dati esistenti. A differenza dell'IA tradizionale, che si basa su regole predefinite, l'IA generativa imita la creatività umana per produrre risultati originali e realistici (LLM come CHAT GPT). A seconda delle informazioni che le vengono fornite, tenterà di dare una risposta, completare una frase o generare una traduzione. I modelli di IA generativa utilizzano il deep learning, una tecnica di machine learning per l'analisi e l'interpretazione di grandi volumi di dati.  I rischi sono rappresentati dalle c.a. allucinazioni o dalla violazione plagio dei diritti d'autore

IA PREDITTIVA: L'IA predittiva si serve dei dati per prevedere o dedurre un evento altamente probabile che potrebbe verificarsi in futuro. In base al prompt immesso dall'utente, l'IA generativa è in grado di creare nuovi contenuti utilizzando dati esistenti, come testi o codice creato dagli sviluppatori. Un'IA addestrata con testi letterari, ad esempio, può rispondere al prompt proponendo una storia originale. I rischi sono rappresentati dalla possibilità di introdurre bias o pregiudizi

 

ALGORITMI

L’algoritmo è una procedura computazionale per l’ottenimento di un valore in uscita (l’output) a partire da uno o più valori in ingresso (inputs). La trascrizione dell’algoritmo in un linguaggio di
programmazione avviene tramite il software.

Il Cons.di Stato, nella sentenza del 25 novembre 2021, n. 7891 ha precisato che per algoritmo si intende “una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato; mentre l’IA si riferisce “allo studio di agenti intelligenti, vale a dire allo studio di sistemi che percepiscono ciò che li circonda e intraprendono azioni che massimizzano la probabilità di ottenere con successo obiettivi prefissati (...) sono tali ad esempio quelli che interagiscono con l’ambiente circostante o con le persone, che apprendono dall’esperienza (machine learning), che elaborano il linguaggio naturale oppure che riconoscono volti o movimenti”

Lo sviluppo tecnico di alcuni sistemi, confluito nell’apprendimento automatico (machine learning)ha segnato il passaggio da una tecnologia algoritmica tradizionale a una piu` complessa inerente per l’appunto all’apprendimento automatico.

Gli algoritmi “intelligenti” (machine-learnings) si sono affiancati agli algoritmi tradizionali.

Questi algoritmi «di nuova generazione non si limitano a dedurre in maniera deterministica conseguenze da assiomi prefissati dal programmatore, ma in virtu` di sistemi automatici di apprendimento (c.d. machine learning), essi stessi producono gli stessi criteri di inferenza.

Le strategie algoritmiche godono di un margine di esplorazione e di azione ridotta risapetto alle strategie euristiche perche ́ seguono uno schema predefinito per il raggiungimento di un predeterminato obiettivo.

Le strategie euristiche si fondano sull’esperienza e impiegano tecniche che di fronte a un problema prospettano un ventaglio di risposte alternative. La soluzione dei problemi e` ottenuta partendo da un numero finito di assiomi e seguendo regole d’inferenza determinate, cioe` l’euristica che e` un metodo con cui, ad imitazione del pensiero umano, viene sacrificata la certezza della soluzione ottimale ad un problema in favore di una ricerca piu` rapida che esplora solo i percorsi piu` promettenti e si accontenta di una buona soluzione.

Questi procedimenti, tuttavia, producono delle distorsioni che sono chiamate “bias”.

Il bias algoritmico è un tipico problema che può potenzialmente affliggere qualsiasi sistema basato sul machine learning. Vi sono poi altri tipi di bias che potrebbero compromettere il funzionamento di un sistema di machine learning. Tra questi, vi è il cosiddetto bias tecnico, dovuto ad errori di programmazione o difetti dovuto all'errata implementazione del sistema. Un'ulteriore tipologia è il bias emergente, ovvero quello causato dal verificarsi di comportamenti anomali dovuti all'uso dell'algoritmo su dati non inclusi nel dataset originario. Tale problema è tipico dei casi in cui l'algoritmo di machine learning soffre del cosiddetto problema dell'overfitting: può capitare, infatti, che gli algoritmi di addestramento finiscano per far sì che il sistema risultante si comporti in modo adeguato per dati molto simili a quelli inclusi nel training set, ma finisca per comportarsi in maniera pressoché imprevedibile per dati che si discostano molto da quelli analizzati in fase di addestramento.

 

DAI – Human-in-the-loop Artificial Intelligence

 

AI – Human-in-the-loop Artificial Intelligence – si propone di cambiare la narrazione sull’Intelligenza Artificiale per far prendere coscienza di un modo diverso di intenderne lo sviluppo. E potrebbe permettere una più equa redistribuzione dei redditi. Ecco di che si tratta e quali sono le sfide tecnologiche e politiche

 

LA norma ISO/IEC 42001:2023

E'  lo standard internazionale che contiene tutti gli strumenti utili per garantire, nel corso di tutto il “ciclo di vita” di un sistema di IA, sicurezza, tutela, equità, trasparenza, qualità dei dati e qualità dei sistemi. Un altro tassello importante nel quadro regolamentario sull’intelligenza artificiale. Ecco tutti i dettagli

 

La norma  ISO/IEC 22989:2022

E'  lo standard internazionale fondamentale che stabilisce la terminologia e i concetti per l'intelligenza artificiale (IA). Sviluppata per fornire un linguaggio comune a sviluppatori, regolatori e utenti, serve come base per la comunicazione e la governance globale dell'IA.

 

 

 

 

 

 


Informazioni generali sul sito