Osservatorio Artificial Intelligence 2020-2021. Spunti e riflessioni sul futuro della tecnologia

Giovedì 18 febbraio ha avuto luogo il quarto incontro annuale dell’Osservatorio Artificial Intelligence, che dal 2017 indaga gli impatti delle più recenti tecnologie in vari ambiti di applicazione. Fra gli scopi dichiarati dall’ente, c’è il tentativo di mettere a confronto le varie voci nel dibattito tecnologico arrivando in tal modo ad una sintesi dello stato dell’arte in materia. L’evento annovera tra i suoi ospiti personalità dal mondo dell’impresa, addetti ai lavori del settore tecnologico, ma anche accademici interessati a ricerca e divulgazione.

La relazione dell’Osservatorio sull’anno 2020-2021, non poteva che cominciare con una premessa dedicata alla pandemia. Se da un lato la situazione emergenziale in atto influenza in modo anomalo i dati raccolti, costituisce allo stesso tempo un fenomeno interessante attraverso cui osservare potenzialità, rischi ed esiti delle tecnologie finora sviluppate.

L’ottima introduzione del Prof. Alessandro Piva (uno dei direttori dell’Osservatorio, insieme a Giovanni Miragliotta e Nicola Gatti, tutti docenti presso il Politecnico di Milano) ci mette di fronte ad un quadro sfumato ma ben articolato della situazione.

A livello di mercato, la pandemia ha colpito ma anche stimolato il settore tecnologico. Per quanto riguarda le grandi imprese c’è stato un incremento degli strumenti messi a disposizione ad uso interno ed esterno. I principali settori che hanno visto potenziamenti sono stati quelli relativi al forecasting, al collegamento a distanza con dipendenti e clienti (chat-bot, assistenti vocali, telelavoro), all’Intelligent Automation e al processamento di immagini per il distanziamento sociale. I principali attori di questi potenziamenti li troviamo nel settore finanziario, energetico e logistico.

Per quanto riguarda la piccola e media impresa, si ha l’impressione di un avanzamento parziale. I player non conoscono o non riescono a implementare le soluzioni proposte, nonostante la disponibilità di risorse aperte e di infrastrutture a pagamento a disposizione (edge computing o possibilità di addestrare in locale con Google Colab).

Ad ogni modo il confronto non è del tutto equo, spesso anche le grandi imprese, nell’adottare soluzioni di intelligenza artificiale sembrano operare più seguendo trend tecnologici che un effettivo progetto a lungo termine di integrazione degli strumenti impiegati. L’incentivo è spesso fornito da dati che si hanno in casa, e dalla speranza di poterli mettere in qualche modo a valore. Inoltre le novità introdotte rimangono spesso allo stato inziale, mancando le professionalità necessarie per aggiornarne se non proprio salvaguardarne il funzionamento.

L’impressione è confermata anche dallo studio condotto sui consumatori, i quali propendono per una valutazione positiva delle nuove tecnologie, in particolare dell’intelligenza artificiale nascosta nei più recenti dispositivi e con una buona dimestichezza nel loro utilizzo, senza però una vera e propria consapevolezza degli strumenti adoperati, ma con una conoscenza mutuata da media di informazione generali o da prodotti dell’intrattenimento.

Le conclusioni che possiamo trarne, assistiti dai contributi dei vari relatori susseguitisi durante la giornata sono le seguenti:

Si continua a perseguire una logica per la quale l’intelligenza risiede nel dato. Questa concezione promuove un accumulo di risorse informative a scapito della strutturazione di piani integrativi per le tecnologie nel lungo periodo. Una strategia rischiosa, dato che in situazioni di forte incertezza come quella attuale, le serie storiche e le risorse impiegate per la loro costruzione, perdono facilmente di efficacia. Abbiamo bisogno di sistemi più efficienti.

Un buon esempio riportato durante la conferenza è stato quello di GPT-3, un Language Model di ultima generazione per il processamento del linguaggio naturale, il quale non ha bisogno di addestramento ma solo di un fine tuning in base al compito da eseguire. Un articolo scritto da questo Language Model è comparso sul The Guardian [1], il celebre quotidiano britannico, la qual cosa ha contribuito alla fama di questo modello.

Il problema in questo caso ci fa tornare al divario fra grandi e piccole/medie imprese. L’addestramento di GPT-3 è costato 4.6 Milioni di Dollari, lungi dall’essere un’anomalia, il trend indica che costi di questo tipo diventeranno la norma per l’addestramento dei modelli. Stando così le cose, la domanda posta dal Prof. Miragliotta è più che legittima. Chi potrà permettersi di addestrare queste reti al di fuori dei Big Five? Diventeremo utilizzatori passivi delle tecnologie rilasciate da questi colossi o riusciremo a conservare un’autonomia critica rispetto al loro impiego?

La domanda sul ruolo dell’essere umano nell’ ambiente aumentato si ripropone con urgenza. I processi di automazione del lavoro in atto, la precarietà dell’impiego, la non trasparenza dei processi decisionali automatizzati e la ricerca monopolizzata dai piani aziendali di grandi corporation (nella conferenza qualcuno ha parlato di “singolarità della ricerca accademica”), sono tutti elementi su cui è urgente riflettere.

Diverse sono state le proposte avanzate: dai piani di riallocamento delle risorse tecnologiche dal forecasting ad altri settori, fino all’ideazione di differenti modalità di lavoro basate sull’utilizzo delle tecnologie. Forse però la voce più autorevole e decisa è stata quella del Prof. Poccianti, Presidente di AIxIA, che nel suo intervento ha ricordato l’importanza della ricerca di base, l’unico modo possibile per mettere l’essere umano al centro del progresso tecnologico, nella convinzione che la soluzione potrebbe venire dagli ambiti di studio più insperati.

Luca Capone

Università Campus Bio-Medico di Roma – Philsophy of Science and Human Development

Note

Maggiori informazioni sull’Osservatorio Artifical Intelligence

[1] https://www.theguardian.com/commentisfree/2020/sep/08/robot-wrote-this-article-gpt-3

Share This