Intervista a Raffaella Bernardi del Centro Interdipartimentale Mente/Cervello - CIMeC di Trento.
Quel che inquieta dei sistemi di intelligenza artificiale è il “mistero” del loro funzionamento. I sistemi neurali artificiali vengono considerati dei “black box”, scatole nere, difficili da comprendere. Chi le usa non sa perché le risposte fornite a volte sono adeguate alle domande altre no. Tutto ciò può generare non poca diffidenza e forse anche qualche ansia. A questa ed altre questioni si è dedicata Raffaella Bernardi, professoressa associata del Centro Interdipartimentale Mente/Cervello - CIMeC di Trento.
“Questi sistemi riescono ormai a parlare un linguaggio naturale – ci ha spiegato Bernardi – in realtà se imparano a spiegare verbalmente, tramite il linguaggio naturale, il loro ragionamento ovvero cosa c’è dietro alle loro decisioni, potrebbero diventare meno alieni. Sarebbe un modo per comprenderli meglio: così come accade con le persone a cui possiamo chiedere perché hanno preso una certa decisione. Il mio obiettivo quindi è mostrare come il linguaggio naturale rende questi sistemi più vicini a noi e più comprensibili.
Cosa intende con la capacità dei sistemi intelligenti di rappresentare il “legame tra linguaggio e realtà”?
Da anni con il mio gruppo lavoriamo sul legame tra un testo e la corrispondente rappresentazione visiva. Indaghiamo come avviene il legame con un referente a cui le immagini si riferiscono. C’è stata una evoluzione dei sistemi: se prima c’erano solo sostantivi o parole che si riferivano ad oggetti oggi vengono prodotte intere frasi di descrizione di una immagine o di una scena anche complessa. Anche in maniera dialogica: si può parlare con il sistema su qualcosa che entrambi vediamo oppure perché c’è una spiegazione di chi vede a chi non vede. Questo possono arrivare a fare oggi questi modelli.
In che direzioni state lavorando al CIMeC in merito all’intelligenza artificiale?
“Una è quella di usare metodi del mondo delle scienze cognitive per valutare le capacità dell’intelligenza artificiale. Li sottoponiamo ai test che si utilizzano con i bambini per constatare il livello di progresso cognitivo. Valutiamo quindi questi grandi modelli non tanto per la loro capacità di calcolo, ma per le possibilità che hanno di progredire. Il nostro obiettivo è avere sistemi non solo che funzionino, ma in grado di imparare a fare una cosa e poi evolvere grazie a quella cosa che ha imparato a fare. Così come fanno gli esseri umani: applicare le proprie conoscenze in ambiti nuovi, per i quali non si è ricevuto un addestramento specifico. Tale capacità di generalizzare non è stata raggiunta da questi modelli: testandoli così come si fa con i bambini emerge proprio questo limite delle intelligenze artificiali.
Yorumlar