Come funziona l'ai: copertina

Si tratta di un app da installare?

Bisogna usare un particolare linguaggio di programmazione o vanno bene quelli tradizionali?
Come hardware bastano CPU e GPU? O dobbiamo necessariamente usare le LPU?

Se abbiamo domande di questo tipo possiamo trovare le risposte in questo articolo. L'obiettivo non è una trattazione strettamente tecnica, ma di capire quali sono le meccaniche alla base della tecnologia che ci permettono di avere le affascinanti applicazioni di AI che usiamo.

Faremo questo viaggio nel mondo del sapere e delle tecnologie partendo da un piccolo excursus storico. Da qui passeremo a vedere quali sono i fondamenti della tecnologia che ci permettono di avere intelligenza artificiale. In fine trarremo qualche conclusione circa i limiti e difetti, le allucinazioni e gli incantesimi che dominano questo monto artificialmente intelligente.


La nascita dell'AI

L'AI ha origini lontane nella cultura.
Un primo passo fondamentale fu nel capire cosa sia l'intelligenza umana. La filosofia, il pensiero razionale, ecc... indagarono a lungo il tema identificando, sostanzialmente, l'intelligenza nel sapere, nella capacità razionale.
La cultura condivisa, a un certo punto, cominciò a vedere una forma di capacità nel produrre macchine che si comportavano come le persone, considerando l'intelligenza una proprietà fusa nella materia. Da qui la nascita di automi meccanici e le composizione di romanzi che narrano di esseri meccanici che si muovono autonomamente come delle persone.
Nel fantastico condiviso fiorirono, nel novecento, le idee che l'intelligenza è insita nell'organismo biologico. Da qui le teorie eugenetiche e del determinismo genetico, successivamente smentite o ridimensionate, fondamentalmente, ad un semplice fattore di minimum biologico.

L'avvento della psicologia e degli studi dei processi mentali trovò, inizialmente, un potente alleato nei computer: alcune branchie della psicologia, data l'impossibilità di una indagine dentro il cervello umano mentre funziona, videro nei nascenti computer una macchina potenzialmente analoga al nostro cervello, ritenuto la base fisiologica centrale dell'intelligenza. Si formulò l'ipotesi che se si fosse riusciti a riprodurre in un computer processi con risultati come quelli umani, probabilmente avremmo capito i meccanismi interni al combinato cervello-psicologia.

Da qui cominciarono studi mirati per riprodurre nelle macchine quello che si vede nell'essere umano.
Parallelamente avanzarono significativamente gli studio che permisero di isolare e identificare l'intelligenza.

Da questo momento, che possiamo collocare all'inizio della seconda metà del 900 come approssimazione di riferimento, inizia un avanzamento esponenziale dovuto anche alle crescenti capacità dei computer.

Tra i fattori determinanti in questa evoluzione hanno giocato un ruolo centrale:

  • il consenso sul computer come macchina più adatta per creare un'intelligenza;
  • la comprensione matura della natura dell'intelligenza umana (o meglio: delle intelligenze nella persona).

Da queste premesse nasce l'attuale AI.


Le tecnologie alla base dell'AI

Tra le tecnologie alla base dell'AI un primo importante passo è nella possibilità di rappresentare le conoscenze all'interno della macchina.
Inizialmente su usò un sistema matematico: associando un numero che identifica le parole si poteva elaborarle come un dato qualsiasi. Un importante miglioramento a questo primo approccio lo abbiamo avuto con una miglior astrazione: invece di associare un ID numerico a una parola veniva, invece, associato al concetto espresso dalle parole. Un grande aiuto arrivò dagli studi di linguistica che permise di capire la semantica che c'è dietro al linguaggio permettendo di arrivare alla lingua primitiva che permette al pensiero umano di assumere forma e diventare parola, lingua, disegno, scultura, ecc...

Questo approccio diede subito dei buoni risultati, ma caratterizzati da output grezzi, oltremodo approssimativi con forme palesemente sintetiche. In ogni caso non solo era stata imboccata una strada promettente, ma anche si avevano risultati utili anche fuori dai laboratori.
Di grande aiuto furono gli studi linguistici. Si investi notevolmente sul produrre nelle macchine la lingua primitiva che precede ogni forma linguistica. Si creò nelle macchine una sorta di lingua neutra, detta interlingua, che diventò la lingua interna dei computer. Nel frattempo l'avvento della rete in combinata con i motori di ricerca, permise di avere, a costo zero, un grande campionario linguistico insieme ad un esercito di persone che facevano gratuitamente da tester e da addestratori.
Tra i primi Google utilizzò l'immensa rete che si trovò tra le mani, in congiunzione con l'enorme capacità di calcolo e di memoria disponibile nei suoi data center. Ebbe una felice intuizione nell'integrare all'approccio matematico-lineare ad un approccio statistico; il modello base che calcolava linearmente la rappresentazione numerica delle parole (o meglio dell'interlingua) fu integrato con il calcolo statistico. Potendo analizzare un'enorme quantità di dati formali e reali si poteva avere risultati statisticamente certi.
Infatti nelle memorie di Google c'erano tantissimi testi e, in oltre, aveva la possibilità di accedere a quasi tutti i testi presenti in rete e, infine, aveva un esercito di utenti che digitavano in tempo reale, scrivendo in linguaggio naturale in tutte le lingue del mondo, ponendo domande reali.

Penso che tutti ricordino le traduzioni che offriva Google: erano sfacciatamente artificiali, ma permettevano di intuire il significato del messaggio originale. I risultati raggiunti da Google non furono esclusivi, ma solo quelli più evidenti a tutti. Tra le varie aziende e laboratori di ricerca dell'epoca la Google aveva un vantaggio tattico di rilievo.

Se sul fronte linguistico la soluzione funzionava in modo molto elementare, c'erano risultati interessanti sul riconoscimento ottico dei testi. Buoni risultati si cominciavano ad avere in campi d'applicazione specifiche, come le tastiere T9: la macchina prediceva con un alto livello di successo quello avremmo schiacciato.

Parallelamente da tempo altri filoni di ricerca lavoravano sulle reti di apprendimento (machine learning). Inizialmente era un filone parallelo e isolato. Le conoscenze in possesso al genere umano avevano permesso di trovare soluzioni predeterministiche, ma si era cominciato a pensare alla possibilità di far imparare alle macchine in modo analogo a quello che avviene nell'apprendimento nel mondo animale. Una sorta di riflesso condizionato e di comportamentismo applicato alle macchine.
Il concetto base è che un algoritmo raccoglie progressivamente dati che verranno usati per determinare le scelte automatiche che la macchina farà in seguito. Nacquero diverse filoni di ricerca che portarono a far nascere il deep learning e le reti neurali: sistemi avanzati in grado di ricordare, funzionare automaticamente e di modificarsi in base ai rinforzi raccolti durante le fasi di addestramento.

L'ultima svolta che ha determinato un vero salto evolutivo è stata l'associazione di un ID percentile alle parole: si adotta una elaborazione statistica, ma l'ID che definisce il concetto associato al termine non è più un numero univoco, ma una quantità percentile.
Questa idea ha permesso di rappresentare matematicamente termini, concetti e conoscenze in modo molto più efficace con risultati del tutto sorprendenti, ma il costo è veramente alto. Infatti questa tecnica fa esplodere i calcoli e richiede molti stadi di memoria e rielaborazione. Inoltre i percorsi che gli algoritmi creano, usando indicatori percentili e calcoli probabilistici, diventano imponderabili e non si possono predire: le AI diventano scatole immense e scatole nere.
La tecnica messa a punto si dimostrò molto flessibile e adatta ad essere applicata ad ogni campo: l'AI esce dal solo dominio linguistico ed entra nel mondo dei disegni, delle foto, del suono, dei video, delle sculture, della ricerca molecolare, ecc...

A questo punto manca un solo un elemento per poter avere la cosiddetta AI generativa.

Il punto di partenze è che a un sistema addestrato mostrando la foto di un cavallo, ad esempio, riesce a dire se c'è o no un cavallo. Se chiediamo all'AI di creare l'immagine un cavallo non riesce, ma se gli chiediamo di creare un'immagine casuale riese a farlo.
A questo punto c'è stata l'idea di creare una coppia creativa: alla richiesta del disegno di un cavallo una prima intelligenza crea un'immagine casule che viene sottoposta d una seconda intelligenza (detta discriminante) la quale dice se è un cavallo assegnando un valore percentile al raggiungimento dell'immagine di un cavallo.
Ipotizziamo che l'AI discriminante dica che l'immagine è un cavallo all'1%. A questo punto la prima AI genera una seconda immagine che viene discriminata come cavallo con un punteggio del 5%. La prima intelligenza ricorda il miglioramento e procede con lo stesso meccanismo scartando progressivamente gli elementi che non danno risultati incrementali e applicando solo quelli che determinano risultati che crescono.
Sfruttando questo principio, a valle di N prove, otteniamo un disegno (casule) di un cavallo: abbiamo ottenuto un AI generativa.

Le intelligenze NLP (Natural Language Processing, ovvero l'elaborazione del linguaggio naturale) aspirano a insegnare alle macchine a comprendere il linguaggio naturale in tempo reale (più esattamente: aspira a creare macchine che rispondono coerentemente con input forniti in linguaggio naturale). Le tecniche in uso si basano sempre sulle scoperte sopra narrate.

In chiusura di questo piccolo viaggio nella storia recente dobbiamo rilevare che gli attuali risultati hanno una verosimiglianza incredibile: i testi generati dai chatbot sembrano naturali. Le voci sintetiche ora hanno anche emozioni e stress. Le immagini che generano non si distinguono da foto reali. Anche i filmati sembrano perfetti. In caso di animazione e doppiaggio i risultati sono ingannevoli per chiunque. Veramente utili le traduzioni del parlato: non sono in tempo reale, non sono di qualità, ma permettono di capire l'altra lingua.'

Chiudendo questo excursus storico, veloce e semplificato, è evidente che concorrono diversi saperi e svariate intuizioni alla base dell'attuale AI:

  • l'inizio è nella prima intuizione che nelle macchine possiamo indurre una imitazione dei processi umani;
  • la rappresentazione delle conoscenza nelle macchine è il secondo indispensabile ingrediente;
  • le tecniche di machine learning (e le varianti di deep learning) permettono alle macchine di imparare;
  • la creazione delle reti neurali ha permesso di avere il tassello che stabilizza gli elementi sopra;
  • l'avvento dell'internet universale con i grandi motori di ricerca ha consegnato lo strumento adatto per avere un laboratorio di sviluppo e una piattaforma di distribuzione;
  • l'adozione di tecniche statistiche ha consegnato la chiave segreta per avere risultati di ottima qualità.

Cosa è l'AI

A questo punto sarà comprensibili per tutti la natura reale dell'AI: il temine è ingannevole e forviante.
L'AI è una sofisticata ed avanzata soluzione di automazione. Tramite svariate tecnologie riesce a offrire output coerenti con input molto vicini alle comunicazioni naturali tra le persone.
Tutto questo (molto, molto semplificato) permette di capire anche le potenzialità ed i problemi che le affliggono.

Cos'è

Le AI sono, banalizzandole, super computer, con una enorme base dati ed un ampio set di configurazione che lavora, fondamentalmente su un algoritmo statistico.
La varietà e la qualità dei risultati sono ingannevoli ai nostri sensi. Probabilmente perché i primi di questo livello e non siamo ancora pronti, ma va anche considerato che gli artefatti registrati sui supporti di memoria sono quasi sempre in tutto analoghi a quelli prodotti "nella realtà".

Potenzialità

La creazione di artefatti analoghi a quelli reali è un'enorme potenzialità se combinata all'enorme quantità di calcoli e prove che può fare. Pensiamo, ad esempio allo sviluppo di un vaccino: fornendo una quantità adeguata di dati possiamo far simulare all'AI invece di fare esperimenti reali con cavie e tempi reali.
Le possibilità linguisti possono essere d'aiuto in moltissimi casi: dall'assistenza nelle traduzioni, a sistemi di aiuto come "uomo a terra".
Probabilmente l'utilità più evidente (e che useremo tutti a breve) è la capacità di "motore di ricerca": possiamo interrogare naturalmente una grande base dati ed avere un sola completa (come farebbe una persona), invece di una lunga serp di occorrenze probabili come fanno oggi i motori di ricerca.

Limiti

Un primo limite è la base dati stessa ed il ciclo di addestramento. Una base dati di fandonie darà output di sole bugie. Anche un addestramento fallace produrrà risultati fasulli anche usando una base dati attendibile.
Un altro importante limite è la pertinenza di dominio. Le AI si comportano bene solo nel loro dominio di dati e di addestramento.
Il problema più importante, però, è la verosimiglianza dei risultati:

  • immagini, suoni e video sono del tutto ingannevoli;
  • le risposte alle domande così naturali e così esatte producono un'alta percezione di credibilità (anche se false).

Un ultimo enorme limite è nel suo funzionamento intrinseco che permette automazioni e autonomia di alto livello, ma:

  • la macchina non è in grado di distinguere vero o falso: lavora (e capisce) solo percentuali di approssimazione progressiva;
  • nei comportamenti autonomi la macchina non sa quello che fa o se ha correttamente raggiunto l'obiettivo.

Insomma: l'AI non abbastanza intelligente per far a meno dell'uomo.

In ultima analisi siamo ancora in presenza di una semplice macchina, ma che ci può aiutare tantissimo come nessuna delle invenzioni del passato.
con una battuta potremmo dire: AI = Cobot (o come dice Microsoft: Copilot).

Cookie e Privacy

Dichiaro di aver letto, compreso ed accettato la Privacy policy e la Cookie policy di Omegabugs e acconsento al trattamento dei miei dati personali per finalità di marketing.