Cenni storici sulla Intelligenza Artificiale

Alcuni cenni storici sulla AI e un caso di progettazione e applicazione reale al di fuori dei laboratori di ricerca.

il
Sviluppatore / Ingegnere informatico / Funzionario, Collaboratore di IProgrammatori

L’idea di creare macchine in grado di eseguire compiti intelligenti non è una novità degli ultimi decenni, già in un passato più remoto c’era l’idea di creare delle macchine autonome in grado di muoversi in modo appropriato e di risolvere semplici problemi, ma i tentativi fallivano per mancanza di un adeguato livello tecnologico. Invece, le macchine che apparentemente funzionavano, spesso erano parte di truffe congegnate in modo creativo, come “il turco” giocatore di scacchi che imbrogliò molte persone illustri dal 1769 per oltre sette decenni, perché conteneva un nano che effettuava le mosse da uno spazio nascosto all’interno della macchina.

Il termine “intelligenza artificiale” è stato coniato da John McCarthy negli anni ’50. Sempre nel 1950 è nato anche il famoso “test di Turing”, sulla proposta di Alan Turing che ebbe l’idea di definire questo test per valutare l’intelligenza di una macchina. Nel 1949, D.O. Hebb ipotizzò le “reti neurali”, poi riproposte nel 1958 da Rosenblatt (con il nome di “Perceptron” o “percettroni”) con un algoritmo di apprendimento basato sulla “retropropagazione”.

Nei decenni successivi, l’AI ha attraversato diverse fasi. Negli anni ’60 e ’70 è prevalso l’approccio simbolico, basato sulla manipolazione di simboli e di regole logiche. Questo approccio ha mostrato limiti nella gestione di compiti complessi e ambigui.

Frutto di questo periodo sono stati i cosiddetti “sistemi esperti” (tra il 1969 e 1986 circa), teoricamente in grado di eccellere su determinate discipline, mediante l’archiviazione di sequenze di domande e di risposte e l’applicazione di un metodo di classificazione dei concetti. Per esempio, un classico sistema esperto era quello che avrebbe dovuto permettere di individuare la corretta diagnosi di una patologia, basandosi sui sintomi rilevati sul paziente. I programmi, scritti in vari linguaggi (tra cui anche in BASIC, ma anche Prolog), erano costituiti da una lunga sequenza di “if … then …”, cioè delle scelte che l’utente faceva in sequenza, fino a trovare l’unica risposta possibile. Se la risposta non fosse stata individuata, il programma avrebbe chiesto all’utente di scrivere quale fosse la risposta e quale fosse la condizione che permetteva di selezionarla. In questo modo il programma “imparava” nuove risposte. Questo tipo di approccio è stato chiamato “metodo debole” perché non era in grado di trovare risposte a problemi molto grandi o difficili. Oltre tutto, per permettere al programma di risolvere i problemi, era necessario che il programmatore conoscesse già tutte le risposte.

Dopo una fase di stallo, chiamata “inverno dell’intelligenza artificiale”, nel 1986 tornarono in auge le “reti neurali” che però hanno iniziato a diffondersi soltanto negli anni 2000. Infatti, la tecnologia aveva fatto grandi progressi, con l’aumento della potenza di calcolo e l’accesso a grandi quantità di dati. Le reti neurali “profonde”, in particolare, hanno dimostrato una straordinaria capacità di apprendimento e adattamento, portando a risultati rivoluzionari in campi come il riconoscimento delle immagini e il linguaggio naturale.

Applicazioni attuali

L’AI è onnipresente nelle nostre vite: motori di ricerca, assistenti vocali, veicoli autonomi, piattaforme di social media sfruttano algoritmi avanzati per fornire servizi personalizzati.

Nel settore medico, l’AI è impiegata per la diagnosi precoce e la ricerca farmaceutica. Già adesso, una AI opportunamente istruita è in grado di leggere le immagini diagnostiche e individuare un piccolissimo focolaio tumorale prima ancora che uno specialista oncologo sia in grado di vederlo.

Nella finanza, modelli predittivi basati sull’AI analizzano dati complessi per prendere decisioni finanziarie, oppure per scovare gli evasori fiscali.

In questo scenario si affacciano anche applicazioni di tipo misto tra AI e robotica, dato che non è così lontano il tempo in cui ci saranno degli assistenti personali robotizzati nelle case di riposo e negli ospedali e perfino robot in grado di svolgere tutte le faccende di casa (pulizie, riordino ecc.).

C’è ancora spazio per l’intelligenza umana

Quando la tecnologia esce dai laboratori di ricerca e diventa disponibile al grande pubblico con costi accettabili, allora il grande passo è fatto.

Mettiamo insieme un po’ di tecnologia e un ragazzo intelligente, creativo e motivato e otteniamo qualcosa che può fare la differenza per tante persone che hanno un problema importante.

È il caso di Tommaso Caligari, un ragazzo che nel 2023 aveva 18 anni e che ha studiato un metodo per favorire la diagnosi precoce del Parkinson, ora in fase di sperimentazione da parte di diversi medici insieme all’associazione dei malati di Parkinson.

L’idea è nata dal ricovero di suo nonno a causa del Parkinson. Tommaso studia robotica alle superiori e, quindi, ha iniziato a pensare come utilizzare la tecnologia per curare meglio i malati di Parkinson.

Nelle prime fasi della malattia non sono visibili alcuni sintomi come il tremore e la difficoltà a camminare, ma sono già presenti. Tommaso ha predisposto un sistema basato su telecamere e software, in grado di riconoscere una figura umana e rilevarne i movimenti, soprattutto della spalla e del gomito. Poi ha utilizzato un algoritmo di “machine learning” (ML), opportunamente allenato su un gruppo di persone sane e su un gruppo di persone che hanno una diagnosi di Parkinson confermata. Con questo sistema è stato in grado di mettere in evidenza i primi sintomi, impercettibili all’occhio umano, creando così un sistema di diagnosi precoce della malattia.

Questo dimostra che chiunque, con un minimo di preparazione tecnica, oggi è in grado di creare sistemi anche piuttosto sofisticati a un costo relativamente basso, ottenendo risultati che vanno ben oltre agli interessi del singolo individuo, perché possono dare beneficio a un numero enorme di persone.

Conclusione

Questo è solo un esempio di cosa si potrebbe fare con le tecnologie oggi esistenti e soprattutto con l’intelligenza artificiale, seppure con quel sottoinsieme della AI chiamato machine learning.

Tutti ci stiamo chiedendo cosa potrà fare l’intelligenza artificiale all’Umanità, ma ti sei mai chiesto o chiesta, invece, cosa potresti fare TU con l’intelligenza artificiale per l’Umanità?