Intanto vediamo di RIMUOVERE dalla materia grigia, il termine AI quando si parla delle nuove teconologie che stanno saltando fuori in questi giorni.
AI sta per Artificial Intelligence ed e' un settore della Computer Science DECISAMENTE VASTO, che spazia dai dimostratori di teoremi, al calcolo simbolico, ai motori di inferenza, statistica, logica, computer vision, speech synthesis, speech to text, text to speach, reti neurali, Machine Learning, Natural Language Processing, robotica, e chi piu' ne ha, piu' ne metta.
.
Quello che tu intendi per AI, usato dalla stragrande maggioranza delle persone che non capiscono una cippa (e ci sta', non e' il loro mestiere) e' SOLO ChatGPT e simili, che sono UN PICCOLISSIMO SOTTOSETTORE del NLP (Natural Language Processing), anche se hanno avuto una risonanzia mediatica IMPONENTE.
ChatGPT e' un "(Autoregressive) Generative Pretrained Transformer", un PICCOLISSIMO SOTTOSETTORE dei modelli generativi che comprendono i modelli di diffusione (Midjourney e DALL-E per intenderci), modelli generativi autoregressivi (ChatGPT, appunto), modelli basati su variabili latenti (e' STATISTICA di quella seria) e basati si equilibrio di energia.
In particolare, GPT (ChatGPT e' un GPT con supporto al "chatting", cioe' alla "chiacchierata da bar") e' un LLM (Large Language Model), cioe' un modello del linguaggio naturale basato su reti neurali, di GRANDI DIMENSIONI, cioe' che coinvolge MILIARDI (billions) di parametri. MA e' solo uno tra TANTI.
.
Quindi, diciamo, ci sono DIVERSI settori da prendere in considerazione:
- Il Machine Learning, usato per l'analisi dei dati (classificazione, regressione, tanto per fare due esempi)
- I modelli generativi da USARE o da PROGETTARE. Il secondo caso lo escluderei per il "programmatore quadratico medio". Anche qui c'e' UN MONDO: testo, audio, video, modelli 3d, ...
- il Natural Language Processing, che comprende NON SOLO la generazione di testo, ma anche l'ANALISI del testo e l'estrazione di informazioni fondamentali
- poi ci sono i settori che si occupano di analisi del video, dell'audio, del 3D, ...
.
Dopo di che ci sono i corsi forniti da ogni fornitore di questi LLM (OpenAI, Antropic, Google, IBM, ...).
Comunque loro ti insegnano ad usare il LORO strumento, ma NON BASTA. Come minimo uno deve imparare a QUANTIZZARE un modello, farci il FIne Tuining, valutarlo, preparare i dati, ...
Tutte informazioni che queste aziende NON SONO MINIMAMENTE INTERESSATE a fornire perche' vorrebbe dire metter in mano all'utonto di turno conoscenze e strumenti che non sarebbe in grado di gestire.
.
Quindi, di che parliamo?
.
Giusto come nota finale: questi sistemi sono sistemi STATISTICI, NON deterministici.
Il che vuol dire che possono generare risultati "falocchi". Se lo fanno ogni volta, non servono a nulla, se lo fanno una volta su dieci, poco piu di niente, se lo fanno una volta su un milione, NON VUOL DIRE ESSERE AFFIDABILI, anche se potrebbe andare bene.
Il problema e' che ATTUALMENTE la capacita' di dare risultati buoni DIPENDE DAL SETTORE E DAL TRAINING: per le scemenze (dammi la ricetta della pasta alla carbonara) funzionano bene, MA per le cose "serie", di "nicchia", dove effettivamente SERVE un aiuto, POICHE' (ripeto) DIPENDONO DAL TRAINING e NON da un algoritmo, funzionano talmente male che non vale la pena usarli.
Quindi, affimce' facciano le cose per bene, devono essere addestrati di piu' e DEVONO ESSERE piu' grossi. Al che SOLO POCHE aziende hanno i soldi e l'hardware per farlo.
Sono l'equivalente dell'Oracolo che ti da SEMPRE una risposta, perche' vuole i tuoi soldini.
SE HA STUDIATO, la risposta sara' "pertinente" (FORSE), altrimenti sara' una cosa inventata di sana pianta.
.
La perfetta gallina dalle uova d'oro.