01/04/2026 - amorosik ha scritto:
1- Sicuro che NON c'e' certezza al 100%, ma questo come ricordava Alka non vuol dire che sia comunque estremamente utile adottare questa nuovissima tecnologia
In termini di produttività, nello sviluppo software quotidiano, a mio avviso già oggi l'adozione di un tool come Claude Code, Codex o Copilot (in ordine di preferenza personale) è quasi imprescindibile, o lo diventerà, per chi sviluppa applicazioni o servizi business tradizionali.
01/04/2026 - amorosik ha scritto:
2- Pure per una capoccia biologica, la certezza NON c'e' al 100%
Concordo. Quello che può fare la differenza è la presenza di un processo di validazione molto spinto (ossia i famosi "test", di qualunque tipo) che possa verificare la bontà del software prodotto. Questo era indispensabile già quando il software lo scrivevano al 100% esseri umani, a maggior ragione diventa rilevante quando un LLM si inserisce nel circolo. Oltre al test di validazione, è altrettanto importante la fase iniziale di analisi dei requisiti. Sia nella stesura dei test sia nell'analisi dei requisiti, seppur attualmente guidati da una persona in carne e ossa, i tool LLM possono comunque accelerare notevolmente il processo.
01/04/2026 - amorosik ha scritto:
Spesso pensiamo che un llm non riesca a 'comprendere' il significato di una questione (come se 'comprendere' sia definibile in modo semplice)
E ci dimentichiamo che pure molti umani non riuscirebbero a 'comprendere' il significato della medesima questione
Oltre a questo, spesso non è di "comprensione" che si ha bisogno: quella magari la ricerchiamo dal partner. :D
Quello che a volte serve è riconoscere pattern, estrarre un'analisi di un flusso, produrre dati di esempio, riassumere testo da testo, generare una parte di codice boilerplate, in breve accelerare quella che in prevalenza è un'attività "meccanica", e lo sarebbe anche dal punto di vista cerebrale umano.
01/04/2026 - amorosik ha scritto:
Solo che Claude da 20 euro/mese ti butta giu' 10K righe di codice in un'ora, che sistema qua e sistema la', alla fine funzionano, mentre per un umano quelle 10K righe di codice te le mette giu' in un mese, e senza documentazione, e senza test
Non solo quelle righe di codice funzionano ma, soprattutto se hanno una base da cui partire (es. una parte di codice di esempio che hai già scritto e validato), replicano alla perfezione le convenzioni che hai adottato scrivendo codice valido, soprattutto se il prompt è preciso e se il tool comprende dei meccanismi di "safe guard" che rivedono anche il codice scritto per validarlo ulteriormente.
01/04/2026 - amorosik ha scritto:
Siamo nella nuova era del vapore, prima si andava a cavallo, adesso abbiamo l'automobile, e' inutile confrontarci con le macchine, come per qualsiasi strumento prendiamo il meglio che possiamo e facciamolo lavorare per produrre di piu' o meglio
Questa è pure la mia visione.
Secondo me, a tendere il processo di sviluppo software (ma non solo questo) si trasformerà in una specie di "catena di montaggio".
Sì, il software è un prodotto di concetto, non è un bene materiale come può essere un automobile, ma le potenzialità degli LLM a oggi consentono di applicare alla scrittura del codice lo stesso criterio di produzione che una catena di montaggio consente per oggetti tangibili.
Certo, gli LLM hanno difetti e allucinano, e il risultato deve essere validato. Ma questo vale anche per le catene che producono oggetti materiali.
Io ho fatto software per impianti di imbottigliamento di vino dove il difetto di chiusura di un tappo, o un'etichetta mancante, o una quantità insufficiente di liquido sono eventi del tutto ricorrenti, producendo milioni di bottiglie al giorno, ma questo non è un problema se inserisci sulla linea un tester di pressione del tappo, una videocamera che verifica il livello del liquido, un OCR che rileva l'etichetta e controlla che sia pure stampata con i contenuti attesi, ecc. ecc. Devi validare ciò che la tua linea produce prima di impacchettarlo e mandarlo in distribuzione.
Nel software con gli LLM succederà la stessa cosa: devi inserire nella catena di sviluppo una serie di tool, che potrebbero essere anch'essi sviluppati con l'ausilio di LLM, che verifichino l'adesione del codice a determinati standard, che eseguano dei test (unit/integration/smoke/ui), che escludano una serie di vulnerabilità rilevabili o più "secche" (es. database CVE) e magari siano posizionati in diverse "stazioni" della tua catena CI/CD. Con i server MCP poi, puoi integrare addon e altri tool a supporto degli LLM per istruirli su quello che non conoscono o deve essere recuperato dal "contesto aziendale" o da altre fonti dati.
In sintesi, tutto quello che è coerente con i parametri di qualità fissati "passa oltre", ciò che viene rilevato "difettoso" torna indietro e deve essere sistemato. Ma a fronte del problema riscontrato, può essere sistemato anche sempre da un LLM, non necessariamente da una persona. Fino a quando non soddisfa tutti i requisiti impostati, non si va avanti. Un intervento umano può essere richiesto se qualcosa si rompe o se è necessario sbloccare una decisione, così come un tecnico interviene su una linea di produzione fisica se un macchinario presenta dei problemi.
La bontà del prodotto finale dipenderà sensibilmente dalla qualità della tua catena di produzione.
E pur riguardando software, questi sono tutti lavori "meccanici", che quindi una macchina fa molto meglio e soprattutto molto più velocemente, a maggior ragione se è stata allenata con tutto lo scibile umano così come hanno fatto (più o meno legalmente, più meno che più) quelli di Open AI, Anthropic e compagnia bella.
E se LLM sbaglia, dato che le allucinazioni fanno parte del sistema, si fa un altro giro, o se l'errore sfugge si vanno a integrare i criteri di controllo applicati.
Tutto questo già adesso, ma anche già da ieri, è perfettamente realizzabile e accessibile.
L'unico problema è che questa trasformazione sta letteralmente galoppando, aziende stanno facendo dei layoff massivi e non nego che, pur meravigliato da queste potenzialità, sono preoccupato del fatto che potrebbero tranquillamente rendermi obsoleto in un futuro non troppo lontano ed estromettermi dal mercato del lavoro di cui faccio parte. Oltre a questo, l'impatto sulla società creerà (e lo sta già facendo) delle distorsioni rilevanti. C'è poi l'incognita di quale sarà il prezzo finale di questa tecnologia che a oggi viene svenduta per guadagnare quote di mercato e investimenti finanziari... prima o poi dovranno recuperarli (e secondo me sarà impossibile recuperare tutto), ma queste sono questioni a parte, un po' come la bolla di Internet che fu: sì, alla fine la bolla è scoppiata, ma Internet non è scomparso.
E' estremo da dire ma, dal mio punto di vista, a tendere e in un periodo che non sarà nemmeno troppo lungo, se sei una persona che di mestiere lavora su documenti e asset puramente digitali (sviluppatore, traduttore, creator, analista, ecc.), la tua figura è molto a rischio.