1. Il solito copione della Gen AI
I modelli generativi non capiscono, indovinano.
Prima di partire con gli insulti: non capiscono nel senso umano del termine, ma indovinano nel senso più sofisticato del termine, elaborando il contesto, riconoscendo relazioni sintattiche e semantiche, producendo risposte coerenti e contestualmente appropriate, simulando una certa forma di comprensione del linguaggio umano.
Un Large Language Model (LLM) trasforma il corpus di dati su cui è stato addestrato in rappresentazioni vettoriali di dimensioni elevate, tipicamente mediante architetture Transformer, e applica un processo di inferenza probabilistica per stimare la distribuzione condizionata di ogni token successivo. Con qualche trucco in più: Retrieval Augmented Generation per pescare informazioni da “documenti freschi“, loop di auto-rilettura per simulare “ragionamenti”, temperature che decidono quanto oscillare fra Dante e il bar dello sport.
Il tutto con l’obiettivo quasi ossessivo di scimmiottare il cervello umano, nella speranza di toccare quell’Intelligenza Artificiale Generale che tutti nominano e nessuno riesce a misurare con un righello preciso.
2. E se la AGI fosse già qui?
Provocazione del giorno: la AGI esiste dal Paleolitico, ha il pollice opponibile e paga l’IVA.
La biologia umana, pur non utilizzando GPU, implementa algoritmi evoluti per milioni di anni. Consideriamo alcuni paralleli:
Routine umana | Equivalente “machine-like” |
---|---|
Ricordare la strada di casa | Gradient descent bio-chimico su spazi topologici |
Capire il sarcasmo di un amico | Fine-tuning su dataset conversazionali con annotazioni multimodali (es. tono vocale + espressioni facciali) |
Decidere se restare a letto | Funzioni di costo-beneficio integrate con variabili fisiologiche (temperatura, ore di sonno, dopamina) |
La biologia non usa GPU, ma di neuroni ne abbiamo circa 86 miliardi – e non c’è datacenter -oggi- che regga a quel numero di “parametri” bio-chimici. Forse, più che replicarci, gli LLM stanno solo ricordandoci quanto siamo già modellizzati.
3. Ultime evoluzioni (che rincorrono l’Homo sapiens)
- Claude Opus 4 di Anthropic sostiene di aver “sfondato il soffitto” della qualità-vs-velocità: risposte più rapide, ragionamenti meno legnosi. (Barron’s)
- OpenAI ha rilasciato GPT-4.5 “Orion” e, dicono i rumor, scalda i motori per GPT-5 nei “prossimi mesi”. In altre parole: patch del firmware umano previste a breve. (Exploding Topics)
Insomma, le macchine crescono – ma il loro obiettivo rimane sempre lo stesso: avvicinarsi a ciò che noi facciamo senza pensarci.
4. Homo LLM-ensis
Se ribaltiamo il cannocchiale, emerge un quadro curioso:
- Predizione – Anche noi completiamo frasi altrui: la “prossima parola” in una battuta di spirito la azzecchiamo all’istante
- Reinforcement learning – Un like su social funziona da ricompensa, il flame da penalità
- Continual fine-tuning – Ogni esperienza aggiorna pesi sinaptici, la vecchia versione di noi “si depreca” durante il sonno REM
La differenza? L’umano ha bug divertenti: emozioni incoerenti, nostalgia, procrastinazione. Ma anche questi potrebbero essere soltanto random seeds per evitare l’overfitting esistenziale.
5. Riflessione finale
Mentre aspettiamo che un cluster di TPU dimostri “coscienza”, potremmo chiederci se non siamo già un gigantesco modello autoregressivo ambulante, addestrato su millenni di storytelling sviluppati intorno al fuoco.
Quindi, la prossima volta che avrete l’impulso di ridere di un chatbot perché “non capisce le battute”, fate attenzione: potrebbe aver imparato dal vostro stesso log semantico.
E se l’algoritmo siete voi, chi sta davvero imitando chi?
(Disclaimer: nessuna sinapsi è stata maltrattata nella stesura di questo post)
Scopri di più da Luca Bonesini
Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.