L’AGI è già qui

Black and white portrait of a thoughtful bald man indoors, capturing a moment of reflection with a wall clock in the background.

1. Il solito copione della Gen AI

I modelli generativi non capiscono, indovinano.

Prima di partire con gli insulti: non capiscono nel senso umano del termine, ma indovinano nel senso più sofisticato del termine, elaborando il contesto, riconoscendo relazioni sintattiche e semantiche, producendo risposte coerenti e contestualmente appropriate, simulando una certa forma di comprensione del linguaggio umano.

Un Large Language Model (LLM) trasforma il corpus di dati su cui è stato addestrato in rappresentazioni vettoriali di dimensioni elevate, tipicamente mediante architetture Transformer, e applica un processo di inferenza probabilistica per stimare la distribuzione condizionata di ogni token successivo. Con qualche trucco in più: Retrieval Augmented Generation per pescare informazioni da “documenti freschi“, loop di auto-rilettura per simulare “ragionamenti”, temperature che decidono quanto oscillare fra Dante e il bar dello sport.

Il tutto con l’obiettivo quasi ossessivo di scimmiottare il cervello umano, nella speranza di toccare quell’Intelligenza Artificiale Generale che tutti nominano e nessuno riesce a misurare con un righello preciso.


2. E se la AGI fosse già qui?

Provocazione del giorno: la AGI esiste dal Paleolitico, ha il pollice opponibile e paga l’IVA.

La biologia umana, pur non utilizzando GPU, implementa algoritmi evoluti per milioni di anni. Consideriamo alcuni paralleli:

Routine umanaEquivalente “machine-like”
Ricordare la strada di casaGradient descent bio-chimico su spazi topologici
Capire il sarcasmo di un amicoFine-tuning su dataset conversazionali con annotazioni multimodali (es. tono vocale + espressioni facciali)
Decidere se restare a lettoFunzioni di costo-beneficio integrate con variabili fisiologiche (temperatura, ore di sonno, dopamina)

La biologia non usa GPU, ma di neuroni ne abbiamo circa 86 miliardi – e non c’è datacenter -oggi- che regga a quel numero di “parametri” bio-chimici. Forse, più che replicarci, gli LLM stanno solo ricordandoci quanto siamo già modellizzati.


3. Ultime evoluzioni (che rincorrono l’Homo sapiens)

  • Claude Opus 4 di Anthropic sostiene di aver “sfondato il soffitto” della qualità-vs-velocità: risposte più rapide, ragionamenti meno legnosi. (Barron’s)
  • OpenAI ha rilasciato GPT-4.5 “Orion” e, dicono i rumor, scalda i motori per GPT-5 nei “prossimi mesi”. In altre parole: patch del firmware umano previste a breve. (Exploding Topics)

Insomma, le macchine crescono – ma il loro obiettivo rimane sempre lo stesso: avvicinarsi a ciò che noi facciamo senza pensarci.


4. Homo LLM-ensis

Se ribaltiamo il cannocchiale, emerge un quadro curioso:

  1. Predizione – Anche noi completiamo frasi altrui: la “prossima parola” in una battuta di spirito la azzecchiamo all’istante
  2. Reinforcement learning – Un like su social funziona da ricompensa, il flame da penalità
  3. Continual fine-tuning – Ogni esperienza aggiorna pesi sinaptici, la vecchia versione di noi “si depreca” durante il sonno REM

La differenza? L’umano ha bug divertenti: emozioni incoerenti, nostalgia, procrastinazione. Ma anche questi potrebbero essere soltanto random seeds per evitare l’overfitting esistenziale.


5. Riflessione finale

Mentre aspettiamo che un cluster di TPU dimostri “coscienza”, potremmo chiederci se non siamo già un gigantesco modello autoregressivo ambulante, addestrato su millenni di storytelling sviluppati intorno al fuoco.

Quindi, la prossima volta che avrete l’impulso di ridere di un chatbot perché “non capisce le battute”, fate attenzione: potrebbe aver imparato dal vostro stesso log semantico.

E se l’algoritmo siete voi, chi sta davvero imitando chi?

(Disclaimer: nessuna sinapsi è stata maltrattata nella stesura di questo post)


Scopri di più da Luca Bonesini

Abbonati per ricevere gli ultimi articoli inviati alla tua e-mail.

Scopri di più da Luca Bonesini

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere