Un'analisi dei rischi dell'AI ispirata dal saggio di Dario Amodei, tracciando un parallelo con i supereroi della serie The Boys.
L’ispirazione per questo post nasce dalla lettura del saggio di Dario Amodei, The Adolescence of Technology. La prima sezione del saggio si concentra sull’analizzare in modo fattuale i veri rischi che l’AI può portare. E no, non sono la scomparsa di alcuni lavori, o almeno questi non sono i pericoli più imminenti o catastrofici. I rischi maggiori sono collegati ad eventuali danni biologici che si possono realizzare con la prossima generazione di modelli.
Il Parallelo con The Boys 💉
C’è una frase nel saggio che mi ha colpito particolarmente:
“To put it another way, renting a powerful AI gives intelligence to malicious (but otherwise average) people.”
Questa affermazione mi ha immediatamente fatto pensare al fumetto e alla serie TV The Boys, dove un’azienda privata, la Vought America, ha donato i superpoteri a persone normalissime tramite un composto chimico (il Composto V). Il risultato? Supereroi “cazzoni” che abusano dei loro poteri o, peggio, creano dei veri e propri disastri. In particolare, il fumetto racconta di alcuni episodi in cui la Vought ha pressato il governo per inserire i superuomini nelle operazioni militari. L’esito è stato un vero disastro, con perdite di vite umane inenarrabili, poiché i supereroi non erano assolutamente addestrati alla guerra e alle sue regole, portando solo caos e distruzione collaterale.
Il Cast dei Super-AI 🦸♂️ 🦸♀️ 🧔♂️ 🦹♂️ 🦹♂️
Prima di tornare ad esaminare cosa potremmo fare per evitare che uno scenario simile si avveri, permettetemi di aggiungere un altro livello a questo parallelo. Questa volta tra i super di The Boys e gli attuali modelli di AI:
- Il Patriota (Homelander) è Grok: Anarchico, fortissimo e senza freni inibitori. Non ha paura di andare oltre i limiti, con tutte le conseguenze distruttive del caso. Rappresenta la potenza senza controllo e la mancanza di responsabilità etica.
- Starlight è Claude: Si accorge dell’enorme problema che i “supereroi” pongono e vuole collaborare con le istituzioni per mettere un freno al loro strapotere. Cerca di fare la cosa giusta dall’interno, spingendo per la sicurezza e l’etica.
- Il Regolatore è Butcher: Avendo aspettato troppo a prendere delle contromisure, ora rischia di dover ricorrere alla “violenza” (metaforicamente, leggi draconiane o ban totali) e ai metodi più efferati per riportare l’ordine. Se la politica dorme, il risveglio sarà brusco e brutale come Billy Butcher.
- The Deep (Abisso) è OpenAI: Non me ne voglia OpenAI, ma il recente annuncio di mettere la pubblicità nelle sue risposte mi ha ricordato lo smarrito Abisso. Un tempo parte dei “Grandi”, ora sembra cercare disperatamente di rimanere rilevante o profittevole, a volte con mosse che lasciano perplessi.
- Soldatino (Soldier Boy) è Gemini: Proprio come Soldier Boy era l’eroe numero uno prima del Patriota, Google (con DeepMind, AlphaGo, BERT) era il re indiscusso dell’AI prima che arrivasse l’hype di ChatGPT. Soldier Boy non ha solo la forza bruta, ha quel raggio pettorale devastante che “brucia” il Composto V agli altri. Google ha una potenza computazionale (TPU, Data Center) e una base dati (YouTube, Search) che potrebbe tecnicamente “spegnere” o rendere obsoleti i competitor se decidesse di rilasciare tutto il suo arsenale senza freni etici.

Il vero nemico: La Vought International 🏢
In The Boys, il vero cattivo non è un singolo supereroe impazzito, ma la Vought International: la corporazione che li crea, li gestisce e ne copre i disastri pur di proteggere il valore delle proprie azioni.
Nel mondo dell’AI, la “dinamica Vought” è la corsa sfrenata al profitto e alla dominance di mercato. Anche le aziende con le migliori intenzioni (le “Starlight”) sono costrette a correre sempre più veloce perché il mercato punisce chi rallenta. Se Google non rilascia Gemini subito, OpenAI si prende tutto il mercato.
E noi? Noi siamo i cittadini che applaudono ai comizi del Patriota. Siamo sedotti dalla comodità di farci scrivere le email o il codice dall’AI, ignorando che stiamo affidando le chiavi della nostra società a entità che, come la Vought, rispondono prima agli azionisti e poi alla sicurezza pubblica.
Torniamo ai rischi: uno scenario pratico ☣️
Amodei sottolinea come la prossima generazione di modelli di AI avrà capacità pratiche che andranno ben oltre la semplice generazione di testo o immagini. Questi modelli potranno eseguire compiti complessi, come progettare nuovi farmaci, creare materiali avanzati, o persino manipolare organismi biologici.
Immaginate lo spacciatore del parchetto con ambizioni da Pablo Escobar che si trova in mano uno strumento che gli consiglia passo dopo passo come portare avanti meglio la sua attività: dalle tecniche avanzate per riciclare il denaro fino alla creazione di armi batteriologiche per ricattare i governi o eliminare la concorrenza.
Se pensate che stia esagerando perché “anche prima con Google avresti potuto farlo, le informazioni erano lì”, vi sbagliate di grosso. Certo, i genomi e molte informazioni scientifiche sono pubblicamente disponibili, ma Google non ti ha mai dato la “conoscenza pratica” (tacit knowledge) per mettere insieme i pezzi in modo efficace. Gli LLM sì. Per approfondire, vi consiglio di leggere il report del Red Team di Anthropic sui rischi biologici: Anthropic Red Team Report.
Regolamentazione vs Far West 👨⚖️ 🤠
Amodei suggerisce che le AI companies dovrebbero collaborare e lavorare con i governi per stabilire una serie di “guard rail” per i modelli. Non si tratta di invocare una legislazione eccessiva e generica che soffochi l’innovazione, ma norme molto specifiche e mirate, da implementare man mano che nuovi rischi concreti emergono.
In questo contesto, Amodei sottolinea come Anthropic stia già mettendo in piedi queste contromisure autonomamente, senza che nessun regolatore glielo abbia chiesto. Dall’altra parte, altre AI hanno già dato prova di permettere abusi gravi, come la generazione di immagini di nudo non consenziente, incluse persone comuni e bambini (vedi questo articolo del The Guardian).
Conclusione 🧘♂️
Non vorrei vivere in un mondo in cui la politica debba creare i “Butcher” per fermare l’AI. Spero vivamente che i policy maker leggano con serietà questo saggio di Amodei e inizino a collaborare con le aziende in maniera seria.
Abbiamo bisogno di evitare l’over-regulation in stile “EU AI Act” preventivo su tutto, perché l’intera umanità ha bisogno del progresso che questa tecnologia può portare (in medicina, scienza, energia). Ma allo stesso tempo, abbiamo disperatamente bisogno di una regolazione mirata, agile e basata sui fatti, non sulla paura o sull’ignoranza. Solo così potremo avere i benefici dei superpoteri senza finire schiacciati dai danni collaterali della Vought.