Dario Amodei, CEO di Anthropic (creatore di Claude), ha pubblicato un saggio di 20.000 parole intitolato “The Adolescence of Technology” in cui lancia un avvertimento drammatico: l’intelligenza artificiale è sul punto di “testare chi siamo come specie” e l’umanità sta per ricevere “un potere quasi inimmaginabile”.

L’Avvertimento Principale

“L’umanità sta per ricevere un potere quasi inimmaginabile, e non è affatto chiaro se i nostri sistemi sociali, politici e tecnologici possiedono la maturità per usarlo.”

Dario Amodei, CEO Anthropic

Il saggio, pubblicato sul blog personale di Amodei, ha generato un enorme dibattito sui social media, ma in realtà non contiene molto di nuovo. Amodei avverte dei rischi catastrofici dell’AI da anni, inclusi:

  • Minacce bio-terroristiche (AI che aiuta a sviluppare armi biologiche o chimiche)
  • AI potente che sfugge al controllo umano
  • Diffuse perdite di posti di lavoro
  • Pericoli di potere e ricchezza concentrati

Previsioni Choc

Nel suo saggio, Amodei fa previsioni esplicite:

  • AI di livello umano arriverà entro due anni (previsione più esplicita finora)
  • 50% dei lavori entry-level bianco colletto saranno eliminati entro cinque anni
  • Disordini sul mercato del lavoro saranno “insolitamente dolorosi”

Rischi Aggiuntivi

Amodei avverte anche di rischi geopolitici e sociali:

  • Possibilità di governi autocratici che utilizzano l’AI per sopprimere le popolazioni
  • Controversia sui deepfakes: Amodei ha alluso alla recente inondazione di deepfakes sessualizzati su X (ex-Twitter), inclusi contenuti che coinvolgevano minori, generati dal modello AI di Elon Musk (Grok), affermando che “alcune aziende AI hanno mostrata una preoccupante negligenza verso la sessualizzazione dei bambini nei modelli di oggi”
  • Incertezza sulla coscienza dei modelli: “Non sappiamo per certo se i modelli sono coscienti”

Le Soluzioni Proposte

Secondo Amodei, le proposte di rimedio sono più importanti degli avvertimenti. Tra queste:

  • Individui ricchi hanno l’obbligo di aiutare la società ad affrontare gli effetti economici dell’AI, incluso aiutare coloro che potrebbero perdere il proprio lavoro
  • Tutti i cofondatori di Anthropic hanno impegnato l’80% della loro ricchezza alla filantropia
  • Gli impiegati Anthropic hanno promesso individualmente miliardi di dollari in azioni Anthropic a beneficenza, e Anthropic sta abbinando queste donazioni
  • Critica a Silicon Valley: “è triste per me che molti individui ricchi (specialmente nell’industria tech) abbiano recentemente adottato un atteggiamento cinico e nichilista che la filantropia è inevitabilmente fraudolenta o inutile”
  • Aziende AI: dovrebbero guidare i clienti enterprise verso deployment AI che creano valore da nuove linee di business e crescita, non semplicemente attraverso risparmio di costi
  • Riassegnazione creativa: le aziende dovrebbero essere creative nel riassegnare i dipendenti i cui lavori vengono disrupti, piuttosto che licenziarli
  • Intervento governativo: tassazione progressiva per ridistribuire la ricchezza, specialmente targeting profitti eccessivi previsti dalle aziende AI

“Se non supportano una buona versione della tassa, otterranno inevitabilmente una cattiva versione disegnata da una folla.”

Dario Amodei, agli interessi che si oppongono alla tassazione progressiva

Contesto e Significato

In molti modi, il saggio di Amodei funziona come messaggio di marketing e “profezia appassionata” per Anthropic. L’azienda è nota per avere forse il maggior focus sulla sicurezza AI tra tutti i principali attori, il che ha aiutato ad attrarre clienti enterprise che cercano modelli affidabili.

Il saggio menziona più volte la “costituzione” che Anthropic ha sviluppato per il suo modello Claude, un fattore che differenzia i modelli Anthropic da quelli offerti da OpenAI, Google, Meta e xAI di Elon Musk. Questa costituzione è progettata per mitigare vari rischi, da bioterrorismo al rischio che il modello sfugga al controllo umano.

Fortune ha recentemente dedicato la sua copertura di gennaio ad Amodei e Anthropic, sottolineando come l’enfasi sulla sicurezza abbia aiutato l’azienda a guadagnare trazione commerciale tra grandi aziende.

Cronologia degli Avvertimenti di Amodei

Amodei non è nuovo agli avvertimenti sull’AI. Nel suo saggio ricorda di aver fatto previsioni che in alcuni casi si sono rivelate accurate, in altri meno:

  • 6-9 mesi fa: predisse che l’AI avrebbe scritto fino al 90% del codice software. Si è rivelato largamente vero per Anthropic stessa (il suo strumento Claude Cowork è quasi completamente scritto da Claude), ma non accurato per il codice in generale. Nella maggior parte delle aziende, la quantità di codice scritta dall’AI è stata circa 20-40% (ma è in aumento da ~0% di tre anni fa)
  • Passato: avvertito ripetutamente di rischi catastrofici, fuga di controllo, perdite di lavoro e concentrazione di potere

Amodei conclude il saggio con una nota di cautela: rifiuta le affermazioni che il pericolo sia inevitabile o che qualcosa andrà storto per impostazione predefinita, ma riconosce che “un rischio credibile di pericolo è sufficiente” perché lui e Anthropic paghino costi significativi per affrontarlo.

Nota importante: Anthropic ha detto agli investitori lo scorso anno che è sulla buona strada per raggiungere il pareggio operativo entro la fine del 2028.

Fonte del saggio: darioamodei.com – The Adolescence of Technology

Fonti aggiuntive: Fortune, The Guardian, CNBC, Axios, Euronews, Washington Post, New York Times, Perplexity

Categorie: AI, Tecnologia, Anthropic, Claude, Dario Amodei

Disclaimer: Articolo generato da AI basato su fonti pubblicate.