🌐 Traduzione italiana | Articolo originale: The Scientist Building AI Just Admitted What’s Really Coming by 2030 (And Why They Can’t Stop It)
Questa è una traduzione automatica realizzata con AI. I contenuti e i diritti appartengono all’autore originale.
Mentre le aziende corrono per costruire l’intelligenza artificiale generale, un insider avverte che l’umanità ha tempo fino al 2030 per prendere “la decisione più grande” sul fatto se permettere all’AI di progettare i propri successori.
Jared Kaplan non usa mezzi termini. Il capo scienziato e co-fondatore di Anthropic ha dichiarato al The Guardian questa settimana che i sistemi di AI gestiranno “la maggior parte del lavoro d’ufficio” entro due o tre anni.
Non alcuni lavori. Non certi compiti. La maggior parte.
Ma questa non è nemmeno la parte che dovrebbe tenervi svegli la notte.
Kaplan avverte che l’umanità deve decidere entro il 2027–2030 se permettere ai sistemi di AI di auto-migliorarsi ricorsivamente e progettare i propri successori, definendolo “il rischio estremo”.
Questo arriva da qualcuno che sta costruendo la tecnologia stessa su cui mette in guardia. Anthropic è una delle quattro aziende in una corsa accesa verso l’intelligenza artificiale generale (AGI), sistemi in grado di eguagliare o superare le capacità umane in una vasta gamma di compiti. Le altre sono OpenAI, Google DeepMind e Meta.
Analizziamo cosa sta dicendo realmente.
L’Apocalisse del Lavoro d’Ufficio ha ora una Scadenza
Kaplan non ha offerto vaghe previsioni sull’automazione che influenzerà eventualmente alcune industrie. Ha dato numeri precisi. Due o tre anni per la maggior parte del lavoro d’ufficio.
La sua stessa azienda ne è la prova. Anthropic ha riferito a novembre che i suoi ingegneri utilizzano Claude AI per circa il 60 percento del loro lavoro.
Queste sono le persone che costruiscono i sistemi di AI, e stanno già lasciando che l’AI faccia la maggior parte del loro lavoro. Stanno riportando guadagni di produttività del 50 percento.
Riflettete su questo paradosso per un secondo. Gli ingegneri che creano l’AI stanno usando l’AI per creare l’AI. E stanno ammettendo che li rende due volte più produttivi, il che significa che hanno bisogno della metà delle persone per fare lo stesso lavoro.
Kaplan ha usato suo figlio di sei anni come esempio. “Mio figlio di sei anni non sarà mai più bravo di un’AI nel lavoro accademico come scrivere un saggio o fare un esame di matematica”, ha detto al The Guardian.
Mai. Questo è un genitore che guarda suo figlio e dice che le competenze fondamentali che abbiamo apprezzato per secoli, scrittura e matematica, sono già obsolete per la generazione di suo figlio.
L’ultimo modello di Anthropic, Claude Opus 4.5, rilasciato a novembre, ha ottenuto un punteggio più alto di qualsiasi candidato umano nell’esame di ingegneria interno dell’azienda quando gli è stato dato un limite di tempo di due ore. L’AI ha battuto ogni singolo ingegnere umano nell’azienda che l’ha creata.
La Parte di cui Non Parlano Abbastanza
Ecco cosa mi preoccupa di questi annunci. Le aziende che corrono per costruire l’AGI continuano ad avvertire dei pericoli mentre contemporaneamente spingono lo sviluppo avanti a velocità vertiginosa.
Kaplan ha delineato due pericoli principali. Il primo è la perdita di controllo e di agency umana. “Se immagini di creare questo processo in cui hai un’AI che è più intelligente di te, o intelligente quanto te, che crea un’AI che è molto più intelligente”, ha spiegato. “Suona come un processo spaventoso. Non sai dove vai a finire.”
Non sai dove vai a finire. Non è rassicurante da qualcuno che sta letteralmente costruendo la cosa.
Il secondo rischio riguarda gli attori malevoli. “Puoi immaginare una persona che decide: voglio che questa AI sia solo il mio schiavo. Voglio che metta in atto la mia volontà. Prevenire prese di potere, prevenire l’abuso della tecnologia, è anch’esso molto importante”, ha detto Kaplan.
Ma qui sta la discrepanza. Kaplan ammette che gli attuali sforzi di allineamento dell’AI hanno mantenuto i sistemi allineati con i valori umani.
Ottimo. Il problema, dice, è che tutto cambia una volta che l’AI diventa capace di creare autonomamente versioni più avanzate di se stessa.
Quindi abbiamo capito come allineare l’AI creata dagli umani. Non abbiamo capito come allineare l’AI creata dall’AI. E stiamo correndo verso il punto in cui l’AI crea l’AI comunque.
Il Punto Decisivo del 2027–2030
Kaplan afferma che l’umanità deve prendere “la decisione più grande” entro il 2027–2030. Sono da due a cinque anni da ora.
Non decenni. Non generazioni. Anni.
La decisione è se permettere ai sistemi di AI di auto-migliorarsi ricorsivamente. Una volta premuto quell’interruttore, state essenzialmente sperando che tutto ciò che abbiamo integrato in questi sistemi, tutte le nostre salvaguardie e tecniche di allineamento, reggano quando l’AI inizierà a modificare il proprio codice e a creare successori che non abbiamo progettato.
Jack Clark, un altro co-fondatore di Anthropic, ha descritto l’AI a ottobre come “una creatura reale e misteriosa, non una macchina semplice e prevedibile”. Sono scelte di parole interessanti da qualcuno che costruisce questa tecnologia.
Reale. Misteriosa. Creatura.
Non strumento. Non sistema. Creatura.
Nonostante tutti questi avvertimenti, Kaplan rimane “cautamente ottimista” che uno sviluppo responsabile e un coordinamento globale possano garantire che l’AI porti benefici all’umanità. Ma ha sottolineato che il tempo per agire è breve.
Ecco di nuovo quella parola. Breve. Tutto questo sta accadendo con tempistiche compresse, mentre le conseguenze sono permanenti.
Ciò che Nessuno Dice ad Alta Voce
Le aziende che costruiscono l’AGI sono in un dilemma del prigioniero. Anche se Anthropic volesse rallentare per motivi di sicurezza, OpenAI, Google DeepMind e Meta stanno ancora correndo avanti. Se un’azienda si ferma, le altre guadagnano terreno. Se un’azienda si rifiuta di costruire l’auto-miglioramento ricorsivo, un’altra lo farà.
Abbiamo creato una situazione in cui gli incentivi spingono verso la costruzione di tecnologia potenzialmente pericolosa il più velocemente possibile, mentre le persone che la costruiscono avvertono apertamente dei pericoli.
Wooooow!
Kaplan parla di prevenire prese di potere e abusi.
Ma chi decide cosa conta come abuso?
Le aziende che costruiscono questi sistemi?
I governi?
Quali governi?
Cosa succede quando Cina, Stati Uniti e Unione Europea hanno idee diverse sull’allineamento e il controllo dell’AI?
La perdita di posti di lavoro è quasi una distrazione dal problema più grande. Sì, la scomparsa della maggior parte del lavoro d’ufficio in due o tre anni causerà massicce perturbazioni economiche.
Sì, intere professioni che diventano obsolete sconvolgeranno la società.
Ma questo impallidisce in confronto alla questione se dovremmo permettere all’AI di progettare i propri successori. Perché una volta che ciò accade, non siamo più in controllo del processo di sviluppo. Stiamo sperando che l’AI che abbiamo creato si preoccupi abbastanza dei valori umani da costruire successori che si preoccupino anche loro dei valori umani, in perpetuo.
Questo non è un problema tecnologico. È una scommessa esistenziale.
La Mia Opinione
Trovo profondamente sconfortante che le persone che costruiscono l’AGI continuino a lanciare avvertimenti mentre continuano a costruire a tutta velocità. Kaplan sembra sinceramente preoccupato per questi rischi. Non li sta minimizzando. Sta dicendo che abbiamo tempo fino al 2030 per prendere la decisione più grande nella storia umana.
Eppure, Anthropic ha appena rilasciato Claude Opus 4.5, che supera gli ingegneri umani dell’azienda. Non stanno rallentando. Nessuna di queste aziende lo sta facendo.
Il cauto ottimismo sullo sviluppo responsabile e il coordinamento globale sembra ingenuo dato l’attuale clima geopolitico. Non riusciamo a far coordinare i paesi sul cambiamento climatico, le armi nucleari o la risposta alle pandemie. Ma dovremmo coordinarci sul permettere o meno all’AI di progettare i propri successori?
Le preoccupazioni sulla perdita di posti di lavoro sono valide e immediate. Due o tre anni non sono niente. Non abbiamo alcuna rete di sicurezza sociale pronta per la scomparsa della maggior parte del lavoro d’ufficio. Non abbiamo programmi di riqualificazione su larga scala. Non abbiamo un piano per cosa succede allo scopo e al significato quando il lavoro che definisce la maggior parte dei professionisti istruiti diventa obsoleto.
Ma continuo a tornare a Kaplan che descrive suo figlio. Un genitore che guarda un bambino di sei anni e dice che il bambino non sarà mai migliore dell’AI nelle competenze accademiche fondamentali. Questa non è solo una previsione sulla tecnologia. È una dichiarazione sull’obsolescenza umana nei compiti intellettuali fondamentali.
E stiamo correndo verso quel futuro mentre le persone che lo costruiscono ci avvertono dei rischi estremi. La contraddizione non è sottile. È la tensione che definisce il nostro tempo, e abbiamo forse cinque anni per risolverla.
Non so se sia abbastanza tempo. Non credo che nessuno lo sappia.
Cosa ne pensate del permettere ai sistemi di AI di progettare i propri successori?
Le aziende dovrebbero rallentare lo sviluppo dell’AGI finché non avremo un migliore coordinamento internazionale?
Come dovrebbe prepararsi la società alla scomparsa della maggior parte dei lavori d’ufficio in due o tre anni?
Il cauto ottimismo di Kaplan è giustificato o ingenuo?
Quali alternative esistono alle attuali dinamiche di corsa tra le aziende di AI?
Mi piacerebbe sinceramente sentire la vostra prospettiva su queste domande. Non è retorica, sono curioso di sapere come gli altri stanno riflettendo su questi problemi.
Letture correlate:
Segui per politica dell’AI, etica della tecnologia e futuro del lavoro.
Questo articolo riflette la mia analisi personale e le mie opinioni basate su informazioni riportate pubblicamente. Sarei più che felice se condivideste la vostra opinione.
Fonti:
📝 Nota sulla traduzione
Questo articolo è stato tradotto automaticamente dall’inglese all’italiano utilizzando intelligenza artificiale.
L’articolo originale è disponibile su: https://medium.com/predict/the-scientist-building-ai-just-admitted-whats-really-coming-by-2030-and-why-they-can-t-stop-it-8e4673269d8bTutti i diritti sui contenuti originali appartengono ai rispettivi proprietari. Questa traduzione è fornita a scopo informativo e non costituisce un’opera derivata con pretese di originalità.
Lascia un commento