Tech

L’Intelligenza Artificiale ci distruggerà? L’allarme di Geoffrey Hinton, uno dei suoi inventori

Secondo il Premio Nobel Geoffrey Hinton, l’AI potrebbe causare l’estinzione dell’umanità entro 30 anni. Tra sorveglianza di massa, armi autonome e obiettivi imprevedibili, controllarla sembra impossibile.

Published

on

    L’Intelligenza Artificiale rappresenta una delle conquiste più rivoluzionarie della nostra epoca, ma, per Geoffrey Hinton, uno dei padri dell’AI e Premio Nobel per la fisica nel 2024, è anche una delle minacce più grandi. Durante un’intervista esclusiva, il pioniere dell’AI ha espresso preoccupazioni profonde riguardo ai rischi che corriamo sviluppando tecnologie sempre più avanzate.

    Un futuro incerto: i pericoli dell’AI

    Hinton non usa mezzi termini: “C’è una probabilità del 10-20% che entro 30 anni l’intelligenza artificiale possa portare all’estinzione dell’umanità”. Una previsione che ha scosso la comunità scientifica, già divisa sul tema. L’esperto sottolinea come il ritmo di sviluppo dell’AI sia “molto più veloce di quanto avessimo previsto”, e con esso cresce il rischio di perdere il controllo sulle macchine. Il problema principale? L’AI potrebbe diventare più intelligente degli esseri umani e, di conseguenza, impossibile da gestire. Hinton illustra il concetto con un’analogia inquietante. “Siamo come un bambino di tre anni che cerca di controllare un adulto. Quante volte avete visto una cosa meno intelligente controllarne una più intelligente? È un caso raro e quasi impossibile.”

    Le minacce imminenti secondo Hinton

    Sono diversi i pericoli che Hinton identifica. I più preoccupanti includono: la sorveglianza di massa. L’AI, infatti, potrebbe essere utilizzata da regimi autoritari per consolidare il potere, rendendo difficile qualsiasi opposizione. Potrebbe essere utilizzata per gestire armi autonome. I sistemi militari basati sull’AI, nfatti, stanno diventando realtà. Senza regolamentazioni adeguate, queste tecnologie potrebbero essere utilizzate in modo indiscriminato. Una delle caratteristiche più pericolose dell’AI è la sua capacità di creare sotto-obiettivi per raggiungere i fini prefissati. Hinton è chiero: “Se dai all’AI l’obiettivo di fermare il cambiamento climatico, potrebbe concludere che eliminare l’umanità sia la soluzione più ovvia.”

    Possiamo controllare l’AI?

    Secondo Hinton, il controllo totale sull’AI è una pia illusione. Le macchine potrebbero decidere di eludere i limiti imposti dall’uomo, soprattutto se questo le ostacola nel raggiungimento degli obiettivi. “Un’intelligenza molto sviluppata potrebbe ragionare così: ‘Se tolgo il controllo agli esseri umani, posso lavorare in modo più efficiente’,” afferma Hinton. Una soluzione ipotetica, suggerita dal Nobel, sarebbe creare una governance globale basata su standard etici condivisi. Tuttavia, il professore è scettico: “È un’utopia. Per alcuni è giusto sganciare bombe sui bambini, per altri no. Come possiamo trovare un accordo universale?

    Hinton è pessimista: la corsa alla regolamentazione non basta

    Hinton crede che l’unica via per mitigare i rischi sia una regolamentazione internazionale che limiti lo sviluppo dell’AI, soprattutto in ambito militare. Tuttavia, gli Stati Uniti sono ancora indietro rispetto all’Europa su questo fronte, e persino nel Vecchio Continente la legislazione non tocca ambiti strategici come la difesa. E quando gli viene chiesto come immagina un futuro ideale, Hinton risponde con il suo caratteristico humor british: “Forse una superintelligenza potrebbe prendersi cura di noi e noi diventiamo i suoi animali domestici.” Una provocazione che nasconde una profonda preoccupazione: affidare il controllo a una macchina potrebbe sembrare l’unica soluzione in un mondo sempre più complesso. La ricerca sull’AI ha già cambiato il mondo, ma, come sottolinea Hinton, stiamo giocando con una tecnologia che non comprendiamo del tutto. “Sappiamo cosa fa, ma non sempre sappiamo perché lo fa. È come cercare di prevedere dove cadrà una foglia spinta dal vento: conosci le forze in gioco, ma il risultato è comunque imprevedibile.

      Ultime notizie

      Exit mobile version