Indica un intervallo di date:
  • Dal Al

Siamo vicini ad una singolarità tecnologica?

Chi ha visto Transcendence? Si tratta di un film di qualche anno fa, in cui la mente di Jonny-Depp-scienziato viene trasferita su un supercomputer connesso a internet, e questa sua copia virtuale, pur amando la moglie Rebecca-Hall-scienziata e rispettando il Morgan-Freeman-maestro, per il bene dell’umanità cerca di distruggere l’umanità. In termini tecnici, Jonny-Depp-copia gioca il ruolo di singolarità tecnologica: un’intelligenza superiore a quella umana che si sviluppa così rapidamente che i suoi creatori non comprendono più né i suoi fini né i suoi mezzi (e nella maggior parte delle trasposizioni letterarie rischiano di essere annientati nel processo).

Sebbene un certo consenso si sta formando nella comunità scientifica di essere a 30 o 40 anni dal produrre un’intelligenza artificiale superiore a quella umana, qualsiasi cosa questo voglia dire, resta il dubbio se questo passaggio porterà effettivamente ad una singolarità tecnologica o meno. Il dibattito è rimasto prevalentemente estraneo alla comunità scientifica, ed un bell’articolo di Toby Walsh propone una visione “dal campo”, che riassume i principali argomenti contrari all’arrivo imminente di una singolarità tecnologica.

singularity-2

L’argomento più curioso è la tendenza umana all’antropocentrismo: per quale motivo l’intelligenza umana deve essere il limite per ottenere una singolarità tecnologica? In fondo noi siamo più intelligenti della maggior parte degli animali, ma nella storia dell’uomo non si è vista alcuna esplosione esponenziale dell’utilizzo del nostro cervello (anche se ce la stiamo mettendo tutta per annientare i nostri compagni di avventura sulla Terra). Così come nel medioevo eravamo certi che l’universo ruotasse intorno a noi, una volta superato il limite umano dell’intelligenza potremmo accorgersi di essere una semplice tacca in una ben più vasta scala di intelligenze.

Argomenti più tecnici e convincenti ricalcano le difficoltà che i ricercatori si trovano ad affrontare ogni giorno nel tentativo di migliorare i propri algoritmi. Innanzitutto, per ogni tasso di crescita di una fantomatica intelligenza ci sono problemi più difficili che non gli saranno accessibili. Esistono quindi limiti all’intelligenza, e la complessità potrebbe essere uno di questi – un’intelligenza “esponenziale” è poco utile a risolvere un problema “super-esponenziale”. Inoltre, più gli algoritmi diventano complessi più un miglioramento minimale costa caro in termini di tempo ed energia. Ne facciamo esperienza ogni giorno: possiamo migliorare le nostre prestazioni fisiche del 40% in breve tempo, e una volta arrivati alla forma fisica ogni miglioramento minimo ci costa mesi di esercizi.

La conclusione? Sempre la stessa: non c’è nulla da temere per quanto riguarda l’estinzione dell’umanità ad opera di super-intelligenze, ma bisogna prepararsi ad importanti conseguenze sociali e lavorative dovute al crescente utilizzo di normali tecniche di intelligenza artificiale. Faranno un ingresso lento, non esponenziale, nelle nostre vite, ma l’ampiezza delle conseguenze (positive o negative) che percepiremo dipenderà da quanto in fretta sapremo adattarci e quanto in anticipo prepararci.

[Approfondimenti: l’articolo originale su Arxiv, “The Singularity May Never Be Near” di Toby Walsh (University of New South Wales and Data61, Australia)]