Indica un intervallo di date:
  • Dal Al

IA & società: non c’è (ancora) nulla da temere

Le macchine ci ruberanno il lavoro? Si ergeranno ad impassibili guardiane delle disuguaglianze sociali? Un esercito di droni è pronto a premere grilletti incorporei su di noi? Dobbiamo credere ai vaticini di Elon Musk e di Stephen Hawking, che predicono la scomparsa del genere umano a causa di non ben specificate intelligenze artificiali?

Nelle ultime settimane è comparsa una serie di autorevoli risposte – su Medium, sul New York Times, e sul Wall Street Journal – firmate da alcuni tra i più influenti ricercatori del settore.

Il messaggio principale è un invito a tornare con i piedi per terra: l’essere umano è molto più intelligente di quanto pensiamo, e l’IA è storicamente sovrastimata. Le macchine che abbiamo costruito per emulare e sorpassare il comportamento umano sono in grado di farlo soltanto su temi e problemi molto specifici. Non è quindi il momento di regolamentare e costringere la ricerca in IA, ma di meravigliarsi dei piccoli stupefacenti progressi che siamo in grado di fare. La specializzazione dell’IA permette anche facili considerazioni costi-benefici: autorizzare la circolazione di auto che si guidano da sole potrebbe causare un numero limitato di incidenti e una quantità sconsiderata di dibattiti su a chi attribuirne la responsabilità, ma molto probabilmente eviterebbe il milione di morti all’anno in incidenti stradali.

Un altro concetto importante da realizzare è la differenza tra comportamento intelligente e autonomia. Il famoso computer Watson di IBM che ha vinto il gioco televisivo Jeopardy! non è in grado di connettersi ad internet ed utilizzare la sua conoscenza per sbancare in borsa. Per usare le parole del filosofo John Searle: “Watson non sa di aver vinto Jeopardy!”. D’altra parte, un’arma autonoma è libera di prendere decisioni sulla specifica azione di sparare, ma una volta finite le munizioni non è certo in grado di trovarle né tantomeno ricostruirle. La maggior parte della ricerca in IA al momento è focalizzata sulla creazione di esperienze umane “aumentate” piuttosto che entità autonome. Tuttavia, gli effetti di queste tecnologie sulla società sono tangibili e vanno monitorati: una splendida notizia è che l’Università di Stanford ha appena lanciato un progetto in collaborazione con Eric Horvitz di Microsoft Research, che per i prossimi cento anni registrerà gli effetti dell’IA su temi tanto vasti quanto la privacy, la democrazia, l’economia (incluso il mondo del lavoro), la guerra, il crimine…

Ma vogliamo veramente guardare troppo lontano e vaticinare anche noi? Pare molto più probabile che l’umanità scompaia a causa di una sovrappopolazione già esistente, piuttosto che per mano di non ben specificate intelligenze artificiali. Non ci sono teorie economiche o tecnologie attualmente in grado di garantire le risorse necessarie ad una popolazione in costante crescita su questo pianeta (qualche tentativo c’è: lo stesso Elon Mask sta lavorando per costruire una colonia su marte). Se scartiamo le epidemie di peste, le guerre mondiali e le carestie programmate, non restano molte altre opzioni per salvarci, e dobbiamo investire pesantemente nella ricerca di tecnologie che siano in grado di garantirci la sopravvivenza come specie. L’IA sembra essere un’ottima candidata.

In conclusione: non c’è (ancora) nulla da temere. É il momento di celebrare i rapidi progressi dell’IA piuttosto che farci rallentare da paure per ora prive di fondamento. L’importante è non fermare il dibattito sugli utilizzi e gli scopi di tali tecnologie, osservare e regolamentare i problemi sociali che ne possono derivare, e farsi trovare pronti in caso un giorno molto molto lontano avremo la fortuna di assistere al grande passo che ci porterà per la prima volta ad osservare una vera e propria intelligenza artificiale autonoma. Condizione necessaria è che la politica e la società si riavvicinino al dibattito scientifico e tecnologico, da cui si tengono imbarazzantemente lontani. Una volta che decidiamo dove vogliamo andare e come, la tecnologia sarà (autonomamente?) pronta a servirci.

ai_box_experiment