116 pionieri di robotica e di intelligenza artificiale, tra i quali il fondatore di Tesla Elon Musk e Mustafa Suleyman creatore di DeepMind Technologies, cioè quelle persone che nel mondo progettano e costruiscono robot sempre più sofisticati, hanno inviato alle Nazioni Unite un appello perché i paesi della Terra trovino un accordo per bandire le macchine che uccidono.
Sì, potrebbe proprio succedere come nei film di fantascienza: le macchine potrebbero andare oltre le intenzioni per cui sono state create. Non è la prima volta, del resto, che le invenzioni dell’uomo degenerano oltre lo scopo per cui sono nate: la polvere da sparo e le bombe nucleari ne sono uno storico precedente.
Scienziati come Stephen Hawking e persone molto dedite allo sviluppo dell’intelligenza artificiale, come Bill Gates e Elon Musk, si sono espresse più volte contro i pericoli che lo sviluppo futuro delle macchine potrebbe rappresentare per la specie umana.La gente comune non se ne rende conto e resta affascinata solo dal lato buono delle macchine.
I 116 ricercatori di 26 paesi hanno reso pubblica la loro lettera durante l’apertura a Melbourne della conferenza mondiale sull’intelligenza artificiale e chiedono che le macchine che uccidono rientrino nella convenzione che già proibisce l’uso di armi chimiche e di laser accecanti. «Una volta sviluppate – scrivono nell’appello – le armi letali autonome permetteranno ai conflitti armati di essere combattuti in una scala più grande e a intervalli più veloci di quanto gli umani possano comprendere. Queste possono essere armi di terrore, armi che i despoti e i terroristi usano contro popolazioni innocenti e armi che un’operazione di hackeraggio può spingere a comportarsi in modo indesiderato. Non abbiamo molto tempo per agire, una volta che il vaso di Pandora sarà aperto, sarà difficile richiuderlo».
L’intelligenza artificiale applicata alla guerra?
Già esiste. La marina americana ha varato la prima nave senza equipaggio, al confine tra le due Coree ci sono postazioni di mitragliatrici prive di soldati, in grado di sparare quando individuano movimenti sospetti, e Mosca sta lavorando a carri armati che si muovono e sparano da soli. Quando il mondo si deciderà a fermarli, potrebbe essere davvero troppo tardi.
Se poi questi strumenti servissero al terrorismo, meglio non pensarci.












