La recente scoperta legata alla capacità di apprendimento e di comprensione delle intelligenze artificiali potrebbe mettere in crisi l’intero settore e rallentare notevolmente lo sviluppo di una tecnologia che sembra già pronta a rivoluzionare moltissimi elementi delle nostre vite.
Un gruppo di ricercatori ha infatti scoperto attraverso una serie di esperimenti come sia sufficiente semplicemente alterare leggermente le immagini per ingannare totalmente una IA.
Ecco che una tartaruga viene percepita come un fucile, lasciando l’IA disorientata e di fatto, neutralizzandola o portandola a comportamenti pericolosi per l’uomo.
Ci troviamo di fronte a un enorme gap che potrebbe far nascere una nuova categoria di hacker e mettere in serie difficoltà i dispositivi di questo tipo. Basta pensare alla auto a guida autonoma che potrebbe finire per fare incidenti, anche gravi per una semplice variazione nella loro IA prestabilita. Per quanto riguarda la creazione di intelligente belliche, l’idea diventa ancora più apocalittica e malsana, offrendo il fianco a debolezze davvero enormi che mettono in discussione non solo le armi autonome ma gli stessi dispositivi di sorveglianza.
“Abbiamo bisogno di ripensare completamente la nostra concezione di apprendimento automatico per renderlo più sicuro”, ha spiegato, Aleksander Madry, del Mit.
Gli attacchi hacker e le modifiche esterne atte a influenzare i comportamenti automatizzati sono una grande minaccia, ma anche un’occasione che permetterà agli studiosi di utilizzare: “una lente d’ingrandimento attraverso la quale capire che cosa sappiamo dell’apprendimento automatico”.
Lo studio sta creando non pochi grattacapi, portando in campo numerose discussioni sulle IA e su quanto queste siano sicure e affidabili per il futuro tecnologico. Per il momento un mondo di poliziotti robot e di IA responsabili del controllo delle città è quindi scongiurato, la prospettiva di un così semplice hacking però lascia molto perplessi soprattutto per l’infinità di settori dove le intelligenze artificiali già operano liberamente.