QuizVDS Blog

I droni commerciali potrebbero essere trasformati in armi usando l’IA, avverte il rapporto

I droni commerciali potrebbero essere trasformati in armi usando l'IA, avverte il rapporto

L’intelligenza artificiale potrebbe essere utilizzata per trasformare i droni in armi, diffondere propaganda o lanciare un attacco informatico su larga scala, avverte un nuovo rapporto.

Stati canaglia, criminali e terroristi potrebbero sfruttare la tecnologia, secondo lo studio, pubblicato oggi da un ampio spettro di esperti.

Il rapporto sull’uso dannoso dell’intelligenza artificiale esamina l’IA attualmente o quasi disponibile piuttosto che le tecnologie lontane nel futuro.

L’intelligenza artificiale è costituita da sistemi e macchine informatici in grado di eseguire attività che tradizionalmente hanno richiesto l’intelligenza umana.

Gli esempi includono auto senza conducente, assistenza clienti online o riconoscimento vocale automatico.

‘Fine nocive’

Gli aggressori potrebbero trarre vantaggio dalla “proliferazione dei droni” e riutilizzarli per “fini dannosi”, secondo il Center for the Study of Existential Risk dell’Università di Cambridge, che ha contribuito a mettere insieme il rapporto.

Diceva che potremmo assistere allo “sfondamento di flotte di veicoli autonomi, alla trasformazione di droni commerciali in missili o alla detenzione di infrastrutture critiche in ostaggio”.

L’intelligenza artificiale potrebbe anche annunciare nuovi attacchi informatici come l’hacking automatizzato e la produzione di video falsi altamente credibili da utilizzare come “potenti strumenti per manipolare l’opinione pubblica su scale prima inimmaginabili”.

“L’intelligenza artificiale è un punto di svolta e questo rapporto ha immaginato come potrebbe essere il mondo nei prossimi cinque o dieci anni”, ha affermato il dottor Seán Ó hÉigeartaigh, uno dei coautori del rapporto.

“Viviamo in un mondo che potrebbe diventare irto di pericoli quotidiani a causa dell’uso improprio dell’IA e dobbiamo assumerci la responsabilità dei problemi, perché i rischi sono reali. Ci sono scelte che dobbiamo fare ora e il nostro rapporto è un invito all’azione per governi, istituzioni e individui in tutto il mondo.

“Per molti decenni il clamore ha superato i fatti in termini di intelligenza artificiale e apprendimento automatico. Non più. Questo rapporto esamina le pratiche che semplicemente non funzionano più e suggerisce approcci ampi che potrebbero aiutare: ad esempio, come progettare software e hardware per renderlo meno hackerabile e con quale tipo di leggi e normative internazionali potrebbero funzionare insieme questo.”

Miles Brundage, ricercatore presso il Future of Humanity Institute dell’Università di Oxford, ha dichiarato: “L’intelligenza artificiale altererà il panorama del rischio per cittadini, organizzazioni e stati, che si tratti di criminali che addestrano macchine per hackerare o ‘phishing’ a livello di prestazioni umane o di eliminazione della privacy sorveglianza, profilazione e repressione: l’intera gamma di impatti sulla sicurezza è vasta.

“Spesso accade che i sistemi di intelligenza artificiale non si limitino a raggiungere i livelli di prestazioni umani, ma li superino significativamente. È preoccupante, ma necessario, considerare le implicazioni dell’hacking sovrumano, della sorveglianza, della persuasione e dell’identificazione di bersagli fisici, così come le capacità dell’IA che sono subumane ma comunque molto più scalabili del lavoro umano”.

Exit mobile version