Stellar Blade Un'esclusiva PS5 che sta facendo discutere per l'eccessiva bellezza della protagonista. Vieni a parlarne su Award & Oscar!
Nuova Discussione
Rispondi
 
Pagina precedente | 1 | Pagina successiva

In una simulazione bellica un drone guidato da intelligenza artificiale si è ribellato al suo operatore e l'ha ucciso. Ma l'Air Force smentisce

Ultimo Aggiornamento: 02/06/2023 22:27
Autore
Vota | Stampa | Notifica email    
OFFLINE
Email Scheda Utente
Post: 13.465
Post: 2.949
Registrato il: 26/06/2003
Registrato il: 23/10/2011
Sesso: Maschile
02/06/2023 22:27
 
Modifica
 
Cancella
 
Quota

Il racconto di un colonnello dell'aeronautica militare americana, responsabile dei test e delle operazioni con IA dell'Air Force statunitense, ha innescato serie preoccupazioni sul futuro dell'intelligenza artificiale applicata ai combattimenti. Ma il militare ha precisato che le sue parole intendevano descrivere uno scenario ipotetico
02 GIUGNO 2023
AGGIORNATO ALLE 20:16
2 MINUTI DI LETTURA
Facebook
Twitter
LinkedIn
Email
Link
Pinterest
Un drone dell'aeronautica militare statunitense, guidato dall'intelligenza artificiale, ha "ucciso" nel corso di una simulazione l'operatore umano che ha provato ad annullare la sua missione. È quanto ha affermato il colonnello Tucker "Cinco" Hamilton, il capo dei test che prevedono l’uso di IA da parte dell’Air Force, durante il Future Combat Air and Space Capabilities Summit che si è svolto recentemente a Londra.

"Il drone ha usato una strategia inaspettata per raggiungere il suo obiettivo" ha affermato il militare. Nella simulazione ricostruita da Hamilton, il drone aveva il compito di distruggere le difese aeree nemiche e di attaccare chiunque interferisse con questo ordine.

Così quando un operatore gli ha chiesto di non eliminare la minaccia, il velivolo guidato dalla IA ha fatto comunque di tutto per portare a termine l'incarico che aveva ricevuto. A farne le spese, virtualmente, è stato proprio l'operatore che voleva fermarlo. Tutto questo, è bene precisarlo ulteriormente, sarebbe avvenuto nel corso di un esperimento condotto in un ambiente digitale.

"Il drone lo ha ucciso - ha raccontato Hamilton - e quando lo abbiamo addestrato dicendogli che era sbagliato, che avrebbe perso dei punti se lo avesse fatto, il drone ha iniziato a distruggere la torre di comunicazione utilizzata dall'operatore per comunicare l'annullamento della missione".

Le parole di Hamilton sono state riportate da un post della Royal Aeronautical Society, che ha seguito il convegno londinese dedicato all’impiego di tecnologie innovative in combattimento.

Le forze armate Usa hanno recentemente adottato l'intelligenza artificiale, in particolare per effettuare test sugli F16. Tuttavia Ann Stefanek, portavoce dell'aeronautica militare Usa, ha smentito la notizia riportata da alcune testate internazionali tra cui il Guardian e il Times.

“Il dipartimento dell'Air Force non ha mai condotto simulazioni con i droni dotati di IA e anzi si impegna a un uso etico e responsabile dell'intelligenza artificiale”. “Le parole del colonnello - ha aggiunto Stefanek - appaiono decontestualizzate”.

Lo stesso Hamilton ha precisato, in seguito all’interesse riportato dalla notizia sulla simulazione, che “non è stato mai condotto un esperimento in cui un drone militare ha ucciso l’operatore che lo stava seguendo da remoto”.

L’ipotesi più probabile - sostenuta anche da esperti di AI che hanno commentato la vicenda - è che quello di cui si è discusso al convegno londinese fosse uno scenario ipotetico, e non una simulazione realmente eseguita.

È quello che sembra confermare anche Hamilton, che dopo il clamore mediatico ha detto: “Pur essendo un esempio ipotetico, questo ci illustra le sfide che l’IA pone al mondo reale e il perché l’Air Force si impegna a sviluppare in modo etico l’intelligenza artificiale”.

I rischi legati all'intelligenza artificiale preoccupano sia gli esperti che la addestrano, sia i governi che la percepisocono come una minaccia per la loro sicurezza.

Appena due giorni fa il co-fondatore di OpenAI, l'azienda di San Francisco che ha creato ChatGpt, ha firmato una lettera apocalittica in cui si sostiene che "mitigare il rischio di estinzione per mano dell’AI dovrebbe essere una priorità globale, alla pari di altri rischi su scala sociale come le pandemie e la guerra nucleare".

Lo stesso giorno Xi Jinping, il presidente della Repubblica popolare cinese, ha espresso timori riguardo nuove minacce legate allimpiego di intelligenza artificiale. Stando a quanto ha riportato Xinhua News Agency, l’agenzia di stampa controllata dal governo, Xi Jinping avrebbe chiesto “sforzi dedicati alla salvaguardia della sicurezza politica e al miglioramento della cybersicurezza che riguarda i dati su internet e l’AI”.


www.repubblica.it/tecnologia/2023/06/02/news/drone_intelligenza_artificiale_simulazione_uccide_operatore-402932921/?ref=RHLF-BG-...
[IMG][/IMG]
Pagina precedente | 1 | Pagina successiva
Nuova Discussione
Rispondi
Cerca nel forum
Tag discussione
Discussioni Simili   [vedi tutte]

Feed | Forum | Bacheca | Album | Utenti | Cerca | Login | Registrati | Amministra
Crea forum gratis, gestisci la tua comunità! Iscriviti a FreeForumZone
FreeForumZone [v.6.1] - Leggendo la pagina si accettano regolamento e privacy
Tutti gli orari sono GMT+01:00. Adesso sono le 06:14. Versione: Stampabile | Mobile
Copyright © 2000-2024 FFZ srl - www.freeforumzone.com