Davvero l'AI è sempre più usata in guerra? Tutto quello che c'è da sapere sulle nuove armi tecnologiche dell'Occidente

I software di intelligenza artificiale sono piuttosto sfruttati in ambito militare. Nello specifico, in questo settore stanno diventando molto popolari i cosiddetti “sistemi d’armi autonomi”, che in sostanza sono in grado di funzionare e operare da soli dopo aver ricevuto un input umano.

Tra le applicazioni più diffuse dell’AI in campo militare rientrano, ad esempio, il controllo autonomo dei droni e l’analisi rapida di grandi quantità di dati, finalizzata all’addestramento di sistemi capaci di identificare in modo indipendente bersagli terrestri e aerei.

L'Ucraina userà armi AI

L’Ucraina, impegnata a respingere l’invasione russa che nel 2022 ha colpito buona parte del suo territorio, ha annunciato l’intenzione di condividere con i Paesi alleati e alcune aziende private l’enorme quantità di dati raccolti in questi anni di guerra. L’obiettivo è favorirne l’utilizzo per addestrare sistemi militari di intelligenza artificiale.

In questo modo, gli alleati dell’Ucraina – che in quattro anni di guerra contro la Russia ha sviluppato tecnologie efficaci ed economiche per contrastare gli attacchi con i droni, tra le altre cose – potranno accedere a una vasta quantità di dati molto utili in caso di conflitto. Kiev, invece, potrà contare su un’accelerazione nello sviluppo di certi software basati sull’intelligenza artificiale da usare direttamente in battaglia, oltre che sull’introduzione di nuove soluzioni tecnologiche da utilizzare al fronte.

Il ministro della Difesa ucraino, Mykhailo Fedorov, ha definito l’iniziativa una forma inedita di cooperazione internazionale, sottolineando come tutte le parti coinvolte ne trarranno beneficio, in un momento in cui i conflitti internazionali sono sempre più vicini e rilevanti per l’Occidente.

Cosa c'entra Palantir

@techtiff

Anthropic refused autonomous weapons deployment. They were classified a "supply chain risk." Hours later, OpenAI secured a Pentagon deal with the same restrictions. That discrepancy raises serious policy questions.

original sound - AI with Tiff

L’intelligenza artificiale è ormai talmente diffusa che il suo impiego in ambito militare non sorprende più; tuttavia, solleva questioni rilevanti sul piano etico e morale. Un’azienda che da tempo intrattiene rapporti stretti con il settore della difesa e della sicurezza nazionale è la statunitense Palantir, che vede tra i suoi primi finanziatori In-Q-Tel, il fondo di investimento legato alla CIA.

Uno dei principali prodotti di Palantir è Gotham, una piattaforma che consente di analizzare e correlare enormi quantità di dati, anche quando provengono da fonti eterogenee. In questo modo lo strumento permette di superare i cosiddetti “silos di dati”, ossia le barriere tecnologiche che tengono separate informazioni raccolte in contesti diversi. Gotham è ormai ampiamente adottato sia dalle forze dell’ordine che dall'esercito degli Stati Uniti, e negli ultimi anni ha iniziato a diffondersi anche in diversi Paesi europei. Palantir collabora da tempo con realtà britanniche, olandesi, francesi e svizzere, oltre che con diversi governi e forze di polizia o militari in Europa, tra cui quelli di Regno Unito e Germania.

Proprio in Germania, ad esempio, ci sono state proteste e richieste di sospendere l’utilizzo di Gotham, accusato da alcuni di violare le normative vigenti in materia di protezione e trattamento dei dati personali dei cittadini. Di recente, inoltre, Palantir è stata oggetto di forti critiche per la sua collaborazione con l’esercito israeliano e sul presunto impiego delle tecnologie fornite dall’azienda a supporto di alcune operazioni militari nella Striscia di Gaza.