
I Costi Planetari dell’Intelligenza Artificiale
“Artificial Intelligence is neither artificial nor intelligent.” – Kate Crawford, Atlas of AI
Che cos’è davvero l’Intelligenza Artificiale?
Oggi l’Intelligenza Artificiale (IA) viene spesso presentata come una forza astratta, inevitabile, quasi naturale. È descritta con toni mitici: un’entità autonoma e neutrale capace di apprendere, decidere, persino “pensare”. Tuttavia, questa rappresentazione maschera la sua vera natura: l’IA non è una magia, né una creatura indipendente. È un artefatto tecnico, economico e sociale, costruito da esseri umani in contesti specifici, con obiettivi precisi.
I sistemi di intelligenza artificiale non “capiscono” il mondo nel senso umano del termine. Non hanno coscienza, intenzioni o consapevolezza. Funzionano attraverso la raccolta e l’elaborazione di enormi quantità di dati, applicando modelli statistici per individuare schemi, correlazioni e probabilità, categorizzando, classificando, prevedendo e automatizzando. In questo processo, le dimensioni complesse, relazionali e contestuali della vita vengono spesso appiattite in punti dati standardizzati e obiettivi di efficienza. Ciò che non può essere quantificato viene tipicamente escluso; ciò che non può essere previsto viene spesso svalutato. L’IA quindi non è un’entità neutra. È un sistema progettato, addestrato e valutato attraverso scelte umane. Ed è proprio da queste scelte che dobbiamo partire per capirne i costi—non solo computazionali, ma ecologici, sociali, politici.
L’IA non esiste senza la Terra
Dietro l’apparente immaterialità dell’Intelligenza Artificiale – assistenti virtuali, generatori di immagini, auto autonome, sistemi di riconoscimento facciale e targeting in scenari di guerra – si nasconde una infrastruttura materiale colossale. L’IA vive in data center, server, cavi sottomarini, satelliti, batterie e sensori. Ogni operazione che sembra avvenire nell’etere si basa su un ciclo estrattivo che parte dalla Terra: litio, cobalto, nichel, rame, silicio. L’industria dell’IA è inseparabile da catene di approvvigionamento globali segnate da sfruttamento umano, disuguaglianze geografiche e impatti ambientali devastanti.
Anche a causa della crescente domanda di tecnologie legate all’intelligenza artificiale, la ricerca di nuove fonti di materiali critici ha subito un’accelerazione senza precedenti. Questo processo non solo minaccia ecosistemi fragili e complessi, ma mette seriamente a rischio anche le culture e la sopravvivenza delle popolazioni locali, in particolare nei Paesi del Sud globale.
Alcuni esempi sono in Africa australe e subsahariana, nella Repubblica Democratica del Congo dove oltre il 70% del cobalto mondiale viene estratto, o in paesi come il Madagascar, il Mozambico e il Sudafrica, coinvolti nell’estrazione di grafite e terre rare. Il Sud America con il “triangolo del litio” – che comprende Argentina, Bolivia e Cile – al centro di un boom minerario.. Le comunità locali non traggono reale beneficio economico dall’attività estrattiva, ma ne subiscono le conseguenze in termini di inquinamento dell’acqua, deforestazione e conflitti armati alimentati dal controllo delle risorse. Questi fenomeni rivelano come la transizione tecnologica e digitale globale sta riproducendo disuguaglianze profonde, spostando ancora una volta il peso ambientale e sociale sulle spalle delle comunità più vulnerabili.
Oltre a ciò, i paesi industrializzati, con quelli europei in prima linea, manifestano una voracità tale per queste materie prime da puntare ora a ricavare le stesse risorse all’interno dei propri confini. Così l’estrazione di materie prime critiche in Europa viene presentata non solo come una scelta geopoliticamente più sicura, ma anche come una svolta etica rispetto allo sfruttamento delle risorse nei paesi del Sud globale. Dietro questa narrazione apparentemente virtuosa, si cela in realtà una continuità profonda con le logiche di potere e appropriazione del passato. Cambiano i luoghi e le giustificazioni, ma il paradigma resta lo stesso: assicurarsi il controllo delle risorse, ovunque esse siano, per mantenere un vantaggio strategico in un’economia globale sempre più competitiva e vorace.
I metodi estrattivi sono spesso estremamente invasivi. Le miniere a cielo aperto comportano la rimozione massiccia di suolo e vegetazione, mentre le miniere sotterranee pongono problemi di instabilità del terreno e infiltrazioni. L’estrazione di terre rare trasforma ampie zone in paesaggi lunari, con gravi impatti sulla salute delle comunità locali per via delle polveri tossiche e del rilascio di radionuclidi. Inoltre per poter estrarre le risorse, i territori devono essere resi “accessibili”. Questo comporta la costruzione di strade, impianti di trattamento, oleodotti. Queste infrastrutture, spesso imposte senza consultazione, trasformano aree ecologicamente intatte in distretti industriali.
Una volta estratte, le materie prime devono essere raffinate. Questo processo richiede grandi quantità di acqua, energia e sostanze chimiche aggressive. Gli abitanti vicino ai principali centri di raffinazione delle terre rare soffrono di malattie respiratorie, cancro e infertilità, mentre le acque e i suoli agricoli vengono contaminati da metalli pesanti e altri inquinanti.
Tutto questo rimane in gran parte escluso dal dibattito pubblico. L’estrattivismo che sostiene l’IA è spesso geograficamente distante dai centri in cui questa viene progettata, venduta o discussa. Questa distanza genera una forma di dislocazione epistemica e ambientale, che alimenta l’illusione dell’immaterialità del digitale e rende difficile cogliere il vero costo umano ed ecologico della sua produzione.
Dai minerali ai microchip – La produzione invisibile
L’impatto dell’IA non si esaurisce con l’estrazione delle materie prime: anche la fabbricazione dei semiconduttori – componenti essenziali di ogni dispositivo che impiega intelligenza artificiale – rappresenta una delle attività industriali più complesse, energivore e inquinanti. Eppure, questa fase della filiera produttiva rimane spesso ai margini dell’attenzione pubblica e mediatica, oscurata dal fascino dei prodotti finiti o dalle promesse dell’innovazione. La produzione di un singolo wafer di silicio da 30 cm può richiedere fino a 8.000 litri di acqua ultrapura, necessaria per garantire la precisione estrema dei processi. Nel complesso, il settore dei semiconduttori consuma ogni anno circa 40 miliardi di litri d’acqua (Silicon Valley Water Association), con impatti enormi in termini di stress idrico, consumo energetico e produzione di rifiuti chimici. Secondo l’International Energy Agency (IEA), la domanda di minerali per tecnologie digitali e green è destinata a quadruplicare entro il 2040.
Dopo la produzione, i microchip vengono inviati per l’assemblaggio in grandi impianti situati prevalentemente in Asia: Cina, Malesia e Vietnam rappresentano oggi oltre il 50% della capacità globale in questo campo (OECD, 2023). Questi hub produttivi attraggono investimenti grazie al basso costo della manodopera e a normative poco stringenti. Tuttavia, dietro il mito della “fabbrica efficiente” si nasconde una realtà fatta di salari minimi, turni massacranti e carenza di diritti. Secondo Human Rights Watch, molte lavoratrici e lavoratori del settore elettronico operano in condizioni di forte stress, senza tutele per la salute o la sicurezza, e con scarsa possibilità di migliorare la propria condizione.
Prima di arrivare nei negozi e nelle nostre mani, i dispositivi intelligenti vengono testati e confezionati in hub come Shenzhen (Cina), Chennai (India) o Guadalajara (Messico). È qui che si verifica la qualità, si confezionano i prodotti finali e si prepara la loro immissione sul mercato globale.
Ogni tappa aggiunge un ulteriore strato alla rete produttiva: un sistema logistico e industriale ipercomplesso, in cui i passaggi tra continenti sono scanditi da algoritmi, contratti e zone franche. Una rete che si regge su un equilibrio fragile, continuamente esposto a crisi geopolitiche, pandemie, sanzioni commerciali e guerre.
Il risultato di questa lunga catena è un ecosistema produttivo che consuma risorse e devasta territori, diretta conseguenza di una dinamica tipica del capitalismo: gli attori responsabili, mossi da una visione miope e ottusa, ignorano deliberatamente le conseguenze pur di massimizzare il profitto a breve termine.
Addestrare la macchina – il consumo computazionale
L’addestramento dei modelli di IA è oggi una delle operazioni computazionali più costose e impattanti al mondo. È qui che i sistemi “imparano” a riconoscere immagini, comprendere il linguaggio, imitare comportamenti umani, ma a quale prezzo?
Per addestrare i cosiddetti modelli di linguaggio di grandi dimensioni (LLM), come GPT o PaLM, occorre elaborare colossali quantità di dati — interi archivi digitali, milioni di siti web, libri, immagini, conversazioni – di cui aziende private si appropriano in maniera indebita, senza alcun limite o consenso. Questo avviene attraverso calcoli ripetuti su enormi cluster di GPU (unità di elaborazione grafica ad alta performance), localizzati in centri dati che consumano enormi quantità di energia e acqua.
Secondo uno studio dell’Università del Massachusetts, addestrare un singolo modello di linguaggio può emettere oltre 284 tonnellate di CO₂. Una ricerca più recente pubblicata su Nature Machine Intelligence ha evidenziato che i consumi elettrici possono superare quelli di intere città medie europee, soprattutto se alimentati da fonti fossili.
Anche in questa fase si cela un importante consumo idrico. I data center che ospitano i server per l’IA necessitano di sistemi di raffreddamento costanti. Secondo Google, nel solo 2022 i suoi data center hanno consumato oltre 21 miliardi di litri d’acqua per mantenere le infrastrutture a temperature ottimali.
Il lavoro umano dietro l’automazione
Mentre nei centri del capitalismo tecnologico si esalta la “macchina che pensa”, si oscura deliberatamente la realtà materiale del lavoro vivo che rende possibile l’intelligenza artificiale. L’IA non è il frutto di una generazione spontanea di innovazione, ma una tecnologia costruita sul lavoro umano sistematicamente svalorizzato. Dietro questi algoritmi c’è una forza lavoro globale frammentata e invisibilizzata, impiegata in forme di lavoro digitale che riproducono le stesse dinamiche di sfruttamento del capitalismo industriale, ma su scala planetaria.
Milioni di lavoratori e lavoratrici, situati in paesi come Kenya, India, Venezuela e Filippine, svolgono compiti essenziali per l’addestramento dei modelli: annotano dati, classificano immagini, trascrivono testi, filtrano contenuti violenti o sessuali, e forniscono giudizi che orientano ciò che i modelli “imparano”. Si tratta di lavoro alienato, parcellizzato e dequalificato, che viene espropriato del suo valore per essere trasformato nelle mani delle grandi piattaforme dell’IA.
Questo esercito industriale-digitale lavora in condizioni precarie, senza tutele né contratti stabili, e spesso con compensi miseri. La loro estraneità al prodotto finale è totale: pur svolgendo un ruolo fondamentale nella formazione delle “intelligenze” artificiali, non hanno alcun controllo né riconoscimento sul valore che producono.
Un altro aspetto fondamentale, spesso trascurato, è che il “mondo” che una macchina impara a conoscere non è oggettivo né neutrale, ma il prodotto delle categorie, dei giudizi e delle ideologie dominanti. I sistemi di intelligenza artificiale non apprendono dalla realtà in sé, ma da dati preesistenti che riflettono relazioni sociali, storiche e culturali già segnate da disuguaglianze. Potremmo dire che l’IA interiorizza l’ideologia della classe dominante, naturalizzando criteri e valori che sono tutt’altro che universali.
Prima ancora di chiederci se una macchina debba poter “giudicare” un pesce – o qualunque altra cosa – dal suo aspetto, dovremmo chiederci chi decide cosa è rilevante, cosa è giusto, cosa è normale. La macchina non fa altro che replicare, su scala automatizzata, decisioni umane preesistenti, spesso guidate da logiche di efficienza, controllo e standardizzazione.
In altre parole, l’IA non solo automatizza processi cognitivi: automatizza anche i pregiudizi, le esclusioni e le visioni del mondo proprie del contesto storico e sociale in cui viene costruita. È il trionfo dell’ideologia sotto forma di codice: l’apparenza di razionalità tecnica maschera scelte profondamente politiche. E così, ciò che appare come una semplice “classificazione automatica” è in realtà l’estensione di una forma di dominio.
IA per il controllo del lavoro
L’intelligenza artificiale emerge come l’ennesima forma in cui il capitale mercifica e sussume il lavoro umano: essa esiste solo grazie ad esso, ma allo stesso tempo lo trasforma radicalmente, lo sorveglia e ne riduce il valore. Nel contesto produttivo contemporaneo, l’IA viene presentata come uno strumento per semplificare, aiutare, “liberare” il lavoratore da compiti ripetitivi. In realtà, riduce le mansioni a funzioni meccaniche, standardizzabili, svuotate di contenuto umano e soggettività. Le competenze vengono svalutate e il lavoratore diventa sempre più intercambiabile, subordinato al flusso continuo di comandi generati da sistemi algoritmici.
Nei luoghi di lavoro digitalizzati – dalle catene di montaggio ai call center – l’autonomia si dissolve. L’algoritmo assegna compiti, tempi, modalità, e giudica la performance. Questo non è solo un caso di efficienza tecnica, ma una forma avanzata di alienazione, in cui non è più soltanto il corpo ad essere disciplinato, ma anche il pensiero. Come ha osservato Shoshana Zuboff, non siamo solo di fronte a una meccanizzazione dei corpi, ma a una vera e propria automazione del pensiero. Il lavoro cognitivo – la capacità di decidere, valutare, adattarsi – viene progressivamente trasferito al sistema informatico. Non è più l’operaio, il rider o l’operatrice di call center a gestire la propria attività: è la macchina che detta ogni passaggio, riducendo il lavoratore a un esecutore silenzioso.
Il rider non può scegliere il percorso migliore: l’app glielo assegna, calcolando tempi e priorità in base a logiche che sfuggono al suo controllo. Analogamente, nei centri di smistamento di Amazon, i lavoratori della logistica sono sottoposti a un controllo algoritmico implacabile: il loro scanner non solo indica quale pacco prendere e dove riporlo, ma monitora costantemente i tempi di esecuzione, segnalando ogni minima deviazione dagli standard prefissati. Questo sistema non lascia spazio a decisioni autonome, come ottimizzare i propri movimenti o gestire pause non previste, trasformando ogni gesto in un anello di una catena determinata da un’intelligenza artificiale. L’operatrice non costruisce un discorso sulla base della conversazione reale: segue uno script generato da un algoritmo che ottimizza efficienza e risultati. In entrambi i casi, la capacità di pensare in modo autonomo, di improvvisare, di usare l’esperienza, viene degradata. L’intelligenza non scompare, ma viene espropriata dal lavoratore e riassegnata alla macchina, che diventa il vero cervello operativo del processo produttivo.
Questa logica produce dipendenza funzionale: più l’IA guida, corregge, anticipa, più il lavoratore viene sollevato dallo sforzo — e disabituato all’autonomia. Con il tempo, l’intelletto stesso si atrofizza, in quello che alcuni studiosi definiscono “regresso cognitivo”: capacità un tempo diffuse – orientarsi, scegliere, argomentare – si perdono sotto la pressione di sistemi che “semplificano” per conto nostro. È una forma di sottomissione cognitiva al capitale, mascherata da progresso.
L’IA e la Formazione
Anche in ambito educativo e formativo, questa logica è ormai una realtà consolidata. Le tecnologie di intelligenza artificiale vengono introdotte con la promessa di rendere l’apprendimento più “personalizzato” e accessibile, ma nella pratica stanno contribuendo a standardizzare il pensiero, a uniformare i percorsi formativi e a limitare la libertà di apprendere in modo critico. L’IA, presentata come un catalizzatore di conoscenza, finisce per trasformare il processo formativo in una mera trasmissione di informazioni pre-digerite, riducendo lo spazio per la riflessione autonoma e la costruzione personale del sapere. Sistemi di tutoring automatizzato, valutazione predittiva e scrittura assistita non valorizzano l’errore creativo, la sperimentazione o l’ambiguità: al contrario, tendono a guidare gli studenti e i discenti verso risposte già riconosciute come corrette, riproducendo modelli consolidati e scoraggiando ogni deviazione dal percorso “ottimale” definito dall’algoritmo.
Un esempio evidente è l’uso crescente di piattaforme educative come Khan Academy, che oggi integra un assistente AI (Khanmigo) per seguire passo passo gli studenti nei compiti. L’intelligenza artificiale suggerisce risposte, guida la risoluzione degli esercizi e segnala quando uno studente “devia” troppo dal percorso previsto. Anche se viene presentata come una guida, di fatto incanala l’apprendimento entro schemi precostituiti, limitando la possibilità di approcci alternativi o ragionamenti fuori standard. Chi non rientra nel modello – chi pensa lateralmente, chi formula ipotesi insolite – viene corretto o riportato sulla “strada giusta”.
Così, i luoghi della formazione si trasformano sempre più in luoghi di addestramento alla conformità. L’insegnamento si piega sempre di più alle logiche dell’ottimizzazione: apprendere non significa più esplorare, sbagliare, costruire un pensiero proprio, ma aderire a un modello ideale predefinito, con il rischio concreto di formare individui capaci di eseguire, ma sempre meno abili a interrogarsi criticamente sulla realtà.
Tra usare ed essere usati
La linea sottile tra l’utilizzo e l’essere utilizzati si sfuma rapidamente quando gli strumenti tecnologici, invece di elevare la nostra consapevolezza, ci soppiantano nel processo di riflessione. Questa dinamica amplifica il potere del capitale a discapito di quello umano. Le valutazioni e le direttive provengono da sistemi algoritmici opachi, immuni a ogni forma di contestazione. Il lavoratore è così posto in una condizione di impotenza, soggetto a una macchina che arbitra il suo destino lavorativo – valutando, sanzionando e assegnando incarichi – senza trasparenza né possibilità di replica.
Le aziende avallano l’adozione di questi sistemi invocando efficienza e imparzialità. Eppure, nella pratica, gli algoritmi spesso riproducono e persino esacerbano disuguaglianze preesistenti. Un’indagine congiunta di MIT e Stanford ha rivelato come i sistemi di pianificazione algoritmica penalizzino sistematicamente lavoratori con responsabilità familiari o disabilità, etichettandoli come “meno disponibili” e, di conseguenza, “meno produttivi”.
La direzione è chiara: l’intelligenza artificiale sta riconfigurando il lavoro in una successione di micro-comandi, eseguiti da esseri umani sotto sorveglianza costante. Questa evoluzione ci conduce verso un orizzonte ancora più preoccupante: una società in cui gli individui non solo rinunciano al loro potere decisionale, ma sono assoggettati a una sorveglianza, valutazione e categorizzazione ininterrotta. Quando il nostro senso critico si offusca, la sottomissione a un controllo mascherato da progresso diventa una realtà accettabile.
IA per la sorveglianza, il controllo e la discriminazione
Come abbiamo visto le applicazioni dell’intelligenza artificiale non sono semplici strumenti di efficienza tecnica: sono dispositivi politici che rafforzano il potere di chi comanda e disciplinano i corpi di chi subisce. In molti contesti – dalle scuole ai tribunali, dalle città alle frontiere – l’IA viene impiegata per sorvegliare, classificare e punire. Il potere di osservare si trasforma in potere di decidere, senza trasparenza, senza appello, senza controllo.
I sistemi di riconoscimento facciale, sempre più diffusi in spazi pubblici e privati, non riconoscono tutti allo stesso modo. Secondo uno studio del MIT Media Lab (2018), i principali software commerciali identificano correttamente quasi tutti i volti maschili bianchi, ma sbagliano fino al 35% delle volte quando si tratta di donne nere. Questo non è un malfunzionamento casuale: è la riproduzione automatica di una gerarchia razziale inscritta nei dati e nelle strutture di potere che li generano.
Lo stesso vale per gli algoritmi predittivi, come COMPAS, usato negli Stati Uniti per valutare la “pericolosità” di imputati e prevedere la probabilità che compiano altri reati. Secondo un’indagine di ProPublica, COMPAS sovrastima il rischio per i neri (in oltre il 45% dei casi) e lo sottostima per i bianchi (solo il 23% dei casi), perpetuando un razzismo sistemico. Quando algoritmi come questi vengono addestrati con dati di polizia e tribunali, il risultato è inevitabilmente la codifica dei pregiudizi passati. Ciò significa che le pratiche discriminatorie – come i fermi più frequenti per le minoranze o le sentenze più dure – vengono internalizzate, producendo decisioni automatizzate che, pur sembrando oggettive, perpetuano tali iniquità.
Questa automatizzazione del pregiudizio è parte integrante di un sistema che usa la tecnologia per rafforzare il controllo sulle classi subalterne. È il volto “neutrale” della repressione, una nuova forma di governo algoritmico che sostituisce la violenza esplicita con l’arbitrio silenzioso delle macchine.
Il carburante nascosto: i nostri dati
Alla base di tutto questo c’è una logica economica: il capitalismo della sorveglianza. Un modello descritto dall’esperta Shoshana Zuboff, secondo cui le tecnologie digitali non si limitano a raccogliere dati, ma trasformano ogni aspetto dell’esperienza umana in materia prima estraibile, analizzabile, vendibile.
Nel cuore di questa logica economica c’è un meccanismo sistematico di estrazione della vita quotidiana. Ogni clic, ogni percorso GPS, ogni parola detta o scritta, ogni battito cardiaco tracciato da un dispositivo indossabile, ogni espressione facciale registrata da una videocamera diventa materia prima grezza per l’addestramento e il perfezionamento dei sistemi di intelligenza artificiale.
Questo processo ha una somiglianza con le dinamiche del colonialismo storico: come un tempo si estraevano oro, carbone, petrolio da territori conquistati, oggi si estraggono anche emozioni, pensieri, abitudini e caratteristiche biometriche dalle vite degli individui, spesso senza che questi ne abbiano consapevolezza. È ciò che alcuni definiscono “colonialismo dei dati” o “colonialismo digitale”.
In questo scenario, le persone non sono utenti da servire, ma risorse da sfruttare. I nostri comportamenti diventano “beni estraibili”, mentre l’intelligenza artificiale si nutre di ciò che siamo e facciamo.
Questo sistema si fonda su una illusione di consenso. In teoria, gli utenti autorizzano la raccolta dei propri dati. In pratica, tale consenso è spesso forzato, ambiguo o manipolato. Le richieste di autorizzazione sono formulazioni vaghe, nascoste dentro termini di servizio lunghi e poco leggibili, accettati frettolosamente per accedere a una funzione o continuare a usare un’app. Oltre al consenso distorto, c’è un livello di raccolta ancora più subdolo: quello invisibile e passivo. Dispositivi con microfoni e telecamere sempre attivi, sensori biometrici, cookie traccianti, ID pubblicitari nascosti. Tutti questi strumenti continuano a raccogliere dati anche quando non interagiamo direttamente con il servizio o lo smartphone, contribuendo alla creazione di profili dettagliati e persistenti.
Il risultato è un mondo in cui la sorveglianza è diventata parte dell’infrastruttura quotidiana, tanto integrata da passare inosservata. La privacy non è più la norma, ma una condizione eccezionale, spesso costosa o tecnicamente complessa da ottenere. E mentre le nostre identità digitali vengono costruite, analizzate e vendute da soggetti terzi, la possibilità di esercitare un controllo reale sul proprio sé digitale si dissolve.
Non siamo più solo utenti, ma oggetti di calcolo, target pubblicitari, soggetti monitorati. Più si automatizza la raccolta e l’analisi, meno spazio resta per la consapevolezza individuale e la libertà collettiva. I benefici—potere economico, profitti, capacità predittiva, sorveglianza—sono accentrati nelle mani di pochi attori globali. I costi invece—in termini di privacy, autonomia, dignità—vengono socializzati e ricadono sulla collettività.
L’IA in guerra – il ritorno della corsa agli armamenti
L’intelligenza artificiale non sta solo modificando il modo in cui viviamo, lavoriamo e comunichiamo. Sta anche ridefinendo radicalmente la natura stessa della guerra. Siamo entrati in una nuova era di conflitti in cui software predittivi, armi autonome, sorveglianza totale e guerra informatica non sono più scenari futuristici, ma pratiche operative che si stanno consolidando con grande rapidità.
Uno degli aspetti più inquietanti è la crescente delegazione delle decisioni letali a sistemi di IA. Le armi autonome letali (LAWS – Lethal Autonomous Weapon Systems) possono selezionare e colpire obiettivi senza intervento umano significativo, in base a criteri codificati in algoritmi opachi e inaccessibili. La vita umana viene decisa da un algoritmo, senza spazio per il dubbio, la pietà o il contesto. È la violenza del capitale in forma algoritmica, dove la guerra viene gestita come un calcolo, e l’eliminazione del nemico – spesso migrante, ribelle, civile – diventa una funzione eseguibile.
Chi risponde quando una bomba intelligente colpisce una scuola o un mercato? Nessuno. La responsabilità si dissolve in una catena opaca di decisioni automatizzate, coperta da segreti militari e proprietà intellettuale. L’umano viene espulso dal processo di analisi e scelta, ma resta l’esecutore e spesso la vittima.
L’AI militare non è solo un problema morale: è il prodotto diretto di un sistema che monetizza la guerra e organizza la morte su scala industriale. Il militarismo digitale è il volto armato del neoliberismo, dove l’automazione della violenza serve a proteggere gli interessi geopolitici, economici e coloniali delle potenze dominanti.
Il caso Israele-Gaza:
Un esempio significativo dell’uso aggressivo e sistemico dell’IA in guerra viene dal conflitto a Gaza. Secondo un’inchiesta di The Guardian e altre fonti, a partire dal 7 ottobre 2023, Israele ha impiegato massicciamente sistemi di IA per identificare obiettivi umani.
Uno di questi sistemi, noto come “Lavender”, ha incrementato il numero di obiettivi colpiti da circa 50 all’anno a 100 al giorno, basandosi su una classificazione algoritmica della presunta appartenenza o vicinanza ai gruppi combattenti. Il risultato: migliaia di morti civili considerati “danni collaterali accettabili”, all’interno di un sistema automatizzato che opera con criteri di efficienza più che di proporzionalità o umanità.
L’adozione dell’IA in ambito militare non è circoscritta a conflitti regionali. La NATO stessa ha annunciato lo sviluppo del suo Multi-Domain Sensing System (MSS), con il supporto di aziende private come Palantir Technologies, celebre per i suoi strumenti di sorveglianza e analisi predittiva.
Uno dei vantaggi dichiarati del MSS è proprio la possibilità di accelerare drasticamente il processo decisionale sul campo, integrando dati in tempo reale da più domini (terra, aria, mare, spazio, cyberspazio). Questa “velocità” decisionale comporta però la perdita della riflessione, del contesto e della responsabilità individuale che può portare a errori devastanti, aggravati dall’automation bias, ovvero la tendenza umana a fidarsi ciecamente delle raccomandazioni della macchina.
L’algoritmo decide, l’umano esegue. E la responsabilità si dissolve.
La corsa all’IA militare
Non siamo di fronte a un semplice aggiornamento tecnologico delle forze armate: la militarizzazione dell’intelligenza artificiale segna una discontinuità storica, un punto di svolta nella concezione stessa della potenza militare. Come la bomba atomica ha segnato il XX secolo, l’IA si candida a essere l’arma strategica per eccellenza del XXI.
Questa corsa non ha nulla a che vedere con la difesa dei confini. È piuttosto una lotta per l’egemonia globale, in cui la superiorità tecnologica si traduce in dominio geopolitico, controllo delle risorse e subordinazione dei popoli. Chi riesce a dominare le applicazioni militari dell’IA – dai droni autonomi all’intelligence predittiva – acquista un vantaggio tale da riscrivere gli equilibri internazionali. La supremazia algoritmica infatti agisce su diversi fronti:
- Gestione operativa dei conflitti, grazie alla possibilità di anticipare, simulare e neutralizzare le minacce in tempo reale, si aprono nuove opportunità per interventi preventivi, attacchi di precisione e guerre informatiche.
- Controllo dell’informazione, con la manipolazione automatizzata di flussi mediatici, fake news e propaganda in grado di influenzare elezioni e destabilizzare interi paesi;
- Deterrenza algoritmica, dove il solo possesso di armi autonome e sistemi di sorveglianza totale funziona da strumento di pressione e intimidazione su scala planetaria;
- Sovradeterminazione geopolitica, imponendo standard, vendendo tecnologia, e plasmando le alleanze in base alla dipendenza da questi sistemi.
Gli Stati Uniti, la Cina, e una manciata di altre potenze stanno investendo somme colossali in questa corsa armata. Università, startup dual-use, aziende private come Palantir, Anduril e Leonardo, e think tank finanziati da ministeri della difesa si integrano nel nuovo complesso industriale-militare-digitale, dove ricerca scientifica e logica bellica si fondono nell’interesse del profitto e del controllo.
Questo processo ha conseguenze profonde e devastanti sul piano globale: si sta aprendo una nuova frattura tra chi controlla l’IA militare e chi la subisce. Mentre i paesi ricchi rafforzano la loro superiorità strategica, molti Stati meno sviluppati diventano dipendenti dalle tecnologie prodotte altrove, perdendo ulteriormente sovranità in ambito militare, informativo e persino culturale.
Nei territori colonizzati, nei margini del Sud globale e nelle periferie urbane, l’IA bellica viene testata prima su chi non ha voce né diritti: Gaza, come laboratorio di sorveglianza totale e omicidi automatizzati, è solo uno dei tanti esempi. La logica è brutale: chi controlla l’algoritmo, controlla il pianeta. E come sempre, chi ne paga il prezzo è chi sta in basso: lavoratori, minoranze, popolazioni colonizzate. Non siamo di fronte a un rischio tecnico, ma a una minaccia politica, sistemica e strutturale. Come nella Guerra Fredda, accumuliamo potenziale distruttivo. Ma a differenza delle testate nucleari, l’IA militare è invisibile, deregolamentata, scalabile e si moltiplica silenziosamente.
L’alternativa non può che essere politica e collettiva: resistere all’uso militare della tecnologia, smascherare l’ideologia della “neutralità” e costruire modelli di ricerca, cooperazione e difesa radicalmente opposti alla logica del dominio.
L’IA come specchio del potere
L’IA non è una forza naturale, neutrale o autonoma: è una tecnologia modellata da scelte politiche, economiche e culturali ben precise. Di conseguenza, come la maggior parte delle innovazioni, inevitabilmente riflette e amplifica gli equilibri di potere esistenti. L’IA è un’infrastruttura globale complessa, fatta di data center, contratti militari, piattaforme private, algoritmi opachi, lavoro umano invisibile, minerali estratti in territori sfruttati, decisioni politiche prese lontano dalle persone. È una rete che incorpora logiche di sorveglianza, estrazione, controllo, diseguaglianza, all’interno di un preciso sistema economico: quello capitalista.
Dietro la retorica dell’efficienza, della personalizzazione e del progresso, l’IA è soprattutto una tecnologia del potere: chi la possiede, chi la governa, chi la subisce, il potere di pochi su molti. Potere di decidere chi viene assunto e chi scartato, chi riceve credito e chi viene escluso, chi è un “rischio” e chi è “affidabile”. È una forma di governance autoritaria che si presenta come oggettiva, ma che riproduce — e spesso amplifica — le stesse gerarchie di razza, genere e classe che strutturano il capitalismo globale.
Non è una questione di futuro, ma di presente. Non è solo una questione tecnica, ma profondamente politica: non la politica dei partiti, ma quella dei conflitti reali, delle scelte collettive, delle alternative al dominio. Finché l’intelligenza artificiale sarà sviluppata, governata e posseduta da chi detiene già il potere economico e militare, non potrà che servire a consolidare l’ordine esistente e a disciplinare, sostituire o silenziare chi lavora, chi resiste, chi eccede.
Tre domande per il futuro
In un’epoca in cui l’intelligenza artificiale sembra espandersi in ogni sfera della vita – dal lavoro all’istruzione, dalla guerra alla salute – è urgente rompere l’incantesimo ideologico che la circonda. L’IA non è sostenibile per definizione, in quanto prodotto diretto delle logiche del capitale: energivora, estrattiva, centralizzata, diseguale.
🔹 A chi giova l’espansione dell’IA?
A trarne vantaggio sono le multinazionali della tecnologia, i complessi militari-industriali, le potenze che dominano le infrastrutture digitali del pianeta. Il linguaggio dell’efficienza serve a mascherare l’aumento del controllo, la compressione del lavoro, la neutralizzazione del dissenso. Ma quali vantaggi reali ha la collettività? L’IA migliora la vita di tutti o solo il margine operativo di chi la controlla?
🔹 Chi paga i suoi costi invisibili?
Il costo reale dell’IA è sostenuto da chi estrae i minerali nei Sud globali, da chi annota e filtra dati per pochi centesimi, da chi vive nei territori devastati dai data center, da chi subisce profilazioni discriminatorie. È sostenuto da chi vede la propria intelligenza ridotta a input per algoritmi proprietari, da chi viene escluso dalle decisioni e sorvegliato nei processi. È un costo sociale, ecologico e umano.
🔹 Quali forme alternative di tecnologia possiamo immaginare?
Rifiutare questa IA non significa rifiutare la tecnologia, ma rifiutare il modello economico che la governa. Possiamo e dobbiamo immaginare strumenti orientati ai bisogni reali, sviluppati in modo collettivo e sostenibile. Tecnologie che non estraggano valore ma lo restituiscano, che non sorveglino ma connettano, che non disumanizzino ma potenzino le forme di cooperazione.
L’intelligenza artificiale, in definitiva, non è un destino. È una scelta. E come ogni scelta, può essere contestata, decostruita, trasformata. Per farlo serve una nuova alfabetizzazione politica, capace di decifrare il potere nascosto nelle infrastrutture, e una nuova coscienza collettiva che riconosca in questa tecnologia non solo un insieme di strumenti, ma un campo di lotta.
Riaprire la possibilità di scegliere che tecnologia vogliamo e per chi è un gesto profondamente politico. Solo rimettendo al centro il conflitto sociale, possiamo rivendicare un futuro non governato dalle macchine del capitale, ma costruito dalla volontà collettiva.
Fonti
- AI + Planetary Justice Alliance (2025). https://aiplanetaryjustice.com/
- Amnesty International (2021). Ban the Scan campaign. https://banthescan.amnesty.org/index.html
- Amnesty International (2023). This is What We Die For – Human Rights Abuses in the Cobalt Supply Chain. https://www.amnesty.org/en/documents/afr62/3183/2016/en/
- Artificial Intelligence and the Future of Warfare. https://www.academia.edu/38373946/Artificial_Intelligence_and_Future_Warfare_Implications_for_International_Security
- Digiconomist (2024). Energy Consumption and Carbon Emissions of Artificial Intelligence. https://www.cell.com/joule/fulltext/S2542-4351(23)00365-3
- Michael Kwer (2024). Digital Degrowth https://www.plutobooks.com/9780745349862/digital-degrowth/
- Education Week (2023). AI Tutors in the Classroom: Personalized Help or Standardized Thinking? https://www.edweek.org/technology/opinion-ai-tutors-can-be-both-a-help-and-a-hindrance-in-the-classroom-explain-teachers/2025/05
- Electronic Frontier Foundation (2022). AI Surveillance and Civil Liberties. https://www.eff.org/issues/ai-and-human-rights
- Emma Strubell et al. (2019). Energy and Policy Considerations for Deep Learning in NLP. UMass Amherst. https://arxiv.org/abs/1906.02243
- Future of Life Institute (2015). Autonomous Weapons: An Open Letter from AI & Robotics Researchers. https://futureoflife.org/open-letter/open-letter-autonomous-weapons-ai-robotics
- Global E-Waste Monitor (2024). https://globalewaste.org/map/
- Google (2023). Environmental Report. https://sustainability.google/reports/google-2023-environmental-report/
- Google (2024). Environmental Report. https://sustainability.google/reports/google-2024-environmental-report/
- Human Rights Watch (2022). Working Conditions in the Electronics Sector in Asia. https://chinalaborwatch.org/labor-conditions-in-chinas-consumer-electronics-sector/
- Human Rights Watch. Stopping Killer Robots campaign. https://www.hrw.org/topic/arms/killer-robots
- IEA (2021). The Role of Critical Minerals in Clean Energy Transitions. https://www.iea.org/reports/the-role-of-critical-minerals-in-clean-energy-transitions
- ILO (2023). Digital labour platforms and the future of work. https://www.ilo.org/publications/digital-labour-platforms-and-future-work-towards-decent-work-online-world
- James Williams (2018). Stand Out of Our Light. Cambridge University Press. https://www.cambridge.org/core/books/stand-out-of-our-light/3F8D7BA2C0FE3A7126A4D9B73A89415D
- Journal of Educational Technology (2021). Cognitive Offloading and Student Performance. https://www.researchgate.net/publication/387701784_AI_Tools_in_Society_Impacts_on_Cognitive_Offloading_and_the_Future_of_Critical_Thinking
- Kate Crawford (2021). Atlas of AI. Yale University Press. https://katecrawford.net/atlas
- Khan Academy (2023). Introducing Khanmigo, the AI-powered tutor. https://www.khanacademy.org/khan-labs
- MIT & Stanford (2022). Algorithmic Management and Its Impacts on Workers. https://sloanreview.mit.edu/article/algorithmic-management-the-role-of-ai-in-managing-workforces/
- MIT Media Lab (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. http://gendershades.org/
- MIT Technology Review (2022). The Hidden Environmental Cost of AI. https://news.mit.edu/2025/explained-generative-ai-environmental-impact-0117
- Nature Machine Intelligence (2023). Measuring the Carbon Footprint of AI Training. https://www.nature.com/articles/s41599-024-03520-5
- NTSB (2022). Automation Dependency in Aviation. https://www.sciencedirect.com/science/article/pii/S2352146525004041
- OECD (2023). Digital Economy Outlook. https://www.oecd.org/en/publications/oecd-digital-economy-outlook_f0b5c251-en.html
- OpenAI (2023). Khan Academy pilots GPT-4 as a tutor. https://openai.com/blog/khan-academy
- ProPublica (2016). Machine Bias. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
- Sherry Turkle (2015). Reclaiming Conversation. Penguin Press. https://www.researchgate.net/publication/350521529_Reclaiming_Conversation_The_Power_of_Talk_in_a_Digital_Age
- Shoshana Zuboff (2020). Il capitalismo della sorveglianza. Luiss Editore. https://www.hbs.edu/faculty/Pages/item.aspx?num=56791
- The Guardian (2020). AI systems used to fire Amazon workers without human oversight. https://www.theguardian.com/commentisfree/2021/jul/05/amazon-worker-fired-app-dystopia
- The Guardian (2024). Israel used AI-driven system to identify targets in Gaza, say sources. https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets
- The Verge (2022). Microsoft’s Arizona Data Centers and the Water Crisis. https://www.theverge.com/2022/9/1/23330593/microsoft-arizona-water-shortage-data-centers
- Time Magazine (2023). Inside the Secretive World of AI Data Labelers in Kenya. https://time.com/6247678/openai-chatgpt-kenya-workers/
- TSMC (2022–2023). Sustainability Reports. https://esg.tsmc.com/file/public/e-all_2023.pdf
- Università di Stanford (2023). Generative AI and Student Learning Outcomes. https://scale.stanford.edu/genai/repository/generative-ai-can-harm-learning
Ti è piaciuto questo articolo? Infoaut è un network indipendente che si basa sul lavoro volontario e militante di molte persone. Puoi darci una mano diffondendo i nostri articoli, approfondimenti e reportage ad un pubblico il più vasto possibile e supportarci iscrivendoti al nostro canale telegram, o seguendo le nostre pagine social di facebook, instagram e youtube.
crisi ecologicaformazioneguerraintelligenza artificialelavoro