La propaganda generata dall’IA si sta diffondendo in Africa, condizionando l’opinione pubblica e minacciando elezioni e stabilità.
Un nuovo studio rivela come l’IA generativa stia alimentando la disinformazione sui social media. Falsi endorsement, discorsi manipolati e video ingannevoli stanno plasmando il pensiero di milioni di utenti e minando la resilienza democratica

Antonella Sinopoli
10 Settembre 2025
Per gentile concessione di NIGRIZIA
Sono vasti, e potenzialmente infiniti, gli ambiti di utilizzo dell’intelligenza artificiale. Uno di questi – estremamente rischioso – riguarda la manipolazione delle opinioni. Cosa, evidentemente, pericolosa per la democrazia.
«L’impatto preliminare dell’IA generativa sulle recenti elezioni e sui colpi di stato africani offre un’anteprima preoccupante di ciò che ci aspetta». Lo dice una delle massime esperte della materia, Chinasa T. Okolo che ha analizzato la questione in diversi contesti.
Su Democracy in Africa fa riferimento a come e quanto contenuti generati grazie all’IA e diffusi sui social media abbiano influenzato elezioni e golpe recenti. Una vera e propria propaganda che potrà condizionare le prossime elezioni (sono almeno 17 quelle attese nel 2025) e, nel tempo, minare radicalmente i processi democratici, già afflitti da sfide tradizionali.
Okolo riporta alcuni esempi. A partire dalle elezioni presidenziali nigeriane del 2023 che, dice, «hanno segnato una svolta, sperimentando quella che è stata probabilmente la prima ondata di contenuti elettorali generati dall’intelligenza artificiale nel continente». E quindi ricorda i falsi endorsement da parte di celebrità di Hollywood, ex presidenti degli Stati Uniti e personalità di spicco nigeriane. Tutto circolato sui social.
La cosa più preoccupante – dice – sono state le clip audio generate dall’intelligenza artificiale, condivise poche ore prima delle elezioni, che presumibilmente rivelavano i piani dei candidati di truccare il voto. Di situazioni simili ce ne sono state altre.
Le elezioni del 2024 in Sudafrica, ad esempio, con la diffusione di video generati dall’intelligenza artificiale di falsi discorsi dell’allora presidente degli Stati Uniti Joe Biden, che minacciavano sanzioni. Ma anche nei paesi dove ci sono stati, o sono falliti, colpi di stato, i social media sono stati inondati di video improbabili e falsi.
Come i tanti generati dall’intelligenza artificiale di panafricanisti americani che esprimevano sostegno al nuovo regime di Ibrahim Traoré in Burkina Faso, dopo il golpe del 2022.
In Africa ci sono più di 400 milioni di utenti attivi sui social media e 600 milioni di utenti internet (dati 2024). Sono persone che si affidano ai social per consumare notizie a tassi tra i più alti al mondo.
In Nigeria e Kenya, in particolare, gli utenti dei social media sono tra i primi al mondo per numero di ore giornaliere trascorse su queste piattaforme. Lo afferma un lavoro di Africa Center for Strategic Studies secondo il quale il 60% delle campagne di disinformazione rivolte all’Africa è sponsorizzato dall’estero, principalmente da Russia, Cina e stati del Golfo, con l’Africa occidentale che subisce il peso maggiore di questi attacchi.
Il caso più eclatante è proprio quello della Russia che continua a essere il principale fornitore di disinformazione in Africa. Al 2024, aveva sponsorizzato 80 campagne documentate, rivolte a oltre 22 paesi. Dato che rappresenta quasi il 40% di tutte le campagne di disinformazione in Africa. Queste 80 campagne – che hanno anche lo scopo di acquisire influenza nel continente – hanno raggiunto milioni di utenti attraverso decine di migliaia di pagine e post falsi coordinati.
Almeno 19 i paesi africani hanno subito veri e propri attacchi per minare la democrazia. E sono paesi, come il Sudan, il Mali, la Repubblica Centrafricana, dove sono in corso conflitti e crisi socio-politiche.
Anche in Africa esistono organizzazioni di fact-checking come Africa Check, Dubawa in Nigeria e PesaCheck in Kenya, ma non riescono a stare al passo con l’enorme mole di lavoro.
Africa Check – ricorda ancora Chinasa T. Okolo – esamina 100mila richieste all’anno, «ma il fact-checking è un processo manuale e dispendioso in termini di tempo che non può eguagliare la velocità con cui si diffondono i contenuti generati dall’intelligenza artificiale».
Ma quali possono essere le soluzioni per affrontare le problematiche connesse ad un uso improprio e pericoloso dell’IA? L’esperta ne individua quattro:
- ampliare l’educazione dei cittadini attraverso l’alfabetizzazione sui media;
- rafforzare i quadri normativi. Sebbene 38 dei 54 paesi africani abbiano emanato leggi sulla protezione dei dati, infatti, mancano ancora quadri normativi completi che affrontino specificamente l’IA generativa e la Convenzione di Malabo dell’Unione Africana sulla sicurezza informatica e la protezione dei dati personali è stata ratificata solo da 15 paesi;
- investire in soluzioni tecniche. Vale a dire sostenere la ricerca e lo sviluppo di strumenti di rilevamento adattati alle lingue e ai contesti culturali locali, considerato che gli attuali sistemi di fact-checking basati sull’intelligenza artificiale sono tarati principalmente su dataset occidentali, spesso non riescono a comprendere le sfumature culturali africane e possono scambiare erroneamente contenuti legittimi per disinformazione, e viceversa;
- promuovere la cooperazione continentale. In pratica le nazioni africane devono collaborare per identificare e contrastare queste minacce.
L’intelligenza artificiale non è la salvezza dell’Africa, si rifletteva nel corso del primo summit globale sull’IA ospitato nell’aprile scorso in Rwanda e che si è concluso con l’Africa Declaration on Artificial Intelligence, ma avrà certamente i suoi vantaggi. Se non usata però per fini malevoli.
Il rischio più immediato dell’IA per l’Africa – scrive Science – è la sua capacità di amplificare i danni civici già associati alle tecnologie digitali, come la disinformazione o la sorveglianza.
Mentre i social media hanno già minato il discorso politico e consentito manipolazioni sia all’estero che all’interno, gli strumenti di IA potrebbero intensificare questi rischi rendendo la manipolazione più rapida, non costosa, mirata, convincente e difficile da tracciare.
Nelle democrazie fragili l’amplificazione dei danni digitali rappresenta una profonda sfida per la resilienza civica e i diritti umani e merita un’attenzione urgente. Il costo dell’inazione, conclude Okolo, – che potrebbe tradursi in un arretramento democratico, una maggiore instabilità politica e l’erosione della fiducia pubblica – supera di gran lunga l’investimento necessario per costruire solide difese contro la disinformazione e la propaganda generate dall’intelligenza artificiale.