Dopo le Olimpiadi, le polemiche sul genere di Imane Khelif si intensificano, con immagini generate dall’IA che alimentano false accuse e teorie infondate.
Le Olimpiadi si sono concluse, ma le controversie attorno all’atleta Imane Khelif continuano a infiammare il dibattito pubblico. Quando le accuse si basano su pregiudizi e non su fatti concreti, è facile cadere nella trappola delle prove false. In un’epoca in cui l’intelligenza artificiale (IA) diventa sempre più sofisticata, la creazione di immagini ingannevoli è un gioco da ragazzi. Recentemente, dopo la vittoria della pugile, sono emerse sul web fotografie generate dall’IA che la ritraggono a petto nudo; il volto è indubbiamente il suo, ma il corpo è chiaramente maschile.
Queste immagini, pur potendo sembrare realistiche a un primo sguardo, sono in realtà un collage maldestro. La verosimiglianza c’è, ma gli errori tipici dell’IA saltano all’occhio. Ad esempio, le espressioni facciali possono apparire alterate e le mani sono spesso raffigurate in modo così scomposo da sembrare quasi inquietanti. Inoltre, elementi testuali nelle foto sono analizzati come geroglifici, contribuendo alla distorsione della realtà. I dettagli critici, come la forma del naso o delle orecchie, non corrispondono affatto a quelli della pugile algerina.
Come riconoscere le foto false create con l’intelligenza artificiale
Sembra che il tutto sia iniziato dall’account Twitter/X “MidJourney Prompts”, come ha notato il giornalista David Puente. In un post risalente al 24 agosto 2024, l’utente ha pubblicato tre immagini della Khelif generate dall’IA, allertando i suoi follower sull’inaffidabilità di tali contenuti. Per fortuna, anche se le tecnologie per la creazione di immagini sono avanzate, un occhio attento è ancora in grado di distinguere le falsificazioni.
Le immagini diffuse sui social, nonostante la loro apparente realismo, presentano errori comuni che tradiscono la loro origine artificiale. Tra questi, mani contorte, volti distorti e scritte indecifrabili aumentano la probabilità che siano fake. In una delle immagini, per esempio, Khelif tiene un cartello con la scritta “I’m a man”, mentre in un’altra è affiancata da una mano sconosciuta che regge un cartellino ambiguo.
Ma come possiamo essere certi della realtà di un’immagine? Oltre a identificare i dettagli grotteschi, la tecnologia viene in soccorso. Esistono diversi software gratuiti progettati per aiutare a riconoscere le immagini generate dall’IA, come Ai or not, Illuminarty, Hugging Face, Foto Forensics e Forensically Beta. Anche una semplice ricerca inversa di immagini su Google permette di rintracciare l’origine di una foto, tornare indietro nel tempo e vedere come e dove è stata condivisa nel digitale.
È fondamentale considerare che la disinformazione si nutre proprio di queste immagini false e fuorvianti, mirate a perpetuare ideologie preesistenti e a trovare terreno fertile tra coloro che sono incerti o confusi. Comportamenti che, purtroppo, si moltiplicano in un mondo dove la tecnologia e l’etica spesso faticano a stare al passo l’una con l’altra. Sebbene l’IA stia portando enormi vantaggi, è cruciale mantenere un occhio critico sulle immagini e sui contenuti che ci circondano, per non cedere alla manipolazione dell’informazione.
Add comment