La scorsa settimana, Elon Musk ha postato su X un’immagine che sembrava raffigurare Kamala Harris vestita come una dittatrice comunista. Tuttavia, era chiaro che l’immagine fosse un prodotto dell’intelligenza artificiale. La candidata alla presidenza degli Stati Uniti per il Partito Democratico, reduce da un dibattito positivo contro Donald Trump, non ha alcun legame con il comunismo e, ovviamente, non ha mai impersonato personaggi legati all’Unione Sovietica. Come notato da diversi osservatori, la figura nella foto, probabilmente generata da Grok, l’AI di Musk, somigliava solo vagamente all’attuale vicepresidente.
“L’intelligenza artificiale non riesce ancora a ritrarre accuratamente Kamala Harris”, ha commentato un utente su X, aggiungendo che la figura sembrava più una donna latina generica. Un altro ha ironizzato: “Grok ha solo vestito la vecchia Eva Longoria con un abito formale”, alludendo alla somiglianza con l’attrice di Desperate Housewives. Un terzo utente ha sottolineato la difficoltà dell’algoritmo nel riprodurre accuratamente il volto di Harris, evidenziando le sue origini indiane e giamaicane. Anche altre immagini AI di Harris risultano poco fedeli.
Il video virale di Harris e Trump
Nel frattempo, un video sempre generato dall’intelligenza artificiale, in cui Harris e Trump vengono mostrati in una relazione romantica, è diventato virale, totalizzando quasi 28 milioni di visualizzazioni. In questo video, mentre l’aspetto di Trump rimane costante, quello di Harris cambia più volte, segno delle difficoltà dell’AI nel rappresentarla in modo coerente.
Anche in un test condotto per creare una foto di Trump e Harris che leggono una copia di Wired, Grok è riuscito a rappresentare accuratamente l’ex presidente, ma ha fallito con Harris, presentandola con tratti, acconciature e tonalità di pelle variabili, a volte persino simile a Michelle Obama.
A differenza di altri generatori di immagini AI, come Midjourney che ha vietato la creazione di immagini di Trump e Biden per evitare usi politici, Grok continua a permettere la produzione di foto alterate di politici. Questo solleva interrogativi sull’uso dell’AI per la creazione di contenuti potenzialmente dannosi o manipolatori.
Secondo Joaquin Cuenca Abela, amministratore delegato di Freepik, la difficoltà dell’AI nel rappresentare accuratamente Harris potrebbe essere legata al minor numero di immagini di lei disponibili rispetto a Trump. Un controllo dell’archivio di Getty Images ha infatti evidenziato una notevole differenza tra le immagini di Harris (63.295) e quelle di Trump (561.778). Inoltre, la tecnologia AI potrebbe incontrare difficoltà nel riconoscere tratti femminili e pelli scure, come evidenziato dallo studio Gender Shades del 2018.
Hany Farid, esperto di deepfake, ha suggerito che l’obiettivo non è necessariamente la fedeltà delle immagini, ma piuttosto la creazione di contenuti che possano ridicolizzare figure politiche. Le immagini alterate di Harris potrebbero quindi essere utilizzate per denigrarla piuttosto che per diffondere disinformazione esplicita.
Ari Lightman, professore presso la Carnegie Mellon University, ha aggiunto che l’utilizzo di immagini deliberatamente poco lusinghiere potrebbe servire a rafforzare narrazioni negative. “Viviamo nell’era della comunicazione generata dall’intelligenza artificiale“, ha detto Lightman. “Se un’immagine appare grossolana, potrebbe essere intenzionale per trasmettere un messaggio preciso”.
Scopri come l’intelligenza artificiale può aiutare anche la tua attività cliccando qui.