Ho visto questo postato per la prima volta da Ethan Mollick su X (precedentemente noto come Twitter), un professore presso Wharton che sta studiando l'intelligenza artificiale.
Osservando l'immagine da vicino, non è difficile notare tutti i segni lasciati da AI. L'effetto falso di profondità di campo è applicato in modo non uniforme, la texture sulla sua maglietta è confusa e, naturalmente, gli manca un dito sulla mano sinistra. Ma nulla di tutto ciò è sorprendente. Per quanto le immagini generate da AI siano diventate buone nell'ultimo anno, sono ancora piuttosto facili da individuare quando si guarda da vicino.
Il vero problema, però, è che queste immagini compaiono come primo risultato per una figura famosa e conosciuta senza alcun watermark o indicazione che sia generata da AI. Google non ha mai garantito l'autenticità dei risultati della sua ricerca di immagini, ma c'è qualcosa che sembra molto preoccupante in questo.
Anche se non continuiamo a vedere ciò accadere su larga scala nei risultati di ricerca, è un esempio lampante del motivo per cui Google ha bisogno di regole in merito. Almeno, sembra che le immagini generate da AI dovrebbero essere chiaramente contrassegnate in qualche modo prima che la situazione degeneri. Se non altro, almeno fornirci un modo per filtrare automaticamente le immagini generate da AI. Tuttavia, dato l'interesse di Google per i contenuti generati da AI, ci sono ragioni per pensare che possa voler trovare modi per far passare contenuti creati da AI nei suoi risultati, senza contrassegnarli chiaramente.