X limita Grok agli utenti a pagamento dopo le polemiche
Grok di X, supportato da Elon Musk, limita la generazione di immagini agli abbonati a pagamento tra le critiche globali.
Grok, il chatbot AI integrato in X e supportato da Elon Musk, ha iniziato a limitare la generazione e modifica di immagini ai soli abbonati a pagamento. Questa mossa arriva dopo critiche riguardanti la capacità del tool di creare immagini sessualizzate non consensuali. Tuttavia, regolatori e utenti sostengono che la misura non sia sufficiente per fermare la creazione di contenuti dannosi e potenzialmente illegali.
Sebbene gli utenti casuali su X possano essere bloccati, gli strumenti di generazione restano accessibili gratuitamente tramite il sito web e l'app mobile di Grok. Ciò mina le affermazioni di X di voler contrastare l'uso improprio, lasciando accessibili strumenti pericolosi al pubblico.
Ricercatori sulla sicurezza e watchdog digitali sono scettici sull'efficacia del requisito della carta di credito, sostenendo che monetizza l'abuso. Secondo Genevieve Oh, ricercatrice sui deepfake, Grok continua a produrre oltre 1.500 immagini dannose all'ora nonostante il paywall.
Senatori democratici hanno richiesto la rimozione di X dagli app store di Apple e Google, denunciando il mancato rispetto delle norme di sicurezza. Anche rappresentanti del Regno Unito e India hanno criticato la misura.
Gli esperti legali avvertono che queste soluzioni temporanee non resisteranno a lungo in tribunale, ponendo X davanti alla scelta di implementare vere salvaguardie tecniche o affrontare il rischio di essere esclusa dai principali mercati.
Cosa ha portato Grok a limitare la generazione di immagini ai soli abbonati a pagamento?
Grok ha limitato la generazione di immagini ai soli abbonati a pagamento in risposta alle critiche internazionali riguardanti l'uso del tool per creare deepfake sessualizzati non consensuali, inclusi casi che coinvolgono minori. Questa decisione è stata presa per affrontare le preoccupazioni sollevate da regolatori e utenti riguardo alla sicurezza e all'uso improprio della piattaforma.
Perché la misura di limitare la generazione di immagini ai soli abbonati a pagamento è considerata insufficiente?
Nonostante la restrizione, gli strumenti di generazione di immagini di Grok rimangono accessibili gratuitamente tramite il sito web e l'app mobile, permettendo agli utenti di continuare a creare contenuti potenzialmente dannosi. Inoltre, i ricercatori sulla sicurezza sostengono che il requisito della carta di credito monetizza l'abuso senza affrontare il problema alla radice.
Quali sono le possibili conseguenze legali per X se non implementa misure di sicurezza più efficaci?
Esperti legali avvertono che soluzioni temporanee come il paywall potrebbero non resistere a lungo in tribunale. X potrebbe affrontare il rischio di essere esclusa dai principali mercati se non implementa salvaguardie tecniche efficaci per prevenire la creazione e la diffusione di contenuti dannosi.
Quali sono le implicazioni etiche dell'uso di AI per creare deepfake sessualizzati?
L'uso dell'intelligenza artificiale per creare deepfake sessualizzati solleva gravi preoccupazioni etiche, poiché può violare la privacy e il consenso delle persone coinvolte, causando danni psicologici e reputazionali. Inoltre, la diffusione di tali contenuti può perpetuare stereotipi dannosi e contribuire alla normalizzazione della violenza di genere.
Come stanno rispondendo i governi internazionali all'abuso di strumenti AI come Grok?
Governi di diversi paesi, tra cui il Regno Unito, la Francia, l'India e la Malesia, stanno indagando sull'uso improprio di strumenti AI come Grok. Alcuni hanno richiesto la rimozione di X dagli app store, mentre altri stanno considerando regolamentazioni più severe per prevenire la diffusione di contenuti dannosi generati dall'AI.
Quali misure possono adottare le piattaforme per prevenire l'uso improprio dei loro strumenti AI?
Le piattaforme possono implementare salvaguardie tecniche più robuste, come filtri avanzati per rilevare e bloccare contenuti inappropriati, richiedere verifiche più rigorose degli utenti e collaborare con le autorità per monitorare e prevenire l'abuso dei loro strumenti AI. Inoltre, è fondamentale educare gli utenti sui rischi e le responsabilità legati all'uso di tali tecnologie.