Gli esperti di intelligenza artificiale mettono in guardia dal rischio di 'estinzione umana' senza ulteriore supervisione
Un gruppo di ricercatori di intelligenza artificiale chiede un maggiore controllo e migliori protezioni per gli informant all'interno del settore per mitigare potenziali danni.
Un gruppo di ricercatori di intelligenza artificiale avverte del rischio di "estinzione umana" senza ulteriori controlli nel settore. Gli esperti chiedono maggiore supervisione e protezioni per gli informatori affinché la tecnologia non venga utilizzata in modo dannoso. Le aziende di AI hanno forti incentivi finanziari a evitare controlli efficaci, ma i ricercatori credono che i rischi possano essere mitigati con l'aiuto della comunità scientifica, dei legislatori e del pubblico. Tuttavia, preoccupa il fatto che le aziende di AI non possano essere affidate a gestire imparzialmente lo sviluppo della tecnologia.
Un gruppo di ricercatori di intelligenza artificiale sta chiedendo un maggiore controllo e migliori protezioni per gli informant all'interno del settore per mitigare potenziali danni. Più di una dozzina di dipendenti attuali e ex di OpenAI, Google Deep Mind e Anthropic hanno pubblicato una lettera aperta martedì scorso per attirare l'attenzione sui 'rischi seri' derivanti dal continuare a sviluppare rapidamente la tecnologia senza avere un efficace quadro di supervisione in atto.
Il gruppo di ricercatori sostiene che la tecnologia potrebbe essere abusata per esacerbare disuguaglianze esistenti, manipolare informazioni e diffondere disinformazione, e persino 'la perdita di controllo dei sistemi autonomi di intelligenza artificiale potenzialmente risultante nell'estinzione umana.' I firmatari credono che questi rischi possano essere 'adeguatamente mitigati' attraverso gli sforzi combinati della comunità scientifica, dei legislatori e del pubblico, ma si preoccupano che 'le aziende di intelligenza artificiale abbiano forti incentivi finanziari ad evitare una supervisione efficace' e non possano essere considerate come garanti imparziali dello sviluppo della tecnologia.
Tecnologia AI generativa in rapida crescita
Dal lancio di ChatGPT nel novembre 2022, la tecnologia AI generativa ha conquistato il mondo informatico con giganti come Google Cloud, Amazon AWS, Oracle e Microsoft Azure che guidano quello che ci si aspetta diventi un'industria da trilioni di dollari entro il 2032. Uno studio recente di McKinsey ha rilevato che, fino a marzo 2024, quasi il 75% delle organizzazioni intervistate aveva adottato l'intelligenza artificiale in almeno una capacità. Nel frattempo, nel suo annuale sondaggio Work Index, Microsoft ha scoperto che il 75% dei lavoratori d'ufficio utilizza già l'intelligenza artificiale sul lavoro.
Chiamata all'azione
Tuttavia, come ha dichiarato Daniel Kokotajlo, ex dipendente di OpenAI, al Washington Post, 'Loro e altri hanno aderito all'approccio 'muoviti velocemente e rompi le cose', e questo è l'opposto di ciò che è necessario per una tecnologia così potente e così poco compresa.' Le startup di AI, tra cui OpenAI e Stable Diffusion, sono state ripetutamente accusate di violare le leggi sul copyright degli Stati Uniti, ad esempio, mentre i chatbot disponibili pubblicamente sono regolarmente indotti a ripetere discorsi d'odio e teorie del complotto e a diffondere disinformazione.
I dipendenti di AI che si oppongono sostengono che queste aziende possiedono 'informazioni sostanziali non pubbliche' sulle capacità e i limiti dei loro prodotti, inclusi i potenziali rischi dei modelli di causare danni e quanto siano effettivamente efficaci le loro protezioni. Sottolineano che solo alcune di queste informazioni sono disponibili alle agenzie governative attraverso 'deboli obblighi di condivisione e nessuna delle quali è disponibile al pubblico generale.'
'Finché non vi sarà una supervisione governativa efficace di queste aziende, i dipendenti attuali e ex sono tra le poche persone che possono renderle responsabili nei confronti del pubblico,' ha dichiarato il gruppo, sostenendo che l'ampio uso delle aziende di AI di accordi di riservatezza e la debole attuazione delle protezioni esistenti per gli informant stanno ostacolando tali questioni.
Il gruppo ha chiesto alle aziende di AI di smettere di stipulare e far rispettare accordi di non denigrazione, stabilire un processo anonimo per consentire ai dipendenti di affrontare le proprie preoccupazioni con il consiglio di amministrazione dell'azienda e i regolatori governativi, e di non prendere provvedimenti punitivi contro gli informant pubblici nel caso in cui tali processi interni si dimostrino insufficienti.