Le distribuzioni Linux vietano il codice generato dall'AI - NetBSD e Gentoo guidano la sfida nel vietare il codice scritto dall'AI
Non tutti gli sviluppatori FOSS vogliono che l'AI si intrometta nel loro codice
Linux distros come NetBSD e Gentoo vietano il codice generato da AI. NetBSD richiede approvazione umana per il codice AI, mentre Gentoo vieta del tutto gli strumenti AI. Queste decisioni dimostrano che il lavoro umano è ancora necessario per i migliori risultati, non le macchine. Alcuni progetti FOSS stanno ancora dibattendo sull'uso di AI generativa, con Debian che sembra essere più cauta nel vietarla completamente. Queste scelte potrebbero avere interessanti implicazioni a lungo termine.
Una mossa controversa dalla comunità FOSS
Emergono questa settimana dalla comunità del software libero e open source (FOSS) un post sul Wiki di Gentoo e un aggiornamento alle linee guida di commit di NetBSD che vietano o limitano fortemente l'uso di codice generato dall'AI all'interno di queste distribuzioni Linux open source. Considerando quanto sia controversa l'IA e quanto spesso possa produrre soluzioni che non funzionano correttamente (specialmente per compiti di programmazione), ci sono molte ragioni pratiche per applicare queste nuove politiche.
NetBSD e la sua politica
Nel caso di NetBSD, il 'codice generato da un grande modello di linguaggio o tecnologia simile' è 'presunto essere codice contaminato e non deve essere commesso senza preventiva approvazione scritta'. Quindi, sebbene la loro politica possa tecnicamente consentire il contributo dell'IA in futuro, non sarà senza supervisione umana per garantire che le funzionalità funzionino effettivamente.
La decisione di Gentoo Linux
Nel frattempo, Gentoo Linux è più diretto nel vietare del tutto gli strumenti di IA durante il contributo al progetto Gentoo. Il team di Gentoo cita direttamente problemi di copyright, qualità e etica dietro la loro decisione di non permettere il codice generato da LLM nel loro sistema operativo. In particolare, le loro preoccupazioni etiche sottolineano che i progetti di IA commerciali 'si dedicano frequentemente a violazioni di copyright evidenti per addestrare i loro modelli', il loro utilizzo di risorse naturali potrebbe essere troppo grave e che gli LLM sono stati utilizzati per favorire truffatori.
La necessità del lavoro umano
Rispetto alle dichiarazioni di personaggi come Jensen Huang che indicano l'IA e l'hardware AI come 'la morte della codifica', queste decisioni da parte di progetti FOSS consolidati mostrano che abbiamo ancora bisogno del lavoro competente degli esseri umani per ottenere i migliori risultati, non delle macchine.
Una luce in fondo al tunnel
Fortunatamente per i critici dell'IA generativa, sta diventando lentamente più accessibile disattivare queste funzionalità dove non sono desiderate. Ad esempio, è possibile bloccare i risultati dell'IA dai risultati di ricerca di Google per evitare di ricevere consigli potenzialmente errati da un robot.
Un dibattito in corso
In altre parti della scena FOSS, l'uso dell'IA generativa è ancora oggetto di dibattito - ad esempio, c'è ancora un thread che discute sull'uso di contenuti generati dall'IA nel Progetto Debian. Per la maggior parte, però, sembra che Debian non sia disposto a prendere una posizione ferma e vietare completamente l'IA generativa dal loro progetto come Gentoo e NetBSD, il che potrebbe avere interessanti implicazioni a lungo termine se Debian finisse per dimostrare i pericoli di lasciare che un'IA scriva un sistema operativo.