OpenAI, una delle aziende leader nel campo dell’intelligenza artificiale, ha recentemente apportato una significativa modifica alle proprie politiche d’uso, sollevando interrogativi e dibattiti riguardo alle applicazioni militari dell’IA. Inizialmente, OpenAI aveva imposto un divieto esplicito all’uso delle sue tecnologie per scopi “militari e bellici“. Tuttavia, questa specifica proibizione è stata rimossa, creando spazio per potenziali usi militari dell’intelligenza artificiale.
Secondo quanto riferito da The Intercept, OpenAI ha aggiornato la sua politica d’uso, rimuovendo la menzione esplicita del divieto di utilizzo delle sue tecnologie per scopi militari e bellici. Questa mossa è stata interpretata come un allentamento della sua posizione contro le collaborazioni militari. La società sostiene che la sua tecnologia non debba essere utilizzata per arrecare danni, sviluppare armi, per la sorveglianza delle comunicazioni o per danneggiare altre persone o proprietà. Tuttavia, sono stati citati casi d’uso legati alla sicurezza nazionale che si allineano alla missione di OpenAI, come la collaborazione con la DARPA per lo sviluppo di nuovi strumenti di cybersecurity per proteggere il software open source su cui si basano infrastrutture critiche e industrie.
La rimozione della frase “militare e bellico” dalla politica d’uso suggerisce che OpenAI è, almeno, aperta a servire clienti militari. La società conferma che la lingua è stata modificata per accogliere clienti e progetti militari approvati dall’azienda. Tuttavia, viene sottolineato che l’uso delle loro tecnologie per sviluppare o utilizzare armi, ferire altre persone o distruggere proprietà, o impegnarsi in attività non autorizzate che violano la sicurezza di qualsiasi servizio o sistema, rimane vietato.
Gli esperti che hanno esaminato i cambiamenti nella politica presso The Intercept hanno suggerito che OpenAI sembra indebolire silenziosamente la sua posizione contro le collaborazioni militari. Hanno indicato che il passaggio da “militare e bellico” a “armi” lascia aperto uno spazio per OpenAI a supportare infrastrutture operative a condizione che l’applicazione non coinvolga direttamente lo sviluppo di armi in senso stretto. Anche se gli strumenti OpenAI non sono direttamente coinvolti in attività violente, potrebbero comunque assistere un’istituzione la cui funzione principale è la letalità.
Il cambiamento di politica di OpenAI ha sollevato preoccupazioni in alcuni settori. Ad esempio, è stato osservato che il linguaggio nella politica rimane vago e pone domande su come OpenAI intende affrontare l’applicazione. L’uso di sistemi IA in operazioni di targeting di civili in aree di conflitto come Gaza è stato citato come un momento notevole per prendere la decisione di rimuovere le parole “militare e bellico” dalla politica d’uso permissibile di OpenAI.
OpenAI, una delle aziende leader nel campo dell’intelligenza artificiale, ha recentemente apportato una significativa modifica alle proprie politiche d’uso, sollevando interrogativi e dibattiti riguardo alle applicazioni militari dell’IA. Inizialmente, OpenAI aveva imposto un divieto esplicito all’uso delle sue tecnologie per scopi “militari e bellici”. Tuttavia, questa specifica proibizione è stata rimossa, creando spazio per potenziali usi militari dell’intelligenza artificiale.
In sintesi, mentre OpenAI mantiene che la sua tecnologia non dovrebbe essere utilizzata per causare danni o sviluppare armi, la rimozione del divieto specifico sull’uso militare e bellico dalla sua politica di utilizzo ha sollevato domande e preoccupazioni. Questo cambiamento apre la porta a potenziali applicazioni militari della tecnologia AI, anche se non direttamente legate allo sviluppo di armi. Il contesto attuale, in cui le agenzie militari globali esprimono un crescente interesse per le tecnologie AI, rende questo cambiamento particolarmente significativo e controverso.
Per maggiori dettagli, puoi consultare le fonti originali:
Foto@Pixabay