A OpenAI mudou a política de uso do ChatGPT na última semana, eliminando trechos explícitos sobre a proibição de uso para fins militares e bélicos. Anteriormente à alteração, a empresa vetava expressamente “atividades com alto risco de danos físicos, incluindo”, especificamente, “desenvolvimento de armas” e “militares e guerra” no texto que procura ditar como a ferramenta de inteligência artificial generativa pode ser usada.
Até quarta-feira (10), a OpenAI mantinha a proibição de “atividades com alto risco de danos físicos, incluindo”, especificamente, “desenvolvimento de armas” e “militares e de guerra” na política de uso dos seus produtos, o que aparentemente excluiria qualquer uso oficial, e extremamente lucrativo, pelo Departamento de Defesa ou qualquer outro exército estatal.
Sem qualquer anúncio, a mudança manteve trechos como “usar nosso serviço para prejudicar a si mesmo ou a outros”, exemplificando o desenvolvimento ou uso de armas, porém apagou o proibição explícita sobre a proibição geral do uso “militar e de guerra”.
Ao The Intercept, primeiro site a notar a mudança, a OpenAI confirmou a alteração para incluir clientes militares e projetos aprovados pela empresa em uma declaração adicional.
Nossa política não permite que nossas ferramentas sejam usadas para prejudicar pessoas, desenvolver armas, para vigilância de comunicações ou para ferir outras pessoas ou destruir propriedades. No entanto, há casos de uso de segurança nacional que se alinham à nossa missão. Por exemplo, já estamos trabalhando com a DARPA para estimular a criação de novas ferramentas de segurança cibernética para proteger softwares de código aberto dos quais dependem a infraestrutura crítica e o setor. Não estava claro se esses casos de uso benéficos teriam sido permitidos na categoria “militar” em nossas políticas anteriores. Portanto, o objetivo da atualização de nossa política é proporcionar clareza e a capacidade de realizar essas discussões.
Embora atualizações de termos de uso sejam corriqueiras no setor tecnológico, em geral, com lançamentos de produtos, o caso de mudança nos termos da OpenAI é substancial e consequente, portanto carente de credibilidade quando ela afirma que a exclusão do termo “militar e de guerra” proporcionaria uma política “mais clara” ou “mais legível”.
Ao usar termos amplos, a OpenAI flexibiliza interpretações sobre os usos, dando mais liberdade ao entendimento favorável ou desfavoravelmente sobre uma prática que até então era proibida. Embora ainda haja uma proibição geral para desenvolver armas, como explica o porta-voz da desenvolvedora do ChatGPT Niko Felix, ela se encontra originalmente e separadamente de “militar e guerra”.
Ao não sobrepor as duas categorias, a startup abriu para novas oportunidades, embora em primeiro momento não tenha negado ou confirmado sobre as intenções de excluir trechos da política, utilizando-se de termos vagos.
Com informações TechCrunch e The Intercept
Créditos: TecMasters