Tecnologia

Especialistas de inteligência artificial pedem pausa de 6 meses em projetos de IA

O avanço desenfreado da inteligência artificial (IA) definitivamente está sob alerta. E a prova disso é que, na última quarta-feira (29), pesquisadores do setor assinaram uma carta aberta exigindo que os laboratórios do mundo todo interrompam o desenvolvimento de sistemas de IA por seis meses.

Publicada pelo instituto Future of Life, a carta foi assinada por mais de 1.000 pessoas, incluindo nomes como Elon Musk (cofundador da OpenAI e CEO da Tesla, SpaceX e Twitter), Jaan Tallinn (cofundador do Skype), Andrew Yang (fundador da Venture for America), além de diversos pesquisadores e CEOs conhecidos do meio.

O que diz a carta

Como é de se imaginar, o documento cita temores sobre os “riscos profundos para a sociedade e humanidade” do atual estado da inteligência artificial. Afinal, a quarta iteração do ChatGPT revelada neste mês despertou inúmeras preocupações sobre o que sistemas não-humanos já podem realizar.

“Os sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade, conforme demonstrado por extensa pesquisa e reconhecimentos pelos principais laboratórios de IA. Conforme declarado nos amplamente endossados Princípios de IA de Asilomar, a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais”, revela um trecho da carta.

Além disso, quatro questões foram levantadas para fins de reflexão.

  • “Devemos deixar que as máquinas inundem nossos canais de informação com propaganda e falsidade?”
  • “Devemos automatizar todos os trabalhos, incluindo os satisfatórios?”
  • “Devemos desenvolver mentes não-humanas que possam, eventualmente, ser mais numerosas, mais espertas, obsoletas e nos substituir?”
  • “Devemos arriscar perder o controle de nossa civilização?”

Imagem: Tara Winstead/Pexels

Os questionamentos servem de embasamento ao pedido para que “todos os laboratórios de IA parem imediatamente, por pelo menos seis meses, o treinamento de sistemas de inteligência artificial mais poderosos que o ChatGPT-4”. E no caso, essa pausa deve ser “pública, verificável e incluir todos os atores-chave”.

A ideia é que neste meio tempo, os laboratórios e especialistas colaborem para estabelecer protocolos de segurança compartilhados para projeto e desenvolvimento de inteligência artificial. Isso permitirá que os protocolos sejam supervisionados por especialistas independentes externos que podem garantir que os sistemas de IA sejam “seguros além de qualquer dúvida razoável”.

A carta estipula ainda que se a interrupção não puder ser decretada imediatamente, os governos devem intervir e instituir uma moratória.

Pausa no desenvolvimento de inteligência artificial surtirá efeito?

Há muitas questões sobre o documento publicado pelo instituto Future of Life. Primeiro, não há clareza do que seria algo “mais poderoso que o ChatGPT-4”. Aliás, não há especificação de como seria a medição de poder relativa de modelos de linguagem multimodal e de grandes escalas.

Além disso, é incerto se a carta surtirá efeitos no atual cenário de IA. É preciso lembrar que big techs (como Google e Microsoft) iniciaram uma verdadeira corrida para implantar sistemas de inteligência artificial sem considerar questões como segurança e ética. E muitas dessas empresas não assinaram a carta, o que nos leva a crer que podem não concordar com essa interrupção.

Inteligência artificial 1

Imagem: Alex Shuper/Unsplash

De todo modo, a carta é de extrema importância. Afinal, parece claro o consenso de que a IA avançou rápido demais sem as devidas precauções. Ela é importante e será o futuro da tecnologia? Sem dúvidas. Mas não é difícil imaginar que uma hora ou outra vamos perder o controle da humanidade se este avanço não for seguro o suficiente.

Alguns países como os Estados Unidos já demonstram interesse em regulamentar a IA. Mas para que as coisas não saiam de controle, será necessário um trabalho global conjunto para que a questão seja revisada com a seriedade necessária.

Caso contrário, o cenário dos humanos sob domínio das máquinas será inevitável — se é que isso já não aconteceu.

Via: The Verge e ARS Technica


Créditos: TecMasters