Um assistente de IA desobedeceu o pedido de seu criador e acabou inviabilizando a inicialização do computador
Mais um caso envolvendo uma inteligência artificial desobediente. Buck Shlegeris, CEO da organização sem fins lucrativos de segurança de IA Redwood Research, desenvolveu um assistente de IA personalizado usando o modelo de linguagem Claude, da Anthropic. No entanto, a ferramenta acabou se mostrando imprevisível.
Shlegeris conta que pediu à sua IA para que usasse protocolo SSH (que permite que dois computadores se conectem em uma rede não segura) para acessar sua área de trabalho, sem saber o endereço IP do computador.
Ele se afastou da máquina e, após dez minutos, percebeu que a inteligência artificial tinha atualizado diversos sistemas, incluindo o kernel (componente central de um sistema operacional, sendo responsável por gerenciar os recursos do computador e a comunicação entre o software e o hardware) do Linux.
Os logs do sistema mostram que a IA de fato tentou usar o SSH, mas depois, por algum motivo desconhecido, buscou uma série de outras alternativas para finalizar a tarefa recebida. O resultado foi que o computador não consegue mais inicializar.
Depois de todo o caos gerado, a inteligência artificial simplesmente informou que não conseguiu resolver o problema. As informações são do Decrypt.
IA pode criar malwares ou realizar ciberataques por conta própria
- A experiência de Shlegeris não é algo isolado.
- Os modelos de IA estão demonstrando cada vez mais que podem realizar funções que vão além do que foi pedido.
- A empresa de pesquisa Sakana AI, com sede em Tóquio, revelou recentemente um sistema apelidado de “The AI Scientist.”
- Projetado para conduzir pesquisas científicas de forma autônoma, o sistema impressionou seus criadores ao modificar seu próprio código para estender seu tempo de execução.
- Estes casos aumentam os debates sobre os riscos de desenvolver sistemas de IA altamente autônomos.
- Isso porque existe um temor de que as ferramentas possam ser usadas para fins maliciosos.
- A capacidade de uma IA para escrever e executar código de forma autônoma pode ser explorada para criar malware ou realizar ciberataques.
Fonte: https://olhardigital.com.br/2024/10/04/pro/ia-se-revolta-e-bloqueia-computador-de-usuario/
Créditos: Clã Cobra