Nos últimos anos, muito se tem falado sobre a importância da criptografia para proteger a privacidade dos usuários, assim como as constantes tentativas de enfraquecê-la usando a segurança como argumento. No entanto, pouco se comenta sobre o uso dela para a construção de ferramentas de inteligência artificial mais responsáveis.
O assunto foi tema abordado por Chelsea Manning, consultora em segurança da informação da Nym e mais conhecida por ter sido uma das fontes do vazamento de documentos confidenciais das Forças Armadas ao WikiLeaks, no painel “IA é melhor com privacidade: Chelsea Manning na próxima década da internet” na última edição do Web Summit, no Rio de Janeiro, realizada no início do mês.
“Vivemos num ambiente que somos bombardeados por uma quantidade absurda de informações porque estamos interconectados. E eu venho de uma época que a discussão era sobre sigilo ou disponibilidade das informações. E agora temos outra questão: essas informações que estão alimentando os sistemas são verdadeiras?”, questionou.
Para a proeminente denunciante, o caminho para diferenciar o verdadeiro do falso pode contar com o auxílio da criptografia, sendo útil no processo de treinamento de IA generativa, ajudando a lidar com informações que alimentam esses sistemas.
“As ferramentas criptográficas serão cruciais para lidarmos com a informação e saber se é verdadeiro ou falso. As linguagens de IA generativa serão capazes de produzir resultados cada vez mais convincentes, mas elas são incapazes de burlar a criptografia.”, explica.
‘Quem trabalha com privacidade e com algoritmos tem uma responsabilidade enorme nas mãos’
Ao falar sobre grandes modelos de linguagem (LLMs), como ChatGPT, e de imagem, como Midjourney ou DALL-E, da OpenAI, Manning pondera que a ascensão dessas ferramentas represente uma oportunidade para a sociedade.
Para desenvolvê-los, ela reforçou a necessidade de ética por parte desenvolvedores dessas corporações, caso contrário, lidaremos com as mesmas questões dos últimos 15 anos com relação aos algoritmos de mecanismos de buscas e redes sociais.
“É uma questão sobre como nós, tecnólogos, estamos desenvolvendo essas tecnologias, quais dados usamos e como nós treinamos os dados, além da compreensão das limitações e do que podemos fazer especificamente com esse tipo de tecnologia.”, reflete.
A responsabilidade dos impactos gerados por tais ferramentas de IA, segundo a ativista, são dos desenvolvedores, e não dos reguladores. “A regulamentação e os sistemas regulatórios vão mudar. No entanto, as pessoas que trabalham na tecnologia têm que estar cientes de que os dados podem ser usados para situações nefastas, então quem trabalha com privacidade e com algoritmos tem uma responsabilidade enorme nas mãos. Se não tratarmos isso corretamente, os reguladores vão ter uma reação exagerada e acabar regulando demais.”, adverte.
Créditos: TecMasters