Início Geral A IA nasceu para ajudar a humanidade, mas em breve será usada...

A IA nasceu para ajudar a humanidade, mas em breve será usada para matar inimigos em guerras

0

Memorandos internos de big techs proibiam o uso de IA em iniciativas militares, mas tudo mudou recentemente — e devemos nos preocupar

A OpenAI, desenvolvedora do ChatGPT, nasceu como uma organização sem fins lucrativos e dizia ter como missão criar tecnologia amigável para a humanidade. Seu presidente de conselho até 2023, Greg Brockman, afirmou em 2018 que “a melhor coisa que eu poderia imaginar fazer era aproximar a humanidade da construção de IA real de forma segura”. Na época, Elon Musk ainda tinha uma posição importante na empresa, antes de se envolver em um embate que ainda não terminou.

O Google nasceu com filosofia similar. Seu principal lema era Don’t be evil (”não seja maligno”, em tradução livre), adotado oficialmente em 2004 e abandonado em 2015, quando a empresa foi reestruturada em torno da controladora Alphabet. Corporações costumam mudar rápido quando o dinheiro entra em jogo.

Em 2018, a gigante de buscas fez uma parceria com o Pentágono para criar tecnologia que analisaria imagens de drones com IA — algoritmos da empresa vasculhariam objetos e combatentes nas imagens com objetivos estratégicos. Era o infame Projeto Maven. Na época, funcionários da empresa ficaram indignados com o uso da tecnologia da empresa para fins militares e o programa acabou abandonado.

Essas posturas são quase impensáveis nos dias atuais. A ligação entre as big techs e o complexo militar-industrial dos Estados Unidos hoje é profunda, praticamente indissociável. A Amazon fornece infraestrutura de nuvem, a Microsoft é uma das maiores fornecedoras de serviços de segurança cibernética ao Departamento de Defesa, e Google e OpenAI — empresas que já se descreveram como “benéficas” — estão desenvolvendo software de IA para o campo de batalha.

Dilema ético

Usar inteligência artificial na frente de combate era um dilema ético. Há anos, a ONU faz alertas e apelos sobre o assunto. Empregar algoritmos para decidir quando e em quem atirar ou bombardear não parece uma ideia promissora — afinal, quem pode ser culpado em caso de erros ou crimes de guerra? E como confiar em uma tecnologia cujas decisões não podem ser previstas ou entendidas até mesmo pelos maiores especialistas no assunto?

SEM COMENTÁRIOS

DEIXE SEU COMENTÁRIO

Please enter your comment!
Digite seu nome aqui

Sair da versão mobile