OpenAI desliga o ChatGPT em cinco operações que usavam IA para influenciar avaliações

A empresa de tecnologia disse em um comunicado divulgado hoje que “nos últimos três meses, seu trabalho contra atores enganosos e abusivos permitiu que ela interrompesse operações de influência secretas que buscavam usar modelos de inteligência artificial para apoiar suas atividades na internet”.

Essas operações incluíram campanhas conectadas com operadoras na Rússia (duas redes), China, Irã e uma corporação comercial em Israel, a fim de “manipular a opinião pública ou influenciar resultados políticos”, disse a OpenAI.

Essas campanhas, detalhou, visaram problemas como a invasão russa da Ucrânia, a intervenção do exército israelense na Faixa de Gaza, as eleições na Índia, a política na Europa e nos Estados Unidos, entre outros.

As campanhas enganosas, disse a empresa no comunicado, não alcançaram maior visibilidade pública ou sucesso por meio de seus serviços.

O relatório da empresa de implementação e estudos de IA com sede em São Francisco destaca as considerações de segurança com o uso indevido dessa tecnologia, que pode produzir texto, imagens e som de forma temporária e integrada.

“Detetar e prevenir abusos entre plataformas, como operações de influência encoberta, pode ser um desafio, uma vez que não sabemos como o conteúdo gerado através dos nossos produtos é distribuído”, admite a OpenAI, garantindo que está “dedicada a localizar e mitigar tais abusos”.

Leave a Comment

O seu endereço de email não será publicado. Campos obrigatórios marcados com *