Uma pesquisa da Human Rights Watch indica que equipes de inteligência sintética usam fotografias para exercer algoritmos, sem consentimento, o que traz o risco de superexposição online. Um relatório publicado nesta segunda-feira (06/10) por meio da organização não governamental Humans Right. Watch aponta que fotografias de jovens e adolescentes no Brasil têm sido usadas sem total permissão, sabedoria ou consentimento, para o exercício de equipamentos de inteligência sintética (IA).
De acordo com o relatório, as fotografias são coletadas e incorporadas a um vasto conjunto de dados que as corporações de inteligência artificial usam para exercer algoritmos.
Além disso, há quem use imagens para criar deep fakes, como é o caso, por exemplo, quando um símbolo é usado para compor um vídeo com uma fala existente ou mesmo criado usando IA, o que expõe ainda mais jovens e adolescentes.
“Crianças e adolescentes não precisam se preocupar que suas fotografias possam ser roubadas e usadas contra eles. O governo adota urgentemente políticas para proteger o conhecimento das crianças do uso indevido induzido por IA”, diz Hye Jung Han, pesquisadora sobre direitos das crianças e tecnologia. Observador de direitos humanos.
A ONG descobriu pelo menos 170 fotografias de 10 estados brasileiros: Alagoas, Bahia, Ceará, Mato Grosso do Sul, Minas Gerais, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina e São Paulo.
No entanto, a probabilidade de que haja muito mais fotografias de jovens e adolescentes brasileiros espalhadas por corporações de inteligência artificial é óbvia, já que a Human Rights Watch analisou menos de 0,0001% de um total de 5,85 bilhões de fotografias e legendas no conjunto de dados.
Há muitos perigos para a privacidade daqueles que usam seu símbolo de forma inadequada na Internet. O treinamento com imagens de outras pessoas reais pode fazer com que algoritmos de IA criem clones on-line que podem gerar símbolos específicos do minerador.
Fácil identificação
A investigação da ONG revela que o LAION-5B, que agrega conhecimento para exercitar equipamentos de inteligência artificial e foi desenvolvido a partir de dados da Internet, vincula imagens identificáveis de crianças brasileiras, com seus respectivos nomes indicados nas legendas ou na URL. está arquivado.
Assim, em muitos casos, a identidade dos jovens e adolescentes que aparecem nas fotografias pode ser facilmente traçada, acrescentando dados sobre quando e onde eles estavam no momento da fotografia.
As imagens descobertas mostram outras fases dos anos de formação e adolescência, desde recém-nascidos, jovens soprando velas em festas de aniversário ou dançando em casa, até adolescentes apresentando quadros ou mesmo em carnavais, seja em escolas.
Muitas dessas fotografias foram postadas por crianças, adolescentes, pais e familiares em sites de compartilhamento de vídeos ou blogs privados, alguns dos quais foram postados vários anos antes do aparecimento do LAION-5B.
LAION responde ao estudo
A organização sem fins lucrativos alemã LAION, que administra o LAION-5B, mostrou que as imagens descobertas pela Human Rights Watch são genuínas e está comprometida em respeitá-las.
Por outro lado, ele argumentou que os modelos de IA treinados por meio do LAION-5B não reproduziriam dados pessoais palavra por palavra, e que os próprios jovens e pais são culpados de excluir suas fotografias da Internet.
Mais proteção
A Human Rights Watch diz que a lei geral do Brasil sobre proteção de conhecimento não público não protege adequadamente as crianças, e que o governo merece uma legislação com mais regulamentação sobre IA.
Em abril, o Conselho Nacional da Criança e do Adolescente divulgou uma solução em que orienta o próprio Conselho e o Ministério dos Direitos Humanos e da Cidadania sobre os direitos dos jovens e adolescentes no ambiente virtual no prazo de 90 dias.
A iniciativa visa proibir a extração de conhecimento para sistemas de inteligência artificial devido aos perigos à privacidade dos sujeitos do conhecimento e ao uso não consensual de fotografias que podem simplesmente levar à manipulação de conteúdo.
“A IA geracional ainda é uma geração incipiente, e os danos que os jovens já estão enfrentando não são inevitáveis. Proteger a privacidade do conhecimento dos jovens impulsionará o progresso desta geração em direção a uma que promova os direitos dos jovens”, conclui Han.
Ir (ots)