Política de privacidade da empresa autoriza uso de dados públicos dos usuários para treinar IA, preocupando a ANPD.
A ANPD – Autoridade Nacional de Proteção de Dados determinou a interrupção do uso de dados de usuários divulgados em plataformas da empresa Meta (Instagram, Facebook e Messenger) para o treinamento de sistemas de IA – inteligência artificial.
A decisão visa proteger as informações de usuários e garantir a segurança dos dados pessoais compartilhados nas redes sociais. É fundamental respeitar a privacidade dos usuários e manter a integridade dos conteúdos públicos disponibilizados online.
ANPD condena Meta por vazamento de dados de usuários
O conselho decisório da ANPD aprovou uma medida cautelar contra o Meta, que foi oficializada no Diário Oficial da União nesta terça-feira, 2. Em caso de descumprimento, a empresa estará sujeita a uma multa diária de R$ 50 mil. Segundo o despacho, a ordem deve ser cumprida imediatamente. Foi estabelecido um prazo de cinco dias, a partir da intimação, para que a Meta apresente ao governo: documentação que comprove a adequação da Política de Privacidade, mediante a exclusão do trecho correspondente ao tratamento de dados pessoais para fins de treinamento de IA generativa; e uma declaração assinada pelo encarregado, por membro do corpo diretivo ou representante legalmente constituído, atestando a suspensão do tratamento de dados pessoais para fins de treinamento de IA generativa no Brasil.
ANPD proíbe Meta de seguir nova política de uso de dados de usuários
Em junho deste ano, a Meta implementou uma nova política de privacidade que abrange suas redes sociais. Ela permitiu o uso de conteúdos públicos compartilhados pelos usuários para o treinamento de IA generativa. ‘Tal tratamento pode impactar um número substancial de pessoas, já que, somente o Facebook possui cerca de 102 milhões de usuários ativos no Brasil’, declarou a ANPD em nota oficial. A ANPD decidiu fiscalizar a nova política da Meta e identificou ‘riscos de dano grave e de difícil reparação aos usuários’, indicando uma possível violação da LGPD – Lei Geral de Proteção de Dados.
ANPD avalia impacto do uso de dados pessoais para treinamento de IA
A ANPD avaliou que a Meta não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa. A medida foi justificada pelo uso de dados pessoais de crianças e adolescentes no treinamento dos sistemas de IA da Meta, sujeitos a proteção especial pela LGPD. Além disso, destacou ‘obstáculos excessivos e não justificados’ para que os usuários possam se opor ao tratamento de seus dados pessoais.
Resposta da Meta à decisão da ANPD
Em resposta, a Meta expressou desapontamento com a decisão da ANPD. A empresa ressaltou que não é a única a utilizar informações coletadas para o treinamento de IA e afirmou ser mais transparente que muitos participantes da indústria que utilizam conteúdos públicos para esse fim. ‘Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA e atrasa a chegada de benefícios da IA para as pessoas.’
Fonte: © Migalhas
Comentários sobre este artigo