Empresa treinava IA com conteúdo postado nas redes
A Meta, dona do Instagram, Facebook e WhatsApp, informou nesta quarta-feira que interrompeu, no Brasil, o acesso a recursos de inteligência artificial (IA) generativa em suas redes sociais. Entre as soluções suspensas está o criador de figurinhas do WhatsApp.
A decisão acontece depois de a Autoridade Nacional de Proteção de Dados (ANDP) suspender a nova política de privacidade da empresa, que permitia o uso de informações e postagens dos usuários para treinar sistemas de IA.
A empresa informou, em nota, que decidiu “suspender ferramentas de genAI (termo, em inglês, para IA generativa) que estavam ativas no Brasil”, enquanto trabalha com a ANPD “para endereçar suas perguntas sobre IA generativa”.
A Meta planejava para este mês o lançamento, no mercado brasileiro, da IA da Meta, um pacote de recursos, já disponível em alguns países, que inclui robôs de inteligência artificial generativa no WhatsApp, Facebook e Instagram.
O anúncio sobre a disponibilidade do novo sistema para o Brasil, em português, foi feito por Mark Zuckeberg, CEO da Meta, no início de junho.
Além da IA da Meta, a empresa vinha disponibilizando para parte dos usuários brasileiros um recurso de criação de figurinhas usando IA generativa.
A ferramenta permitia a geração dos stickers pelo próprio WhatsApp e Instagram, com base em comandos de texto. As imagens, depois, podiam ser compartilhadas nas conversas.
A decisão de suspender os recursos de IA no Brasil foi similar a postura adotada na União Europeia. Depois autoridades de dados do bloco europeu questionarem a nova política de privacidade da empresa, a companhia anunciou que iria adiar o lançamento do chatbot Meta AI na região.
No mercado europeu, diferentemente do que aconteceu no Brasil, a empresa informou os usuários que iria promover a mudança nos termos da plataforma e que as publicações seriam usadas para alimentar seus modelos de inteligência artificial. No Brasil, o aviso não aconteceu.
A ANPD, em 2 de julho, proibiu a big tech de usar as informações postadas para alimentar suas IAs. Segundo a autarquia, faltou transparência da empresa ao mudar seus termos de privacidade.
A Meta também teria dificultado o trâmite para os usuários se oporem ao uso de suas informações e infringido a Lei Geral de Proteção de Dados Pessoais (LGPD). Para a ANPD, havia “riscos de dano grave e de difícil reparação aos usuários” com a nova política de privacidade.
A alegação da companhia é que o uso das informações públicas de seus usuários teria como fim o aperfeiçoamento de seus sistemas, em um momento em que a Meta vem ampliando os recursos de inteligência artificial generativa em suas plataformas.
Até a noite desta quarta-feira, seguia no ar o formulário para que os usuários brasileiros solicitassem que seus dados não fossem usados no treinamento de IA. A página da “Política de Privacidade” da Meta, no entanto, foi atualizada e passou a trazer um informe: “Neste momento, estamos adiando a aplicação das mudanças que fizemos relacionadas à inteligência artificial”.
Na ocasião do bloqueio de sua política de privacidade, a gigante das redes afirmou, por meio de nota, estar “desapontada” com a decisão da ANPD, que definiu como um “retrocesso”, que atrasaria a chegada “de benefícios da IA para as pessoas no Brasil”.
Na semana passada, a dona do Instagram e do WhatsApp chegou a apresentar um pedido de reconsideração da decisão, que foi negado pela ANPD. A autarquia concedeu um prazo adicional para que a Meta apresentasse a documentação necessária para comprovar a interrupção da coleta de dados para as IAs, sob pena de multa diária de R$ 50 mil.
Para especialistas em privacidade de dados ouvidos pelo GLOBO, a decisão da ANPD foi acertada. O Data Privacy Brasil, organização civil que trabalha com tema, considerou que a suspensão cautelar representou “um importante precedente para proteção de direitos” diante da expansão da Inteligência Artificial.
Um dos argumentos da ANPD para a suspensão cautelar do treinamento foi que a Meta utilizou a hipótese de “legítimo interesse” para tratar dados pessoais sem justificar claramente a necessidade e finalidade específica, e de forma ampla. A empresa não detalhou como iria diferenciar, por exemplo, a coleta de informações sensíveis, como referentes à origem étnica e racial de usuários, vinculação política, saúde, religião e vida sexual – o que vedaria a hipótese do legítimo interesse.
Pedro Martins, coordenador da Data Privacy Brasil, destaca que ainda não está certo o quanto a Meta depende do treinamento dos dados com usuários brasileiros, como vinha sendo feito, para manter em operação seus serviços de IA no Brasil. Esse é um ponto que, para ele, ainda deveria ser esclarecido pela empresa. Ele lembra ainda que o escopo de informações que a companhia vinha utilizando era amplo e avalia que a indústria pode ser “funcional” sem infringir a legislação brasileira de dados:
— O escopo amplo e vasto adotado pela Meta, que incluiu uso até de dados sensíveis, como de crianças e adolescentes (para treinar a IA), pode ser entendido como ilícito. Mas tem várias outras maneiras com as quais os dados podem ser usados para desenvolver sistemas de IA.
Rony Vainzof, sócio-fundador do VLK Advogados, diz que exigência de consentimento como base legal para o treinamento de sistemas de IA iria “praticamente inviabilizar” o desenvolvimento desses sistemas. Ele pondera, no entanto, que o argumento de “legítimo interesse” usado pela Meta precisaria das salvaguardas adequadas, incluindo transparência e garantia do direito de oposição.
— O que eu espero é que haja muito diálogo entre regulador e regulado para que esse caso (suspensão do treinamento e retirada dos serviços) não se torne um padrão. Deveria haver um diálogo no sentido de garantir o legítimo interesse. E acredito que esse será o caminho daqui para frente.
Para Martins, dificilmente a postura adotada pela Meta, de suspender os serviços de IA após questionamentos da ANPD, seria uma prática adotada pela indústria:
— Não acho que vai ser um movimento da indústria inteira, até pela importância do mercado brasileiro. Mas talvez as empresas vão ter mais cuidado com as práticas no Brasil, que é algo ao meu ver positivo.
Para aperfeiçoar os seus sistemas de IA, a Meta e toda a indústria que desenvolve grandes modelos depende de enormes quantidades de dados, lembra Carlos Rafael Gimenes, professor do curso de Sistemas da Informação da ESPM. Mas é difícil saber o quanto de informações a Meta já coletou para criar os sistemas que pretendia lançar no Brasil:
—Sem o treinamento com muitos dados, ferramentas de grande escala não evoluem. Elas ficam paradas como estão. Para a empresa melhorar a IA e usá-la em novos casos, é necessário coletar dados constantemente.O que não precisaria é da coleta de dados constante para uma ferramenta operar no estado em que se encontra, como as que já tinham sido lançadas — afirma Gimenes.
Léo Xavier, sócio fundador consultoria de estratégia digital Môre, diz que o caso é positivoa para trazer luz para discussão “sobre ética e limites de uso da IA generativa”. Ele também avalia que o movimento da ANPD pode impulsionar as big techs a adotarem melhores práticas no Brasil, em um cenário ainda sem regulações específicas para a inteligência artificial.
Fonte: Agenda do Poder com informações de O Globo