Recentemente a Meta anunciou uma mudança em seus termos de serviço onde ela poderia utilizar as informações de seus usuários para treinar IA. Contudo, a empresa voltou atrás em sua decisão, mas somente na Europa. Vamos entender esse caso e sua repercussão no Brasil?
Mudança na política e reviravolta
Em meados do final de maio e início de junho, a Meta comunicou que usaria fotos e vídeos de usuários europeus para treinar a sua IA (inteligência artificial). Para tanto, permitiu com que fosse possível se opor a tal tratamento até o dia 26 de junho. O comunicado veio para cumprir com as disposições da legislação europeia.
Em resposta, a Noyb, organização europeia de direitos digitais, entrou com reclamações em 11 autoridades de proteção de dados na Europa questionando a prática da empresa. Segundo a organização, a empresa está querendo se basear na base legal do legítimo interesse, violando em tese a necessidade de pedir um consentimento para que os dados sejam utilizados para essa finalidade. Também argumentaram que a opção de se opor a tal tratamento (opt-out) não é suficiente, uma vez que a Meta tem o histórico de não deixar com que essas opções sejam acessíveis ou que o opt-out ocorra em apenas um clique. Por último, chamam a atenção para o fato de que não é possível se opor ao tratamento dos dados após o seu uso no treinamento da IA.
Em 14 de junho, a Meta informou que irá adiar o início do treinamento de IA na Europa após pedido da Autoridade de Proteção de Dados irlandesa em colaboração com outras autoridades europeias. A decisão foi resultado das ações da Noyb no assunto.
A prática continua no Brasil
No Brasil, os dados já estão sendo coletados desde o dia 16 de junho e a empresa fornece a opção de se opor a esse tratamento (opt-out). Em comunicado feito no dia 22 de Maio, a empresa informou que uma das maneiras de desenvolver sua IA de forma responsável é “usando uma combinação de fontes para treinar nossos modelos fundacionais de IA, incluindo informações disponíveis publicamente e dados licenciados na internet.[…] Também podemos usar informações que as pessoas compartilharam publicamente sobre os produtos e serviços da Meta para alguns de nossos recursos de IA generativa. Essas informações podem incluir postagens ou fotos públicas e suas respectivas legendas.” Contudo, conteúdos de mensagens pessoais não serão utilizados para treinar IA.
A ANPD (Autoridade Nacional de Proteção de Dados) informou que irá questionar a Meta sobre o fato de a empresa não ter comunicado aos usuários brasileiros que começaria a usar publicações no Instagram e no Facebook para alimentar modelos de inteligência artificial.
De acordo com a autoridade, “Considerando os princípios da boa-fé, da transparência e da responsabilização e da prestação de contas, para uma mudança dessas, é essencial um claro aviso aos usuários da plataforma, para que possam escolher de maneira livre e informada o que fazer. Não há transparência quando há surpresas”
Caso você tenha interesse em se opor ao tratamento, a CodingRights publicou um tutorial para isso. Confira!
Seus dados, minha IA
A meta não é a única na corrida para o desenvolvimento de melhores IA’s. Como tais tecnologias dependem de uma quantidade massiva de dados para funcionar, muitas empresas de tecnologia começaram a mudar seus serviços de forma a utilizar informações dos usuários como matéria prima para desenvolver aplicações de inteligência artificial.
Por exemplo, em março de 2023 a empresa responsável pelo app Zoom fez uma mudança em seus termos de uso que garantiu à empresa o direito de treinar modelos de aprendizado de máquina e inteligência artificial com informações de usuários.
A Adobe também atualizou os termos de uso de seus serviços e poderá acessar os conteúdos criados por usuários por”meio de métodos automatizados e manuais”, “mas apenas conforme permitido por lei”. Além disso, os sistemas automatizados poderiam analisar o conteúdo com técnicas de aprendizado de máquina, por exemplo.
Em resposta a esse novo cenário, várias autoridades começaram a publicar guias sobre a relação entre proteção de dados e IA generativa. O European Data Protection Supervisor publicou um guia de compliance para órgãos da UE em proteção de dados para o uso de IA’s generativas. Enquanto isso, a autoridade italiana de proteção de dados (Garante) publicou orientações de combate à prática de raspagem de dados (data scracpping) por terceiros para treinamento desse tipo de IA. Já a autoridade holandesa de proteção de dados chegou a concluir que a prática do scrapping é ilegal na maioria dos casos, o que poderia afetar a raspagem para treinamento de IA.
Como a controvérsia do uso de dados pessoais de usuários para treinamento de IA ainda está em discussão, é preciso esperar a resposta de autoridades e como tais empresas irão procedimentalizar a proteção de dados nesses casos. Entretanto, o cenário já caminha para uma uniformização regulatória e em breve já poderemos ter os primeiros entendimentos em matéria de proteção de dados e inteligência artificial.
Para acompanhar mais sobre este e outros temas, acesse o Clube Data, a principal comunidade brasileira de privacidade, proteção de dados e regulação de novas tecnologias. E se você deseja se aprofundar em assuntos como este, conheça o curso Inteligência Artificial: Aspectos Práticos e Teóricos de Governança da Data!
Até a próxima!