Para o procurador da Justiça Leonardo Bessa, o direito à privacidade é fundamental, mas não absoluto. Bruna Santos, da Coalização Direitos na Rede, diz que a tecnologia ainda apresenta alta taxas de “falsos positivos”.
A futura ANPD (Autoridade Nacional de Proteção de Dados Pessoais) deverá ser independente e ter qualidade técnica para assegurar a regulamentação da legislação de forma e evitar danos ao direito à privacidade pelo uso de novas tecnologias. Considerações nesse sentido foram apresentadas hoje, 16, durante debate sobre o uso do reconhecimento facial promovido pelo Ministério Público do Distrito Federal e Territórios (MPDFT).
Palestrantes do evento fizeram referências sobre a medida provisória em tramitação no Congresso que vincula a ANPD à Presidência da República, o que é visto como uma ameaça à independência da instituição, especialmente para fiscalizar o uso de dados pessoais e até mesmo das imagens de reconhecimento facial coletadas pelo poder público.
“Do jeito que está, se não tiver uma Autoridade de Proteção de Dados com independência e expertise técnica, teremos um modelo fraco para regular essa tecnologias”, avaliou o especialista e fundador da Data Privacy Brasil, Bruno Bioni, um dos palestrantes do evento.
Para o procurador de Justiça Leonardo Bessa, o debate envolve os limites do direito à privacidade. Para ele, o direito à privacidade é um direito fundamental, mas não é absoluto e deve levar em conta a importância do legítimo interesse sobre o uso de avanços tecnológicos para proteger a segurança pública e o combate a fraudes.
“A China tem 170 milhões de câmeras e vai ter 500 milhões em pouco tempo”, comentou Bessa. “Fico preocupado com o poder do Estado de ter um controle tão grande sobre a sociedade”. Ponderou, porém, que “o direito à privacidade, embora seja um direito fundamental, não é um direito indisponível e que tem uma disponibilidade diferente a cada ano”, acrescentou.
Falsos positivos
Para Bruna Santos, da Coalizão Direitos na Rede, a tecnologia do reconhecimento facial tem apresentado altas taxas de “falsos positivos”, como níveis alarmantes no Reino Unido. Segundo a palestrante, estudos feitos em Londres e no País de Gales, em 2017, mostraram uma grande ocorrência de falsos positivos, com erro em 9 de cada 10 casos.
“Nos Estados Unidos, o FBI apontou que o reconhecimento facial identificou 28 congressistas como suspeitos. Todos eles eram negros. Uma tecnologia que tem esse nível de falsos positivos não deve ser aplicada. Ameaça o direito constitucional de presunção da inocência”, afirmou.
Rafael Oliveira Ribeiro, do Instituto Nacional de Criminalística da Polícia Federal, defendeu o reconhecimento facial. Advertiu, porém, que sempre há uma investigação a mais para comprovar se é verdadeira a identificação de suspeitos ou foragidos pela imagem.
“O benefício para segurança pública é óbvio, seja na localização de procurados ou desaparecidos. Mas os resultados precisam ser convalidados. Os sistemas de reconhecimento faciais são úteis, mas devem ser usados no contexto adequado e com participação de especialistas na utilidade desses sistemas. Em segurança pública isso é mais nítido ainda pelas implicações graves que podem ocorrer em caso de erro”, apontou
Propulsor da economia
Para o coordenador da Espec, promotor de Justiça Frederico Meinberg, a proteção de dados deve ser discutida além da defesa da privacidade do cidadão. “Ela pode ser um grande propulsor da economia, já que a segurança jurídica aliada à proteção de dados permite um ambiente de inovação e investimentos”, disse.
Segundo Meinberg, a Espec apresentou dois projetos ao Ministério da Justiça. Um deles trata-se da utilização de recursos do Fundo de Direitos Difusos para ser criada uma rodada de reuniões com o poder público para acompanhar a aplicação da Lei Geral de Proteção de Dados Pessoais, aprovada no ano passado.
Abnor Gordim para o Telesíntese