CDIA.Rio - Rede de Ciência de Dados & Inteligência Artificial do Rio de Janeiro

Proteção de Dados Pessoais

A privacidade é um conceito que já era discutido na Grécia Antiga, mas que só passou a fazer parte da legislação nos EUA em 1890, sendo depois garantida por lei em diversos outros países. No Brasil está na constituição de 1988, no seu artigo 5o, inciso X, que diz serem invioláveis a intimidade, a vida privada, a honra e a imagem das pessoas, assegurado o direito a indenização pelo dano material ou moral decorrente de sua violação.

A internet, contudo, tem posto à prova a eficácia das leis vigentes, já que potencializou danos decorrentes da violação da privacidade na medida em que é capaz de disseminar qualquer informação de forma muito mais rápida e para uma quantidade enorme de pessoas. Mesmo que determinada informação não venha a ser divulgada publicamente, quem teria direito de armazenar informações sobre uma pessoa qualquer?

Não é nenhum segredo que a China esta investindo muito dinheiro para encher suas cidades com câmaras de monitoramento, capazes de identificar as pessoas e seguir os passos de qualquer um que lhe interesse. É um verdadeiro “Big Brother” estatal que esta descrito num artigo [1] que inclusive questiona se isto já não esta se tornando realidade também no ocidente. Duvida ? Então confira um outro artigo [2] sobre o reconhecimento facial automático sendo cada vez mais utilizado pelas policias nos EUA. A American Civil Liberties Union (ACLU) inclusive enviou carta para a Amazon pedindo que ela parasse de comercializar seu sistema Rekognition em função da falta de precisão do mesmo. Ou seja, você esta correndo o risco de ter seu rosto reconhecido como um transeunte (suspeito?) que estava em frente a uma loja que foi saqueada sem nunca ter passado por ali!

É por isto que dizem que os algoritmos são tendenciosos ? Bem, a explicação não é simples assim. Mas não é também tão complicada que só seja entendida por especialistas, tanto que o artigo “Is Model Bias a Threat to Equal and Fair Treatment? Maybe, Maybe Not.” [3] consegue justamente mostrar onde estão as fragilidades no uso da Inteligencia Artificial e dos seus modelos matemáticos. Menciona inclusive a ferramenta em código aberto chamada Aequitas, desenvolvida pela Universidade de Chicago, que permite investigar se um determinado modelo apresenta sinais de discriminação ou viés. Este tipo de verificação vai ganhar cada vez mais força no mercado, de modo a garantir que empresas e governos estejam operando de acordo com as melhores práticas. A Accenture inclusive já esta oferecendo no mercado um toolkit próprio para evitar modelos “ruins” [4].

Quem saiu na frente buscando ajustar sua legislação foi a União Europeia, através da General Data Protection Regulation – GDPR (Regulamento Geral de Proteção de Dados), que entrou em vigor no final de maio último e que vem servindo de inspiração para iniciativas semelhantes em outros países. Em linhas gerais, são 3 os principais cuidados que uma organização precisa ter para estar em conformidade com a legislação europeia:
• Obter permissão para coletar qualquer informação pessoal identificável
• Informar aos clientes os dados que são armazenados sobre eles
• Apagar toda informação sobre uma pessoa quando ela solicitar

Na prática não é tão simples assim. Várias empresas deixaram para a última hora e muitas pessoas, inclusive no Brasil, receberam diversos e-mails no final de maio pedindo confirmação para manter suas assinaturas para informativos digitais ou comunicando ajustes em politicas de privacidade. O problema é que muitos destes e-mails foram para a caixa de SPAM ou solenemente ignorados. Em menos de um mês de vigência da GDPR já surgiram agências de marketing informando casos de clientes que perderam 80% de suas malas diretas digitais, praticamente anulando a efetividade deste canal de comunicação.

Muitos não vão reclamar de receber menos e-mails, mas já há quem argumente que a legislação pode estar restringindo a capacidade de inovação na área de inteligência artificial, fortemente dependente do acesso a dados. A SAS publicou um texto em seu site analisando a fundo os possíveis efeitos da GDPR no uso de IA [5]. A conclusão é que a legislação pode sim tornar mais complexo o uso de dados pessoais, mas que é também uma oportunidade para gerar confiança nos consumidores e governantes sobre o uso adequado de dados com base em regulação de qualidade.

Isto posto, é interessante o artigo descrevendo como a IBM esta usando justamente a IA para se manter em conformidade com a GDPR [6]. A empresa já tem entre seus dirigentes um Data Protection Officer (DPO) e um Chief Privacy Officer (CPO).

Aqui pelo Brasil a discussão sobre uma Lei de Proteção de Dados Pessoais esta gerando embates acalorados no Congresso Nacional. Existe a possibilidade de aprovação, ainda este ano, de um projeto de lei já votado na Câmara e que esta mais alinhado com a GDPR, mas no Senado existem defensores de um outro PL que seria mais favorável as empresas [7]. A Acadêmia Brasileira de Ciências se fez presente no seminário “Proteção de Dados Pessoais” organizado pela Comissão de Ciência e Tecnologia, Comunicação e Informática da Câmara em 22 de maio [8], mais não subscreveu (pelo menos por enquanto) uma carta em defesa da criação de uma autoridade pública de proteção de dados pessoais [9], que já conta com o apoio de representantes da acadêmia, empresas e da sociedade civil.

Enquanto isto, o Congresso Internacional de Automação Bancária – CIAB, cujo tema deste ano foi “Inteligência Exponencial”, serviu de palco para debates diretamente relacionados com a Proteção de Dados [10]. Foi por lá que a Certisign lançou seu serviço de biometria capaz de que comparar o rosto de uma pessoa com a imagem associada ao seu Cadastro de Pessoa Física (CPF) no banco de dados do cadastro nacional de condutores de veículos do Serviço Federal de Processamento de Dados (Serpro) [42]. Outro tema relevante no evento foi o Open Banking [11], com legislação específica que passa a vigorar também na Europa até o final deste ano.

E já que continuamos falando de iniciativas europeias, cabe destacar o anúncio recente dos 52 especialistas que irão compor um Grupo de Alto nível em IA para propor recomendações e regulamentos em questões legais, éticas e socio-econômicas, de forma coordenada, visando estabelecer uma estratégia para IA naquele continente [12].

Encerro destacando na seção Dados e Repositórios o concurso para desenvolver aplicativos de dados para cidadania financeira [50] e o desafio da dados na área da saúde [51], ambos fazendo uso de fontes de dados brasileiras. Quem não sabe bem como são estas competições/desafios, vale conferir o artigo da Seção Primeiros Passos com dicas de como começar a participar de competições deste tipo no Kaggle [58]. Para quem se animar com o desafio da saúde, vale conferir nesta mesma seção o curso gratuito sobre Inteligência Artificial em saúde: o uso de machine learning [53].