Notícias
01 de Setembro de 2020
Artigo – ConJur - LGPD pode ter um impacto ainda maior do que o Código do Consumidor – Por Bruna Lauviah Freitas Pinto e Silva
Após a humanidade vivenciar os horrores e as graves violações de direitos trazidos pelas duas grandes guerras e pela ascensão de regimes autoritários no século XX, como o nazismo e o fascismo de Mussolini, criaram-se esforços mundiais para que se consolidasse uma forma de governo mais justa e que garantisse maior pacificidade à comunidade global. Foi assim que a democracia liberal se tornou a "menina dos olhos" e foi adotada por diversas nações, tornando-se o modelo político ideal a ser seguido.
A democracia contemporânea se caracteriza, entre outros fatores, pela pretensão de garantir direitos fundamentais e liberdades individuais, bem como pela utilização de um sistema representativo. A representação política, por meio do voto, é uma das principais formas da população participar das decisões políticas, sendo considerada por muitos a materialização da soberania exercida pelo povo e, logo, da própria democracia [1].
Em grande parte, tal sistema se baseia e se legitima, portanto, no livre arbítrio que possuímos em escolher quem queremos para nos representar. Todavia, a exponencial produção de dados dos últimos anos, bem como sua coleta e processamento por empresas, podem estar ameaçando esse alicerce democrático.
Há muito se diz que os dados pessoais são o novo petróleo. Isso se explica porque estamos cada vez mais imersos no mundo da internet e das redes sociais e cada movimento que realizamos nesse ciberespaço, desde curtidas até dados fornecidos em cadastros, são processados por algoritmos e utilizados para os mais diversos fins, muitas vezes sem que os titulares tenham qualquer consciência de tais práticas. Todos esses dados que, aparentemente, isolados não fornecem nenhuma informação relevante, quando combinados podem ser utilizados para perfilizações (profiling) e marketing personalizado, ambos cada vez mais precisos.
Daí se extrai um grande insumo econômico e político: a capacidade de manipular nossas emoções e identificar nossos medos, ódios e desejos para nos venderem alguma coisa ou, ainda mais alarmante, para manipular eleitores em suas decisões de voto [2]. O emblemático caso da Cambridge Analytica escancarou ao mundo o perigo que a exploração desregulada de dados pode gerar ao processo democrático:
"A Cambridge Analytica era uma empresa privada que minerava e analisava dados com o objetivo de realizar comunicação estratégica para processos eleitorais. Em 2018, estourou um escândalo com a revelação de que ela coletou dados de cerca de 50 milhões de usuários do Facebook, sem conhecimento ou consentimento deles, e os utilizou para influenciar nas eleições presidenciais dos Estados Unidos de 2016 [3]. Os dados teriam sido usados para perfilização dos usuários e, então, direcionar, de forma mais personalizada, materiais pró-Trump e contrários à Hillary Clinton. Ademais, a empresa também exerceu influência no Brexit e nas eleições presidenciais do Quênia, dentre outros casos ainda pouco esclarecidos" [4].
Diante desse cenário, ainda podemos falar de completo livre arbítrio nas nossas escolhas políticas e de nossos representantes? Como fica, em vista disso, a legitimidade do processo democrático?
Para além disso, como já mencionado no início do texto, a democracia também se baseia na garantia de direitos fundamentais e de liberdades individuais. Sendo assim, como nossa liberdade fica quando algoritmos nos classificam de acordo com nossos dados e tomam decisões acerca da nossa vida com base nisso? Já é sabido, por exemplo, que algoritmos muitas vezes são usados para decidir acesso à crédito e à seleção de um candidato para preencher a vaga de uma empresa. Assim, decisões importantes para a vida das pessoas são tomadas com base em critérios gerais, que desconsideram suas individualidades, o que pode ser entendido como uma espécie de discriminação [5].
A situação fica ainda mais crítica quando essas decisões automatizadas podem reforçar e se basear em preconceitos sociais ao, por exemplo, estabelecer um perfil ideal para ocupar um cargo profissional ou um perfil mais propenso à criminalidade. Nesse sentido, algoritmos podem perpetuar discriminações raciais, de gênero, classe e entre outros. Não devemos esquecer que esses algoritmos são feitos por humanos e, como tais, são produtos de uma determinada visão de mundo que pode ser carregada de preconceitos.
Tendo em vista a situação aqui exposta e a tendência de produzirmos cada vez mais dados e termos inteligências artificiais cada vez mais capacitadas em nos conhecerem mais e melhor, adentrando ainda mais em aspectos da nossa intimidade, é que se percebe a importância de haver uma regulação acerca do uso de dados pessoais, como o General Data Protection Regulation (GDPR) na União Européia e Lei Geral de Proteção de Dados (LGPD) no Brasil.
Faz-se importante ressaltar que a LGPD não possui o objetivo de impedir a coleta e o processamento de dados, já que essas ferramentas também podem proporcionar grande avanços tecnológicos positivos, capazes de melhorar a qualidade de vida dos cidadãos. Isso posto, nas palavras de Ana Frazão, a lei possui o papel de:
"(...) Reforçar a autonomia informativa dos titulares dos dados e o necessário e devido controle que estes precisam exercer sobre seus dados, a fim de se colocar um freio nas vicissitudes que possibilitaram a consolidação do estágio atual da economia movida a dados" [6].
Ademais, devido aos possíveis impactos na esfera existencial do cidadão, o STF, em maio de 2020, elevou a proteção de dados pessoais a um status de direito fundamental [7]. Indo no sentido dessa visão, a Proposta de Emenda Constitucional (PEC) nº 17/2019, que, na data de redação deste artigo, já foi aprovada no Senado e aguarda votação na Câmara, inclui expressamente o direito de proteção dos dados pessoais no rol dos direitos fundamentais da Constituição Federal.
Para além da regulamentação, é importante que se crie uma cultura de proteção de dados, em que as empresas verão a conformidade como forma de agregar valor e competitividade [8]; e os titulares entenderão seus direitos em ter controle, ou ao menos transparência, acerca do uso de seus dados. Assim como a entrada em vigência do Código do Consumidor em 1990 trouxe uma mudança de cultura, espera-se da LGPD esse mesmo impacto ou um ainda maior, já que, além das relações comerciais, tal lei também possui em seu escopo as relações de trabalho e o setor público [9].
Estamos, portanto, nos endereçando ao caminho correto para lidar com o desafio tecnológico do big data e seus impactos sociais, econômicos e políticos, sendo necessária especial atenção à legitimidade e à estabilidade da própria democracia. Apesar do avanço da LGPD, ainda temos muito o que percorrer e, nesse viés, gostaria de finalizar este artigo com a seguinte citação de Yuval Harari:
"Assim, faríamos melhor em invocar juristas, políticos, filósofos e mesmo poetas para que voltem sua atenção para essa charada: como regular a propriedade de dados? Essa talvez seja a questão política mais importante da nossa era. Se não formos capazes de responder a essa pergunta logo, nosso sistema sociopolítico poderá entrar em colapso" [10].
A democracia contemporânea se caracteriza, entre outros fatores, pela pretensão de garantir direitos fundamentais e liberdades individuais, bem como pela utilização de um sistema representativo. A representação política, por meio do voto, é uma das principais formas da população participar das decisões políticas, sendo considerada por muitos a materialização da soberania exercida pelo povo e, logo, da própria democracia [1].
Em grande parte, tal sistema se baseia e se legitima, portanto, no livre arbítrio que possuímos em escolher quem queremos para nos representar. Todavia, a exponencial produção de dados dos últimos anos, bem como sua coleta e processamento por empresas, podem estar ameaçando esse alicerce democrático.
Há muito se diz que os dados pessoais são o novo petróleo. Isso se explica porque estamos cada vez mais imersos no mundo da internet e das redes sociais e cada movimento que realizamos nesse ciberespaço, desde curtidas até dados fornecidos em cadastros, são processados por algoritmos e utilizados para os mais diversos fins, muitas vezes sem que os titulares tenham qualquer consciência de tais práticas. Todos esses dados que, aparentemente, isolados não fornecem nenhuma informação relevante, quando combinados podem ser utilizados para perfilizações (profiling) e marketing personalizado, ambos cada vez mais precisos.
Daí se extrai um grande insumo econômico e político: a capacidade de manipular nossas emoções e identificar nossos medos, ódios e desejos para nos venderem alguma coisa ou, ainda mais alarmante, para manipular eleitores em suas decisões de voto [2]. O emblemático caso da Cambridge Analytica escancarou ao mundo o perigo que a exploração desregulada de dados pode gerar ao processo democrático:
"A Cambridge Analytica era uma empresa privada que minerava e analisava dados com o objetivo de realizar comunicação estratégica para processos eleitorais. Em 2018, estourou um escândalo com a revelação de que ela coletou dados de cerca de 50 milhões de usuários do Facebook, sem conhecimento ou consentimento deles, e os utilizou para influenciar nas eleições presidenciais dos Estados Unidos de 2016 [3]. Os dados teriam sido usados para perfilização dos usuários e, então, direcionar, de forma mais personalizada, materiais pró-Trump e contrários à Hillary Clinton. Ademais, a empresa também exerceu influência no Brexit e nas eleições presidenciais do Quênia, dentre outros casos ainda pouco esclarecidos" [4].
Diante desse cenário, ainda podemos falar de completo livre arbítrio nas nossas escolhas políticas e de nossos representantes? Como fica, em vista disso, a legitimidade do processo democrático?
Para além disso, como já mencionado no início do texto, a democracia também se baseia na garantia de direitos fundamentais e de liberdades individuais. Sendo assim, como nossa liberdade fica quando algoritmos nos classificam de acordo com nossos dados e tomam decisões acerca da nossa vida com base nisso? Já é sabido, por exemplo, que algoritmos muitas vezes são usados para decidir acesso à crédito e à seleção de um candidato para preencher a vaga de uma empresa. Assim, decisões importantes para a vida das pessoas são tomadas com base em critérios gerais, que desconsideram suas individualidades, o que pode ser entendido como uma espécie de discriminação [5].
A situação fica ainda mais crítica quando essas decisões automatizadas podem reforçar e se basear em preconceitos sociais ao, por exemplo, estabelecer um perfil ideal para ocupar um cargo profissional ou um perfil mais propenso à criminalidade. Nesse sentido, algoritmos podem perpetuar discriminações raciais, de gênero, classe e entre outros. Não devemos esquecer que esses algoritmos são feitos por humanos e, como tais, são produtos de uma determinada visão de mundo que pode ser carregada de preconceitos.
Tendo em vista a situação aqui exposta e a tendência de produzirmos cada vez mais dados e termos inteligências artificiais cada vez mais capacitadas em nos conhecerem mais e melhor, adentrando ainda mais em aspectos da nossa intimidade, é que se percebe a importância de haver uma regulação acerca do uso de dados pessoais, como o General Data Protection Regulation (GDPR) na União Européia e Lei Geral de Proteção de Dados (LGPD) no Brasil.
Faz-se importante ressaltar que a LGPD não possui o objetivo de impedir a coleta e o processamento de dados, já que essas ferramentas também podem proporcionar grande avanços tecnológicos positivos, capazes de melhorar a qualidade de vida dos cidadãos. Isso posto, nas palavras de Ana Frazão, a lei possui o papel de:
"(...) Reforçar a autonomia informativa dos titulares dos dados e o necessário e devido controle que estes precisam exercer sobre seus dados, a fim de se colocar um freio nas vicissitudes que possibilitaram a consolidação do estágio atual da economia movida a dados" [6].
Ademais, devido aos possíveis impactos na esfera existencial do cidadão, o STF, em maio de 2020, elevou a proteção de dados pessoais a um status de direito fundamental [7]. Indo no sentido dessa visão, a Proposta de Emenda Constitucional (PEC) nº 17/2019, que, na data de redação deste artigo, já foi aprovada no Senado e aguarda votação na Câmara, inclui expressamente o direito de proteção dos dados pessoais no rol dos direitos fundamentais da Constituição Federal.
Para além da regulamentação, é importante que se crie uma cultura de proteção de dados, em que as empresas verão a conformidade como forma de agregar valor e competitividade [8]; e os titulares entenderão seus direitos em ter controle, ou ao menos transparência, acerca do uso de seus dados. Assim como a entrada em vigência do Código do Consumidor em 1990 trouxe uma mudança de cultura, espera-se da LGPD esse mesmo impacto ou um ainda maior, já que, além das relações comerciais, tal lei também possui em seu escopo as relações de trabalho e o setor público [9].
Estamos, portanto, nos endereçando ao caminho correto para lidar com o desafio tecnológico do big data e seus impactos sociais, econômicos e políticos, sendo necessária especial atenção à legitimidade e à estabilidade da própria democracia. Apesar do avanço da LGPD, ainda temos muito o que percorrer e, nesse viés, gostaria de finalizar este artigo com a seguinte citação de Yuval Harari:
"Assim, faríamos melhor em invocar juristas, políticos, filósofos e mesmo poetas para que voltem sua atenção para essa charada: como regular a propriedade de dados? Essa talvez seja a questão política mais importante da nossa era. Se não formos capazes de responder a essa pergunta logo, nosso sistema sociopolítico poderá entrar em colapso" [10].