Partilhe nas Redes Sociais

Três tendências que vão moldar a proteção de dados no futuro

Iván Abad, technical services manager Iberia da Commvault

Publicado em 11 Junho 2019 | 237 Visualizações

O ano passado representou um ponto de referência para as empresas e entidades normativas após o arranque do RGPD. Houve um movimento nas empresas no que se refere à proteção de dados pessoais e ao garante dos direitos individuais sobre a informação de e sobre cada um. De todas as formas, os resultados de um recente estudo levado a cabo pela Commvault no Data Protection World Forum de Londres sugerem que ainda há muito por fazer neste campo.

80% dos responsáveis de TI inquiridos no evento afirmaram ter pouca confiança no nível de cumprimento atual por parte das suas empresas no que se refere a normativas como o RGPD, embora 37% tenham afirmado acreditar que é necessária uma regulamentação ainda mais restritiva. O que isto mostra é o novo ponto de vista do consumidor, que considera que a privacidade dos dados é um direito humano individual e que não pode ser posto em causa por qualquer interesse comercial.

Estas são as três tendências que vemos no futuro da privacidade dos dados:

Ativismo por parte do consumidor

Tenho a esperança de que o conhecimento e a participação do consumidor venham a desencadear uma discussão muito mais alargada sobre o que significa a privacidade dos dados e como se aplica. Além disso, espero que sejam proporcionadas aos consumidores mais formas de determinar de onde as empresas obtiveram os seus dados (de maneira similar à forma como serviços do tipo Have I Beem Pwned conseguem mostrar quando uma conta de email foi comprometida), assim como obter informação mais transparente sobre os direitos individuais, e processos mais fáceis de cancelar subscrições ou retirar consentimentos.

Isto fará parte de uma discussão contínua sobre a confiança entre os consumidores e as organizações, das grandes corporações às entidades de beneficência, passando pelos pequenos negócios. As fugas de dados, os escândalos das chamadas agressivas de call centers e os casos judiciais pelo uso indevido dos dados vieram causar danos na confiança que as pessoas depositam em entidades com e sem fins lucrativos. Acredito firmemente que este dano pode ser reparado, mas as organizações terão que trabalhar para reconquistar a confiança através da transparência e de uma relação sincera com os consumidores sobre como a sua informação é usada.

Os utilizadores também têm o poder de determinar a forma como as entidades reguladoras impõem sanções pelo incumprimento do RGPD. Seria impossível monitorizar a totalidade da Internet em busca de infrações, pelo que será responsabilidade dos cidadãos prejudicados sinalizar os problemas que lhes digam respeito. Enquanto ainda estamos à espera de ver que tipo de transgressões levam a que tipo de multas, todos deveríamos exercer os nossos direitos, o que, por sua vez, colocará pressão sobre o regulador para satisfazer as exigências públicas.

Coordenação internacional continuará a ser irregular (no melhor dos casos)

Desde a introdução formal do RGPD, já vimos outras regiões a movimentar-se no mesmo sentido, querendo estabelecer a sua própria legislação, incluindo o estado da Califórnia, a América do Sul e a região da Ásia-Pacífico, embora muitos dos rascunhos e as novas regulamentações sejam menos restritos que a legislação europeia. Num mundo ideal, a internacionalização dos negócios levaria a um standard mundial para a privacidade dos dados, mas suspeito que nunca o iremos ver, especialmente havendo alguns estados que monitorizam ativamente as suas próprias populações e que poderão, por isso, sentir que não há necessidade de o adotarem.

O mais provável, no cenário global, é acabarmos por perceber como as empresas internacionais abordam a privacidade de dados nas suas práticas comerciais. Alguns trabalharão o melhor que podem para aplicar os standard mais estritos a nível mundial, proporcionando esse benefício a todos. Outros avaliarão o risco e atuarão por região, enquanto alguns nem sequer cheguem a tomar medidas se perceberem que não irão ser impostas sanções relevantes. Dito isto, a multa de 50 milhões de euros aplicada à Google pode despertar uma certa inquietude, mas creio que não preocupará muitas empresas. A coima aplicada representa uma pequena percentagem das suas receitas totais, sendo vista como um gasto mínimo para uma empresa tão grande. Além disso, uma vez que a Google é um gigante conhecido por todo o mundo, é percecionada como um alvo fácil, e muitas outras grandes empresas sentir-se-ão seguras devido à sua relativa opacidade.

Questões éticas sobre a automatização

As dificuldades sobre a privacidade em torno do processamento automatizado dos dados pessoais provenientes da IoT, dos dispositivos móveis e dos dispositivos portáteis, combinado com a aprendizagem automática e a inteligência artificial, por vezes poderiam ser evitadas ao anonimizar os dados. No entanto, creio que ainda estamos na infância de qualquer discussão ética sobre o uso e gestão de dados anónimos que possam ser considerados pessoais.

Em primeiro lugar, mesmo com dados anónimos, as empresas continuam a beneficiar do uso da informação de uma pessoa, mesmo que não tenha o seu nome associado. E isso poderá levar a que alguns consumidores se mostrem interessados na forma como a sua informação é rentabilizada, exigindo a sua parte. Tap My Data é um grande exemplo disto mesmo, e uma investigação publicada em finais de 2018 sugere que os utilizadores do Facebook não desativariam as sus contas durante um ano por menos de 1.000 dólares. No entanto, dado o valor que os dados de uma pessoa têm para o Facebook no mesmo período, não me estranharia – e até agradaria – ver um mundo em que os serviços acabem por pagar às pessoas pelo uso dos seus dados, com o seu consentimento, claro.

Em segundo lugar, existe um dilema ético em torno destes dados anónimos. Digamos, por exemplo, que um dispositivo médico portátil rastreia a informação sobre a atividade do coração de uma pessoa, que depois é analisada, anonimamente, por investigadores da saúde que utilizam IA. Se um destes investigadores encontrar uma correlação entre uma determinada leitura e um risco merecedor de atenção médica, existirá aqui uma obrigação ética de informar os utilizadores que apresentem este padrão? É evidente que, se todos os dados são anónimos, isto não deveria ser sequer possível. A Lei da Proteção de Dados do Reino Unido, por exemplo, proíbe expressamente os esforços no sentido de anular o anonimato dos dados, com sanções significativas, incluindo a ameaça de pena de prisão. A forma como se gere este tipo de problemas continuará, provavelmente, a ser um tema de debate nos próximos anos, já que o deep learning e a inteligência artificial geram mais conhecimento a partir de formas cada vez mais sofisticadas de recolha de dados. Mas, então, porque deverão as empresas estar atentas a tudo isto, antes de estes cenários sequer se colocarem? No estudo que mencionei anteriormente, 80% dos responsáveis de TI inquiridos afirmaram que uma regulação mais estrita sobre o uso de dados, sobre a proteção e sobre a privacidade pode ter um impacto benéfico nas empresas. A adoção de uma abordagem mais rigorosa sobre a proteção de dados conduz inevitavelmente a uma melhor gestão da informação em geral, o que significa que as organizações podem poupar dinheiro e utilizar os dados de formas mais eficientes para resolver os seus desafios de negócio. Ao mesmo tempo, podem ganhar e gerar a confiança dos sus clientes. É uma vitória para todos, e estou ansioso por ver o que o futuro trará no campo da privacidade dos dados, especialmente quando as empresas se comprometerem de forma ativa e de longo prazo com a privacidade e, definitivamente, com a confiança dos seus consumidores.


Publicado em:

OpiniãoUncategorized

Partilhe nas Redes Sociais

Artigos Relacionados