Tiago Minchin, da Accenture Portugal, explica porque é "fundamental" garantir a integridade dos dados numa empresa, sob pena de um problema afetar não só a empresa, mas como a reputação do setor todo.

As máquinas de hoje funcionam com base em dados. E, numa era em que já têm poder de decisão no negócio, é “fundamental” que se garanta a integridade desses mesmos dados, sob pena de um mau input resultar num mau output. É um tema que está a merecer atenção por parte da consultora Accenture, que considerou a problemática da integridade dos dados uma das cinco tendências tecnológicas para este ano, no Accenture Technology Vision.

Em entrevista ao ECO, Tiago Minchin, Managing Director na Accenture Technology, explica que a escala do tema é grande ao ponto de, se uma empresa enfrentar um problema com dados, isso pode provocar ondas de choque que se alastram ao setor todo.

Os negócios de hoje baseiam-se cada vez mais em dados. Torna-se cada vez mais importante garantir que esses dados são íntegros e verdadeiros. Mas porquê? 

Desde sempre que as organizações geram e trabalham dados. Os dados fazem parte da vida das organizações. Historicamente, o que tem acontecido é que os dados têm sido muito mais uma consequência — um subproduto — dos processos de negócio. Se há um registo de um cliente, guardo dados desse cliente. Se há registo de uma transação, guardo os dados dessa transação. E esta utilização histórica tem levado, essencialmente, a que os dados sejam utilizados mais numa perspetiva de reporting e de suporte a decisões de gestão em momentos mais críticos, de planeamento e organização. Isso tem sido algo que tem mudado de uma forma muito intensa e rápida nos últimos tempos.

Ou seja, há mais dados a serem recolhidos. 

Exatamente. Por um lado, toda esta transformação do negócio para o mundo mais digital tem feito com que a quantidade de dados que as organizações capturam e recolhem aumente exponencialmente. Tudo o que, hoje em dia, é feito de forma eletrónica, tudo o que são utilizações dos canais eletrónicos (como a internet), permite que haja um conjunto de informação que pode ser recolhida para posterior utilização por parte das organizações. Por outro lado, a verdade é que a tecnologia evoluiu muito nos últimos tempos. Não só pela capacidade de armazenamento de dados, mas também pela capacidade computacional do processamento dessa informação.

A própria tecnologia pode tomar decisões com base em dados. 

Há muito mais dados que são recolhidos. Há muito mais capacidade de armazenar e trabalhar esses dados — processar essa informação. E a verdade é que as organizações, tendencialmente, estão cada vez mais a usar esses dados para os processos de negócio. Para o seu negócio. Os dados saíram de um ponto em que eram essencialmente o tal subproduto dos processos de negócio, uma consequência do negócio das organizações, para passarem a ser um input para os processos de negócio neste mundo digital. Aí chegamos a esse ponto: o ponto em que os dados são um fator crítico, uma matéria-prima crítica, para os processos de decisão automáticos.

Daí ser importante garantir que os dados são verdadeiros, é isso? 

Daí ser fundamental que os dados sejam verdadeiros, porque estamos cada vez mais a automatizar os processos, a garantir que existem mecanismos de decisão automática, em que, com um input de informação, eu tomo uma determinada decisão e deixo que, automaticamente, essa decisão seja tomada (porque, obviamente, foi devidamente pensada e suportada). Se os dados estão errados, desatualizados, manipulados indevidamente, isso significa que o mau input vai traduzir-se, necessariamente, num mau output, num mau resultado.

Mas isso é a montante, antes de passar por esse processamento. Podemos ver que existem algoritmos preparados para assumir os dados e tomar uma decisão já ela própria enviesada. No recrutamento, por exemplo, é possível programar um algoritmo para não selecionar pessoas com origem num determinado país. Isso também é considerado manipular o processo com base em informação verdadeira? 

Depende. Aí já estamos a falar de decisões, de negócio ou não, que se podem traduzir para os momentos de decisão. Podemos recuar um passo e reconhecer que, hoje, já existem muitos algoritmos gerados automaticamente por processos que têm esse objetivo. O machine learning, por exemplo, é justamente a capacidade que existe de gerar os tais algoritmos, os tais padrões de decisão, com base em dados passados. E, com base nos resultados que procuro obter para a organização, posso gerar capacidade computacional para gerar esses tais algoritmos. Se esses tais algoritmos resultarem desses processos, e resultarem numa má definição e numa definição errada de algoritmos, enviesada ou impactada por má qualidade dos dados, então sim.

Depois também há o fator humano. Há sempre um fator humano que pode estar por detrás disso e que pode, realmente, deturpar toda esta realidade. Mas há que distinguir estes dois casos, porque cada vez são mais importantes. Cada vez mais, as organizações procuram extrair valor dos dados, olhando não só para aquilo que são padrões mais ou menos conhecidos e óbvios que o próprio humano vai extraindo desses dados, mas depois, também, criar condições para que seja a máquina (o computador) a aprender com esses dados e criar ela os padrões. Os tais algoritmos.

Como é que um gestor de uma empresa, ou quem faz a gestão destes algoritmos, pode garantir, ou ter garantias, de que essa informação, esses inputs, são mesmo íntegros? 

Esse é o grande desafio e o ponto que nos traz para esta tendência. O que estamos a dizer com esta tendência é justamente o facto de as organizações terem de acelerar e dar maior foco a este tema da veracidade dos dados. Porque não é um tema novo.

Ou seja, isto não é uma nova vulnerabilidade nas empresas? É uma vulnerabilidade que já existia, mas que agora acaba por ser maior? 

Também vemos que, por um lado, os algoritmos vieram melhorar a eficácia, mas aumentar uma vulnerabilidade. É uma faca de dois gumes. 

É verdade. São dois lados da mesma moeda, mas são dois lados que são importantes garantir. E o que a Accenture refere neste estudo é a combinação desses dois vetores. Por um lado, maximizar aquilo que é a confiança que se pretende ter com os dados — nomeadamente nos processos de entrada –, garantir que não há falhas de segurança em termos de manipulação dos dados, acesso e consistência da informação, e a própria atualização dos dados. Por outro lado, há todo o potencial que esses dados oferecem. É a capacidade que as organizações têm de extrair valor dos dados. Extrair dos dados valor significa olhar para os tais dados, para esta quantidade imensa de informação que as empresas têm e hoje em dia conseguem capturar, e construir em cima disso. Melhorando os seus processos de negócio, melhorando o seu serviço ao cliente, criando propostas de valor que sejam mais adequadas e personalizadas aos clientes. E tudo isso traz valor: para os clientes, para as pessoas e, de forma direta, para a empresa, melhorando os seus resultados. Mas tem de garantir estes dois lados: melhor oferta, mais negócio, mas com a segurança e com a confiança que tem de ter nos dados.

Estão a sinalizar aos gestores das empresas que este é um tema para o qual devem olhar. Como é que, numa lógica de gestão, devem encarar este tema? 

Devem, essencialmente, garantir que este é um tema que passa a ter um foco maior do que o que teve no passado. Esta perspetiva cai também numa sequência de eventos que faz sentido: não há aqui também nada que esteja fora desta sequência lógica de eventos que estão por detrás dos dados. Durante muito tempo, houve uma preocupação e um investimento das empresas em recolher mais e mais informação — porque é importante. A partir do momento em que se passou a perceber que os dados podiam ter valor e podiam ajudar o negócio, as empresas procuraram cada vez mais recolher mais dados.

E já aí vem regulação. 

Sim, também. Essa recolha foi sendo feita pela capacidade que as empresas foram desenvolvendo de criar outros canais, com a internet, onde é possível extrair muita informação. Mas também em capturar esses dados e armazená-los. E a tal tecnologia que está por detrás de todos estes processos, não só ao nível do software mas também do hardware, da capacidade de armazenamento e processamento, veio facilitar esse processo. A parte da volumetria, da quantidade de informação, foi sendo trabalhada e houve sempre um grande investimento relativamente a este vetor. Depois, agora, passámos para um momento em que, havendo uma quantidade já muito significativa de dados e os tais dados estarem, por um lado, suscetíveis a estas vulnerabilidades, por outro lado, terem o potencial de valor que se quer ter, é também o momento agora de investir. Investir não significa só comprar novas soluções e novas tecnologias, mas significa também dar foco ao tema da qualidade dos dados e à tal fiabilidade. Isso faz-se através da utilização de ferramentas (e existe uma grande variedade), mas não é um tema de TI [Tecnologias da Informação]. É um tema da organização.

Está a dizer que deve ser visto numa perspetiva de gestão e não tecnológica? 

Sem dúvida. Deve ser visto de uma perspetiva da cultura da organização.

As empresas devem ter um Chief Integrity Officer? 

Pode ser um Chief Integrity, mas também pode ser um Chief Data Officer, ou uma figura que garanta que isso é disseminado pela organização. E o motivo é muito simples e está à vista de muitos casos que temos aqui, que têm a ver com a reputação. No limite, a má utilização dos dados e a forma como a organização pode não estar a trabalhar esta componente de segurança, de fiabilidade dos dados, pode originar um problema de reputação. E reputação, hoje em dia, não é só da empresa e do setor. É dos meios, é de tudo. Por isso é que entram, depois, temas como a regulamentação, para garantir que estes processos têm o devido enquadramento face a esta evolução toda que está a acontecer no mundo hoje.

Tocou no ponto da regulamentação e estamos prestes a chegar à data da entrada em vigor do RGPD, 25 de maio. Muitos temas que, há uns anos, eram estritamente tecnológicos, estão agora a subir na hierarquia das empresas e a chegar à administração. Isto não cria uma espécie de cerco muito grande aos administradores, que passam a ter muitos temas novos com que se preocupar e que não tinham no passado? 

Por um lado, é verdade. O tema da regulamentação, nomeadamente em alguns setores como o financeiro, está a ocupar uma grande parte da atenção das administrações e da gestão dos bancos e das seguradoras. Agora, o que também se acredita é que este tipo de medidas vêm promover um pouco de orientação e uma base de atuação alargada para garantir que todo este tratamento de informação e toda esta dinâmica de alteração que existe em termos de quantidade, de diversidade de dados que são capturados, que são trabalhados, que são armazenados e que muitas vezes até são partilhados dentro de ecossistemas e de parceiros e entre empresas, siga um conjunto de regulamentações e de práticas que garantam que, no limite, as pessoas e cada um de nós tem confiança nesta partilha de informação. Porque, senão, também se pode gerar uma espiral inversa de que as pessoas ficam com tanto receio de partilhar informação, ou não partilham, ou partilham informação não verdadeira, e depois temos um problema ainda mais agravado nisto que chamamos de veracidade dos dados.

É verdade que a regulamentação oferece e leva a um esforço grande de adaptação, mas no final do dia, ao acreditarmos que os dados estão na base da criação de valor para diferentes negócios, é fundamental que haja esta confiança e esta capacidade de gerar confiança de uma forma bastante alargada, para que seja possível continuar nesta dinâmica de geração de dados e de que as empresas possam usar esses dados em benefício dos clientes. O risco de quando as coisas correm mal não é só para uma empresa em específico e, provavelmente, nem só para um setor.

Tiago Minchin

Managing Director – Accenture Technology Portugal

LEIA MAIS SOBRE ESTE TEMA


Subscrição newsletter
Mantenha-se informado com a nossa newsletter Mantenha-se informado com a nossa newsletter