O processamento de dados vai cada vez mais ser feito a nível local, em vez de na cloud, diz a Accenture. Ao ECO, Pedro Couto explica porque é que as empresas vão passar a desenvolver o seu hardware.

As infraestruturas de hoje podem não estar preparadas para a evolução de amanhã. O alerta é da Accenture na última edição do relatório Technology Vision, que identifica as cinco grandes tendências tecnológicas para este ano. Internet of thinking, “internet do pensamento”, é uma delas. E parte da premissa de que as empresas vão ter de desenvolver processadores e sistemas específicos para desempenharem determinadas tarefas, algo que algumas gigantes já fazem.

A cloud e a evolução para o 5G, a próxima geração de redes móveis, são algumas das soluções em cima da mesa. Particularmente, esta última vai desbloquear a evolução de tecnologias como a dos carros autónomos, mas ainda vai demorar alguns anos a massificar-se. É por isso que as empresas devem estar atentas a este tema, dentro da respetiva área de atividade, explica Pedro Couto, Senior Manager na Accenture Technology, em entrevista ao ECO. Porque a “cloud não está a morrer, mas vai precisar de alguma ajuda”. O processamento, esse, vai ser cada vez mais feito a nível local.

As nossas infraestruturas de processamento, de telecomunicações, de armazenamento, poderão não estar preparadas para esse choque de dados [que vai haver nos próximos tempos].

No relatório, a Accenture fala de uma nova camada de sofisticação tecnológica que foi trazida pelas restantes tendências tecnológicas. Que sofisticação é esta e porque merece atenção? Cada vez mais estamos a ver nas empresas a entrada da inteligência artificial, a entrada da robotização, a entrada de experiência em realidade estendida. Enquanto funcionar na lógica de experimentar uma vez ou duas, tudo o que temos nas empresas funciona muito bem. A partir do momento em que queremos começar a expandir estas experiências para ambientes produtivos a sério, em que temos de usar a tecnologia em grande massa, o que acontece é que as nossas infraestruturas de processamento, de telecomunicações, de armazenamento, poderão não estar preparadas para esse choque de dados. Hoje, o que acontece é que este tipo de experiências e novas tendências gera tantos dados a tanta velocidade e necessita de tanta capacidade de processamento que teremos de repensar uma nova arquitetura de infraestruturas que seja capaz de processar toda esta informação que temos hoje.

Portanto, é um efeito da escala? O problema é: quando se quer escalar essas soluções há essa barreira?

Exatamente.

Mas parece que esta tendência segue em contracorrente com o que se tem falado. Enquanto uns dizem para se pôr tudo na cloud, a Accenture vem dizer “passe-se tudo para o meio local”. Pode explicar?

Não é bem assim. O que estamos a dizer é que a cloud não está a morrer, mas vai precisar de alguma ajuda. E porquê? Se pensarmos que, hoje, o que está na moda é falar de carros autónomos e tecnologias desse estilo, um carro autónomo gera por segundo 1 GB de informação. Há uns anos era impensável sequer ter um 1 GB no nosso computador. Hoje, felizmente, já não é assim. Graças à Lei de Moore, a capacidade de crescimento e de processamento tem sido impressionante. O que está a acontecer é que nós habituámo-nos desde sempre a ter tudo o que precisávamos para processar, para armazenar, para transmitir. Foi acontecendo. Obviamente que, há uns anos, quando queríamos enviar uma fotografia por email, tínhamos de esperar que o nosso modem decidisse fazer a transmissão. Isso foi avançando. Com a entrada das comunicações móveis, resolvemos o problema de como é que transmitimos dados que recolhemos em qualquer sítio. O problema seguinte foi onde guardar esses dados, porque estávamos a produzir muitos. Isso também foi resolvido pela cloud. Depois, a capacidade de processamento. Graças à evolução dos processadores, foi um problema que também foi sendo resolvido.

Mas isto foi sendo resolvido com um pacote que serve a todos. Basta vermos que todos os nossos computadores pessoais têm o mesmo tipo de processador. As nossas comunicações são todas iguais. O que estamos a ver hoje é que, dado o grande volume de informação que está a ser produzido, estas infraestruturas que existem poderão já não ter capacidade de resposta. No próximo ano ou dois, obviamente que as coisas vão funcionar bem. Mas, daqui a cinco, seis ou sete anos, vamos ter grandes problemas. E não é só na capacidade de armazenamento.

É também ao nível de processamento?

Voltemos aos carros autónomos, que geram 1 GB de informação por segundo. Só aí temos dificuldades de armazenamento desses dados todos. Mas é também uma dificuldade de velocidade de análise desses dados e de transmissão para eles poderem ser analisados. Quanto ao carro autónomo, se estamos a recolher esses dados que vêm de radares, de câmaras, de sensores, estamos a recolher tudo. Depois, temos de os transmitir para algo central (chamemos-lhe a cloud) para serem analisados, para que a inteligência artificial implementada sobre essa cloud tome uma decisão e volte a informar o carro do que deve fazer. Entretanto, infelizmente, o carro choca contra alguma coisa.

Ou seja, o grande problema é a latência.

É a latência e é a capacidade de processamento, também.

Mas esse problema não vai ser resolvido pela implementação do 5G, a quinta geração de redes móveis?

Vai. Ou melhor, esperamos que sim. Felizmente, sempre que chegámos a uma barreira deste tipo, a tecnologia foi-nos ajudando. Obviamente, uma das soluções é a passagem para o 5G — que, tendo em conta as evoluções que tiveram as outras gerações da tecnologia, possivelmente começaremos a ter testes de 5G a partir do próximo ano. Mas a adoção em massa desse tipo de comunicações ainda vai durar, talvez, cinco anos.

A Comissão Europeia tem como meta para o 5G o ano de 2020. A Accenture considera que não é exequível?

Vai cumprir-se esse objetivo. Provavelmente, o que vai acontecer aqui em Lisboa e no Porto é que vai funcionar. Ou seja, nas grandes áreas. Mas a massificação dessa comunicação em todo o lado vai ser difícil. Basta ver que, hoje, o 4G ainda não está disponível em todo o lado. Por isso, ainda vai demorar algum tempo até chegarmos a esse ponto. Mas esse é só o ponto da velocidade de comunicação. Temos depois o outro ponto, que tem a ver com saber como é que se tem capacidade de processar isto tudo. Uma coisa é guardar as coisas, outra coisa é transmitir e outra coisa é pegar nos dados, analisá-los, tirar conclusões e passá-los aos dispositivos. O que também estamos a ver hoje (e isso é apoiado pela nossa pesquisa) é que 63% dos executivos inquiridos referiram que, provavelmente, terão de haver grandes evoluções ao nível do hardware e ao desenvolvimento de hardware específico para fazer certo tipo de tarefas. O que vai um pouco ao contrário do que, até hoje, estávamos a fazer, que era “o mesmo computador serve para tudo”. E usávamos a palavra “computador” na sua acessão de peça completa.

Hoje, cada vez mais, estamos a ver que as empresas não conseguem resolver estes problemas em tão pouco tempo com o hardware que têm e estão a caminhar para uma via de desenvolver o seu próprio hardware específico para uma determinada funcionalidade. Isto é algo que não se via desde os finais dos anos 80, porque nessa altura é que estávamos numa fase em que as pessoas experimentavam fazer as suas próprias boards, os seus próprios processadores. Isso desapareceu completamente. Hoje não. Já vemos grandes empresas a fazer isso.

Um dos exemplos do relatório da Accenture é a Microsoft, que desenvolveu um módulo para os óculos de realidade aumentada HoloLens.

Exatamente. O HoloLens é uma coisa impressionante, pois começou por ser um aparelho que usava uns computadores ao lado e, depois, passou a ser uns óculos com uma mochila, mas que, para a experiência de utilização, era impensável usar aquilo daquela forma. A solução que encontraram foi desenvolver o seu próprio hardware, desenvolverem os seus próprios óculos. Hoje, temos aqui alguns exemplares na Accenture, com os quais trabalhamos, e são pouco mais pesados do que uns óculos de sol. É algo que não tem qualquer impacto no trabalho da pessoa. Consegue-se trabalhar perfeitamente com eles colocados. A própria Google avançou também por esse caminho, através do desenvolvimento dos Tensor Flow’s, circuitos exclusivamente feitos para processamento na área da inteligência artificial. Têm uma capacidade de processamento cerca de 50% superior a qualquer outro tipo de processador genérico.

É o caso dos ASIC, usados para minerar bitcoin. Certo?

Exato. O tema da bitcoin acaba por ser algo que não aparece associado a uma empresa. Aparece quase como que um desenvolvimento crowd, em que rapidamente se chegou à conclusão de que era muito mais rápido minerar a moeda virtual usando componentes gráficas, que tipicamente eram vendidas para jogos. De um momento para o outro, o mercado ficou completamente vazio de placas gráficas. As placas gráficas subiram de preço de forma brutal. E porquê? Porque começaram a ser usadas para outro tipo de processamento. Provavelmente, para algumas destas áreas, acabou aquela fase de “está aqui uma máquina que serve para fazer tudo”.

Como é que os empresários e gestores têm de encarar esta tendência? É que parece ser um tema mais tecnológico do que administrativo.

Sim, mas eles percebem a necessidade do negócio. Outro dado que tirámos do nosso estudo é que mais de 80% dos executivos que entrevistámos olham para este caminho como a forma de trazer mais valor ao seu negócio. É algo de que estão perfeitamente conscientes. Para nós, Accenture, os empresários começam a olhar para isto de forma muito interessada. Olhando para a forma como nós evoluímos na computação, há 40 anos, não tínhamos uma cloud mas tínhamos mainframes. A computação estava centralizada. Não havia qualquer processamento nas pontas. Eram aqueles terminais pretos, que não faziam processamento e só recebiam dados. A partir dos anos 80/90, isso inverteu-se. Começámos a perder o processamento central e passámos a pôr processamento nas máquinas, nos nossos computadores, mas mantendo algum controlo no meio. A partir de 2000, começámos a ver a inteligência e a capacidade de processamento a desaparecer, quer desde a componente central de mainframe, quer dos nossos computadores, e a ir para nuvem. Uma das frases muito na moda era que a inteligência estava na nuvem.

Agora, começam a surgir todos estes aparelhos, como os telemóveis, com uma capacidade de processamento impensável há meia dúzia de anos. E isto também fez com que houvesse a capacidade não só de levar esta inteligência para a cloud mas, depois, de trazer grande parte da inteligência para algo que trazemos no nosso bolso. Com esta evolução, evoluímos para o passo seguinte: não só ter o telemóvel como ter equipamentos dentro das nossas casas como a Alexa da Amazon ou o Google Assistant, como pulseiras, como componentes desenvolvidos em áreas tão específicas como a saúde. Temos um cliente que o que fez uma espécie de pacemaker para o cérebro. Implanta chips no cérebro de pessoas com Parkinson e o chip consegue analisar o que se está a passar no cérebro do paciente, decidir quando é que está a acontecer um incidente, e dar um estímulo ao cérebro para que volte a “acordar”.

Vamos chegar a um extremo em que a cloud vai servir só para armazenamento?

Não. Vai dar apoio do armazenamento, porque obviamente o armazenamento nunca se conseguirá resolver a nível local, mas nunca será só isso. Temos um caso de um cliente de uma empresa que trabalha para a Fórmula E, com carros elétricos. Desenvolveram sistemas próprios para os carros que analisam durante toda a corrida o que se está a passar no carro — milhões de sensores — e recolhem esses dados, analisam e tomam as decisões das afinações que têm de ser feitas ao motor em tempo real. Tudo para o carro correr melhor. O carro faz isto sozinho. No fim da corrida, todos esses dados são transferidos para a cloud e reanalisados. Nessa reanálise, aí sim, usa-se a cloud, usa-se grande poder computacional, para ver os dados que foram recolhidos, para ver as decisões que foram tomadas, para ver se foram bem tomadas (porque quando fazemos esta análise já é possível ver o que aconteceu antes, a decisão que foi tomada e o resultado, e conseguimos pegar nos resultados e perceber se a decisão foi ou não bem tomada). No fim desse processo, esses dados são novamente enviados para o processador do carro para que, na próxima corrida, consiga decidir de forma melhor e mais informada. Por isso é que dizemos que o nosso ambiente físico está a ficar cada vez mais inteligente.

Podemos dizer que, ao descentralizar o processamento da cloud, estamos também a mitigar alguns riscos de cibersegurança, uma vez que o processamento começa a ser feito a nível local?

Obviamente que, a partir do momento em que se reduz o espaço entre o sítio onde se recolhem os dados e o sítio onde se processam, a tendência é a de minimizar a possibilidade de eles serem intercetados.

Reduz-se o perímetro, é isso?

É uma verdade. De facto, estamos a recolher dados processados em pulseiras, em telemóveis. E a capacidade de alguém intercetar dados é muito menor do que se alguém estiver à escuta numa linha e intercete os dados que estão a ser transmitidos. Mas não é, de certa forma, mais seguro — por uma razão muito simples: se entrar no telemóvel de alguém, na pulseira de alguém, os dados que se vai obter são dados tão personalizados, tão focados naquela pessoa, tão focados naquela tarefa que aquele processador está a fazer que, se calhar, em termos de cibersegurança, é um risco maior do que se apanhar dados comuns a serem passados numa rede Wi-Fi. Dados que não se sabe de quem são, não se sabe o que são e é preciso inteligência para se perceber o que é que está ali a passar. Por isso, em termos de risco, o risco é menor, mas se existir um problema, a exposição é muito mais grave.

Pedro Couto

Senior Manager – Accenture Technology Portugal

LEIA MAIS SOBRE ESTE TEMA


Subscrição newsletter
Mantenha-se informado com a nossa newsletter Mantenha-se informado com a nossa newsletter