Não é todos os dias que se ouve alguém do mundo empresarial a dizer que é preciso mais regulação. Isabel Fernández é uma dessas vozes. Doutorou-se em 1999 em inteligência artificial, deu aulas na universidade e trabalha agora na consultora Accenture, onde é responsável na Península Ibérica pela área de inteligência aplicada.

Os sistemas informáticos analisam hoje enormes quantidades de dados e tomam decisões com impacto nas nossas vidas: a quem conceder crédito bancário ou, num futuro não muito distante, que vidas poupar em caso de um acidente com carros autónomos. Fernández afirma que “gostaria que houvesse mais discussão sobre a ética aplicada à inteligência artificial, sobre regulação”. Mas diz ter a certeza de que quem trabalha nesta área já está a desenvolver os sistemas de forma correcta. “Há ciência robusta por trás, nada disto é novo”, lembra. E nota que, apesar de serem precisas regras, isso não significa que toda a gente tenha de compreender o funcionamento dos sistemas. Por um lado, porque parte disso é propriedade intelectual das empresas. Por outro, porque a maioria das pessoas também não sabe como funcionam os sistemas de um avião.

Fernández acredita que a tecnologia trará assistentes virtuais inteligentes, carros sem condutor e muitos avanços na saúde – e que alguns empregos vão desaparecer. Num continente a envelhecer, como é o caso da Europa, não há pessoas para todas as tarefas e, por isso, a automação não será um problema, argumenta. Além disso, este não é sequer um fenómeno inédito: “Já aconteceu no passado e conseguimos resolvê-lo”. Numa conversa com o PÚBLICO, revelou preocupações, mas mostrou-se sobretudo optimista.

Toda a gente anda a falar de inteligência artificial, mas não é uma área nova. Na academia tem décadas. O que aconteceu nestes últimos anos para que se tenha tornado um tema corrente?

Isabel Fernandez: O emergir da inteligência artificial foi nos anos 1950. A questão é que nos últimos anos surgiram três impulsionadores. O primeiro são as comunicações. Na maior parte do mundo, estamos todos permanentemente conectados. Globalmente, 65% da população está ligada através de um telemóvel. Não conseguimos fazer chegar comida a toda a gente, mas conseguimos dar-lhes um telemóvel e a possibilidade de o carregar… [Em segundo,] graças a estas ligações em tempo real, temos muitos dados. E, por fim, temos a capacidade de computação.

A inteligência artificial já não está nos laboratórios. Está a acontecer, na sua casa, na minha casa. Já existe há muitos anos, provavelmente em coisas a que não chamávamos inteligência artificial. Por exemplo, quando os operadores de telecomunicações a começaram a aplicar para antecipar a taxa de desistência dos seus clientes.

As empresas estão a criar sistemas que analisam quantidades enormes de dados e que são capazes de tomar decisões. Estão a garantir que estes sistemas são transparentes e funcionam de forma ética?

IF: Vou responder com uma questão. Conhece o protocolo existente para se fazerem transplantes de órgãos?

Não conheço.

IF: Mas confia que esse protocolo seja capaz de garantir a segurança dos cidadãos. E faz bem em confiar. E conhece o protocolo dos automatismos de um avião? Metade do tempo em que está a voar o avião é controlado por um sistema automático. Confia nisso?

Sim. Mas nesses exemplos há provavelmente mais regulação. Não sei se temos o mesmo nível de regulação para a inteligência artificial.

IF: Essa é a resposta. É mais uma questão de confiança e de regulação. Não é uma questão de transparência. De uma perspectiva matemática, as redes neuronais [uma técnica de inteligência artificial que se inspira no cérebro] são uma caixa negra. Mas não precisamos de as perceber para confiarmos nelas. Em áreas emergentes, o que devemos tentar é que nos sintamos seguros porque temos regulação. Um outro exemplo: entrou neste hotel e tem confiança no edifício, mesmo que a matemática por trás destas estruturas seja muito complexa. Mas há regulação forte que garante a segurança. É o mesmo para os modelos matemáticos.

Já existe essa regulação?

IF: Não.

Então estamos num período em que corremos riscos?

IF: Muitos de nós, não apenas na Accenture, temos estado a fazer as coisas certas, mesmo sem regulação. Mas gostaria de ter uma regulação forte. Estamos a construir sistemas autónomos muito complexos, que são parte da nossa vida como cidadãos.

Vê a possibilidade de a regulação vir a abrandar o desenvolvimento da tecnologia?

IF: Não creio. Gostaria que houvesse mais discussão sobre a ética aplicada à inteligência artificial, sobre regulação. Mas tenho a certeza que a maioria de nós está a construir bem os sistemas inteligentes.

Por que tem tanta certeza?

IF: Porque há ciência robusta por trás, nada disto é novo. E estamos a trabalhar com a ciência.

Mas dentro de grandes empresas, que nem sempre têm o incentivo para agir de forma ética.

IF: São duas coisas diferentes. Um edifício pode ser construído de forma segura, mas ser usado para fazer coisas terríveis. Isto é o mesmo com que nos temos debatido ao longo da História. Quando se cria uma nova tecnologia, pode-se fazer a coisa certa ou a coisa errada. Mas isso não é inerente à tecnologia.

Quais são então os impactos positivos concretos das tecnologias de inteligência artificial nos últimos anos?

IF: Não vou falar de sistemas teoréticos, apenas de sistemas em uso. Por exemplo, o sistema responsável pela temperatura dentro das estações do metro de Madrid é um sistema de inteligência artificial pura, que faz previsões sobre o número de pessoas, a temperatura no exterior e a temperatura interior, que depende de quantas carruagens estão a chegar à estação. Este sistema também avalia o preço de mercado da electricidade. Com todos os estes modelos, faz a gestão do ar condicionado em tempo real e escolhe automaticamente a temperatura, dentro de um intervalo muito pequeno, para tentar minimizar os custos de energia. O resultado é que estamos a poupar 26% dos custos de electricidade. Há mais. Quando vamos ao médico e falamos com ele, há um sistema que permite analisar em tempo real as notas que ele está a tirar e que lhe dá avisos sobre possíveis diagnósticos. Claro, fica sempre a cargo do médico seguir as recomendações do sistema.

E os impactos negativos? Os aspectos que talvez tenham de ser regulados?

IF: A minha principal preocupação é a mesma que nos outros sectores: não ter as pessoas certas. Se não tivermos peritos, vamos fazer as coisas de forma errada. É preciso ser um médico ou um enfermeiro para observar um doente. Ninguém imagina ser observado por alguém que não esteja acreditado. É preciso aplicar o mesmo aqui.

Como é que se faz essa acreditação?

IF: Não temos isso definido. O mais próximo está relacionado com o conhecimento de engenharia, matemática, física. Julgo que temos de definir as competências necessárias para desenvolver este tipo de sistemas de forma correcta.

Isso é um trabalho para as universidades?

IF: Pode ser. Mas também é para as empresas, que podem escolher os seus programadores.

A diversidade é um tema quente no sector. Deve ser considerada nessa escolha? É preciso ter um grupo de programadores com diversidade – em termos de género, etnia, percurso – para criar sistemas autónomos não enviesados?

IF: Na inteligência artificial, o enviesamento está nos dados. Podem-se produzir sistemas potencialmente enviesados porque os dados estão enviesados, e não porque não há diversidade nas equipas. Mas parte da riqueza das equipas é consequência da diversidade. Claro que precisamos disso. Conhecemos os números, incluindo na Europa. Temos poucas mulheres nas universidades nestas áreas. Temos de olhar com muito cuidado para o que acontece no sistema de educação.

Há quem defenda, em particular no meio académico, que as grandes empresas devem dar a conhecer, pelo menos até certo ponto, os seus algoritmos, visto que influenciam tanto as nossas vidas. Como vê este equilíbrio entre tornar os sistemas transparentes e proteger o negócio?

IF: Estes sistemas são muito importantes para as empresas. Não posso mostrar os sistemas que tenho, porque os concorrentes vão replicá-los. E depois há sistemas transparentes, mas tão complexos que as pessoas não os percebem. Isso não é um problema.

Não podem ser simplificados para as pessoas os compreenderem? Como a UE obrigou o Google e o Facebook a fazer em relação aos seus termos de uso?

IF: Uma coisa é explicar o sistema. Mas não o quero dar a quem o possa copiar. Conhece a fórmula por trás do último fármaco da Roche? Não. É da empresa. E não lhe chamamos uma caixa negra, chamamos-lhe propriedade intelectual.

Público | 02/11/2018 | Isabel Fernández

Isabel Fernández

Managing Director – Accenture Digital Iberia

LEIA MAIS SOBRE ESTE TEMA


SUBSCRIPTION CENTER
Mantenha-se informado com a nossa newsletter Mantenha-se informado com a nossa newsletter