A Confiança e a Ética nas soluções de Inteligência Artificial

Claranet | A Confiança e a Ética nas soluções de Inteligência Artificial

A Confiança e a Ética caminham juntas num estado especial de conectividade e dependência. Mas, tal como no caso do ovo e de galinha, temos dificuldade em descobrir quem foi o primeiro a nascer.

Seria um erro confundir a Confiança com a Transparência, pois apesar de estas duas características andarem muitas vezes juntas, não têm propriamente uma dependência direta. Usamos a Transparência como uma ferramenta de ganho de Confiança quando esta não existe - embora se encontrem do lado oposto do espectro; mas se confiarmos numa pessoa, empresa ou solução, não será necessário exigirmos Transparência.

A presença de Transparência nos processos e na apresentação de resultados é um elemento essencial nos primeiros passos de um projeto Inteligência Artificial (IA), onde existe uma grande desconfiança associada exatamente aos resultados.
Ninguém gosta de receber um resultado com o qual não concorda e cuja explicação esteja simplesmente associada a uma espécie de “magia” ligada à IA.

No mundo moderno em que nos encontramos, já com inúmeras soluções de IA em plena utilização, ignorar as questões de Ética, Transparência e de Responsabilidade nos resultados pode levar a consequências negativas, tais como a exigência de explicações sobre esses resultados e processos, ou situações que obriguem a uma auditoria constante.

Na minha ótica isto é mais um sinal de maturidade do mercado, onde não há ainda confiança suficiente em termos públicos, embora acredite que seja um cenário que irá mudar com o tempo.

Existe também outro aspeto muito interessante – e, por enquanto, ainda pouco explorado – associado à ética profissional da empresa fornecedora de soluções de IA: o que é que acontece quando o sistema sabe muito mais sobre o cliente de que o próprio cliente?

Se por um lado esta situação pode ser muito benéfica para o fornecedor da solução de IA, por outro apresenta um peso muito significativo quer a nível ético, quer ao nível da segurança – caso a informação seja extraviada e, eventualmente, publicada. Num cenário em que a informação possa identificar ou provar algum tipo de crime, por exemplo, a empresa fornecedora poderá mesmo enfrentar questões legais, por ter tido conhecimento de uma situação, sem agir conforme está legalmente obrigada (mesmo que, na realidade, nunca tenha extraído essa informação de forma isolada).

Continuando a falar sobre Ética nas soluções de IA, o tema da Manipulação e Responsabilidade assume também especial importância, tanto pelo resultado, como pelo impacto nos seres vivos e no Ambiente.

O documento da União Europeia com as guidelines oficiais sobre IA - High-Level Expert Group on Artificial Intelligence, inclui mesmo uma seção dedicada ao impacto nos seres vivos e no meio-ambiente, em relação aos quais uma empresa moderna e responsável terá de pensar e criar um planeamento adequado (Secção 6 de Trustworthy AI Assessment List).

Por outro lado, sempre que se fala de Manipulação neste contexto, nem sempre essa Manipulação está apenas associada à empresa fornecedora da solução de IA; ela pode também existir por parte dos clientes, porque nas soluções de IA existe um caminho de "feedback", através do qual a informação sobre o produto do cliente pode ser influenciada e/ou alterada. Se o nosso modelo de IA for alimentado por esses dados de produção, cabe ao fornecedor a responsabilidade de garantir que a informação não foi manipulada com objetivos malignos.

Já presenciámos situações em que um simples hack permitiu manipular as informações de SEO da Google, fazendo com que algumas palavras-chaves ficassem associadas aos temas de impacto e às trends do momento.
Enquanto numa aplicação tradicional essa situação tipicamente não acontece (por não existir um modelo automatizado que alimenta o histórico com novos dados), nas situações em que a IA é utilizada a segurança assume um papel essencial.

Em termos de confiança nos produtos com IA, os requisitos são mais rigorosos de que nas soluções tradicionais e os clientes pretendem normalmente alcançar três objetivos:

  • Confiança no processo (definição, desenvolvimento, publicação, etc.);
  • Confiança nos resultados (justiça e bias, capacidade de repetição do processo com o mesmo resultado e segurança de que o produto, entretanto, não foi influenciado internamente e/ou externamente);
  • Confiança no sistema como um todo (começando pelo Suporte e terminando no sistema de valores de empresa fornecedora e nas pessoas envolvidas).

Tal como em tudo na vida, a confiança está longe de ser estática e evolui conforme a situação e as ações das pessoas e entidades envolvidas num qualquer processo. Com tempo, qualquer tecnologia mais avançada vai eventualmente passar de estado “mágico” para apenas “mais uma ferramenta entre muitas”. Mas as ações que influenciam a confiança do mercado podem definir o futuro de qualquer entidade e, no mundo da IA, o mercado está muito mais sensível e mais exigente de ações Éticas e de Transparência nos respetivos processos.

Written by Niko Neugebauer - Cloud Data Architect

Niko Neugebauer é um Data Professional com mais de 20 anos de experiência em TI e um apaixonado por Data Platform and Community.

Na Claranet, Niko faz o que mais gosta de fazer - ajudar os clientes a fazer coisas incríveis, criando, protegendo, analisando e otimizando os seus workloads de dados.
Além de ser mais um fã da Ciência dos Dados, gosta de partilhar pensamentos críticos sobre algumas aplicações zelosas de certos princípios: “quem anda sempre com um martelo na mão…”