Heitor Abreu
top of page

A opacidade das inteligências artificiais

  • Foto do escritor: Heitor Abreu
    Heitor Abreu
  • 21 de nov. de 2022
  • 4 min de leitura

A inteligência artificial (IA), talvez depois da internet, se tornou uma das grandes revoluções tecnológicas dos tempos em que vivemos. Seu potencial disruptivo não pode ser menosprezado. É utilizada nas redes sociais, nos celulares, nos sistemas logísticos, na medicina, na educação, na segurança da informação e na defesa cibernética, dentre outros campos. Sem dúvida, tem propiciado avanços científicos e sociais relevantes, bem como aumento de produtividade, e, até mesmo salvado vidas.

Por outro lado, toda solução tecnológica possui desvantagens e oportunidades de melhoria. Normalmente, a tendência coletiva é que se olhe mais para as vantagens. Todavia, é preciso conhecer as desvantagens para, inclusive, aperfeiçoar a tecnologia e aproveitar melhor suas possibilidades nas gerações futuras de IA. Não se trata de demonizar essa tecnologia; ao contrário, trata-se de auxiliar de forma colaborativa aperfeiçoamentos que se mostram necessários, inclusive no que tange à privacidade.

Dentre os problemas que ainda precisam ser solucionados no desenvolvimento das IA, destacam-se três: a opacidade, o viés de dados e o viés de programação. Nenhum deles é de fácil resolução. Mas o usuário, seja ele uma família ou uma empresa, precisa conhecer os riscos eventuais e as possíveis consequências. Neste artigo, será explorada a opacidade, também chamada de “caixa-preta” ou “problema da interpretabilidade”.

A questão da “caixa-preta” ou opacidade é relevante, notadamente quando os resultados de uma IA influenciam áreas críticas para uma pessoa ou coletividade, como saúde, justiça e mérito, dentre outros. Trata-se de uma característica desse tipo de tecnologia, onde, ao coletarem enorme quantidades de dados para “aprender”, precisam processá-los a fim de entregarem os resultados esperados.

Isso é realizado por meio da aprendizagem de máquina com o uso de “redes neurais de aprendizado profundo” ou deep learning neural networks (DLNN)[1]. Dentre outros aspectos, verifica-se que os algoritmos podem estabelecer correlações que não seriam percebidas e desejáveis no desenvolvimento, dificultado a interpretação ou rastreabilidade de como foi obtido aquele resultado.

Um exemplo recente está descrito na reportagem do site do CanalTech[2], “IA consegue distinguir etnias a partir de raio-x e cientistas não sabem por quê”, baseado no artigo da revista The Lancet, cujo título é AI recognition of patient race in medical imaging: a modelling study[3]. Segundo o texto do CanalTech, verifica-se que:

Uma inteligência artificial provou conseguir diferenciar etnia com base em apenas imagens de raios-X e tomografia computadorizada, nas quais não há diferença identificável, nesse aspecto, para especialistas humanos. Como ela faz isso? Não sabemos, e os cientistas consideram isso preocupante (o grifo é nosso). A precisão na identificação da IA foi de 90%, considerada bastante alta, e a habilidade tem sido estudada desde então.

Os pesquisadores introduziram imagens de tomografia computadorizada e raios-X do corpo humano, realizando diversos filtros a fim de retirar possíveis vieses (IMC[4], por exemplo), a fim de evitar um viés de dados. Mesmo assim, segundo a reportagem, a precisão dos resultados foi de 90%. O problema a ser resolvido é que não se sabe como a IA consegue realizar uma análise tão apurada de etnia com os dados que recebe. Há, é claro, suposições, como a possibilidade de ela identificar pequenas variações de melanina que um ser humano não conseguiria identificar. O fato é que esse episódio possibilita que se tenha uma ideia do que é uma opacidade ou “caixa-preta” e como é complicado rastrear 100% como uma IA “aprende” e chega a um determinado resultado.

Na conclusão do artigo AI recognition of patient race in medical imaging: a modelling study, lê-se em sua conclusão dos autores que:

Recomendamos fortemente que todos os desenvolvedores, reguladores e usuários envolvidos na análise de imagens médicas considerem o uso de modelos de aprendizagem profunda com extrema cautela, pois tais informações podem ser mal utilizadas para perpetuar ou mesmo piorar as disparidades raciais bem documentadas que existem na prática médica.[5]

Disso, surgem diversas perguntas de cunho ético e técnico. Caso essa falha aconteça, quem seria o responsável por um eventual dano? O programador, a empresa que vendeu a IA, quem ofereceu o produto para o paciente ou, até mesmo, ninguém, na medida em que a IA possui uma “caixa-preta” que não pode ser rastreada por completo (opacidade)? Como criar uma metodologia efetiva que consiga eliminar ou, ao menos, mitigar esse problema? Quais os critérios éticos para uso da tecnologia em cada área do conhecimento?

É preciso que os usuários saibam que a IA trabalha no campo da probabilidade e estatística (deep learning/aprendizagem profunda), podendo prever cenários futuros, inclusive, em alguns casos, detalhando o momento em que ocorrerá algum fato, dependendo do tipo de especialização da tecnologia. Ou seja, IA não “pensa” como um ser humano (ainda está longe disso), mas analisa probabilidades de algo ocorrer em função de um modelo estatístico, utilizando dados, o seu "petróleo". Mas como tudo que é estatístico e probabilístico está suscetível a erros, o usuário deve ser informado disso. Evidentemente, a acuracidade de uma IA difere de outra em função de diversos fatores intervenientes.

O problema da IA, pelo menos por agora, não é quando ou se a IA, ou um conjunto delas, vai ou pode dominar o ser humano e o nosso mundo como o conhecemos e entendemos. Essa preocupação é legítima e deve ser considerada, pois ela é uma realidade plausível, goste-se ou não.

Contudo, existe uma questão anterior que deve ser analisada simultaneamente à primeira: como criar processos que verifiquem se em uma determinada IA, eventualmente, possui algum viés, e evitar ao máximo o problema da opacidade, já que ele está ligado a algo precioso para todos os humanos, que é a transparência?

Talvez, seja preciso que todos que fazem uso de IA, reconheçam nessa tecnologia um apoio ou “um parceiro dos especialistas humanos”, nas palavras de Dora Kaufman, auxiliando na tomada de decisões cada vez mais efetivas, tendo em vista que existem problemas relevantes a serem solucionados. Nunca um substituto do Homo sapiens. Vale a reflexão.


[1] Kaufman, Dora. Desmistificando a inteligência artificial. Belo Horizonte: Autêntica, 2022. P.16.

[2] Disponível em: https://canaltech.com.br/ciencia/ia-consegue-distinguir-etnias-a-partir-de-raio-x-e-cientistas-nao-sabem-por-que-216683/

[3] Disponível em: https://www.thelancet.com/journals/landig/article/PIIS2589-7500(22)00063-2/fulltext

[4] Índice de massa corporal.

[5] Tradução livre do autor.

 
 
 

Comentários


bottom of page