INTELIGÊNCIA ARTIFICIAL: RISCOS REAIS E DESAFIOS A SEREM DESBRAVADOS

 


Sabe-se que a Inteligência Artificial (IA) tem causado um grande impacto global, estando inserida em diversos aspectos de nossas vidas, o que chamamos de General-Purpose Technology (GPT), também conhecida por Tecnologia de Propósito Geral, catalisando mudanças profundas e tendências evolutivas à sociedade.

A Tecnologia de Propósito Geral refere-se a inovações tecnológicas que têm um impacto significativo em uma variedade de setores e que impulsionam mudanças econômicas e sociais profundas. Exemplos dessas tecnologias incluem a máquina a vapor, a eletricidade e a internet, que são caracterizadas por sua capacidade de serem amplamente aplicadas, além de evoluírem ao longo do tempo e de criarem novas oportunidades e indústrias.

 Pois bem. Ocorre que, ainda que revestido de tantas benesses, isso nos compele, de certa feita, a descortinar alguns riscos que advirão com esse avanço tecnológico tão acelerado.

Mas antes de atingir o alvo analítico do presente artigo, reputa-se necessário um brevíssimo excerto, para melhor explanação, acerca das fases da Revolução Industrial, que deram azo à Inteligência Artificial dos dias de hoje.

 É sabido que a Revolução Industrial tem sido marcada por fases bastante significativas no contexto da tecnologia. Na 1ª Revolução Industrial (Século XVIII - Inglaterra), houve o desenvolvimento da máquina a vapor; na 2ª Revolução Industrial ( Século XIX - EUA e Europa), a eletricidade teve avanços significativos; na 3ª Revolução Industrial (Século XX - EUA, Europa e Japão), a computação digital se destacou. E, hoje, vivenciamos o curso da 4ª Revolução Industrial (EUA, Ásia e Europa), também conhecida como Indústria 4.0.

A famosa Indústria 4.0 é caracterizada pela integração de tecnologias digitais, físicas e biológicas, que estão transformando, de modo célere, a forma como vivemos e trabalhamos. Como exemplo das principais tecnologias dessa revolução, podemos citar a inteligência artificial, a internet das coisas (IoT), a impressão 3D, a nanotecnologia, a realidade aumentada, os veículos autônomos e a medicina personalizada. Essas tecnologias estão impulsionando inovações em diversos setores, como saúde, transporte, manufatura e agricultura.

Toda essa inovação trazida pela 4ª Revolução Industrial reforçou a importância da coleta massiva de dados, que são o pilar de sustentação dos algoritmos de inteligência artificial nos dias atuais.

A Inteligência Artificial (IA)  foca no desenvolvimento de sistemas e máquinas que podem realizar tarefas normalmente associadas à inteligência humana. Essas tarefas incluem aprender, raciocinar, reconhecer padrões, perceber visualmente, compreender a linguagem natural e tomar decisões.

Sobre isso, pela expertise de uma das figuras mais emblemáticas quando o assunto é IA, o matemático britânico Alan Turing,  também conhecido como o “pai da ciência da computação”, foi desenvolvido o famoso “Teste de Turing”  que reproduzia a seguinte análise:  a IA é considerada “inteligente” se uma pessoa não conseguir distinguir se está interagindo com um humano ou uma máquina. E é exatamente isso que tem criado um mar de desafios quando se trata de distinguir o que é real e o que é reproduzido pela IA nos dias atuais.

Sem mais delongas, ultrapassada a explanação introdutória, transpomos ao principal ponto a ser destrinchado. Afinal, quais são os principais riscos trazidos com o desenvolvimento dos modelos de inteligência artificial? Vejamos nesta sequência.

- OPACIDADE

Os algoritmos complexos, como redes neurais e modelos de aprendizado profundo, muitas vezes operam como "caixas-pretas algorítmicas”. Ou seja, os processos internos são obscuros e os resultados que advêm deles são difíceis de se justificar, até mesmo para os próprios desenvolvedores.

A opacidade algorítmica é problemática, pois muitas decisões automatizadas afetam a vida das pessoas, sem que elas tenham a chance de entender ou questionar o que motivou aquele resultado criado pelo algoritmo. Em setores como segurança pública, saúde e serviços financeiros, a falta de transparência dos algoritmos pode resultar em práticas discriminatórias e decisões injustas.

Por exemplo, um algoritmo pode ser treinado para identificar rostos em uma base de dados que não é representativa de todas as etnias e idades, resultando no denominado “racismo algorítmico”. Isso significa que certos grupos podem ser mais frequentemente identificados de forma errônea ou ignorados, levando a decisões discriminatórias. Assim, a falta de transparência dos algoritmos pode resultar em práticas discriminatórias e decisões revestidas de injustiças.

 - VIESES

Os vieses são naturais em todos os seres humanos, pois decorrem das experiências e dos contextos sociais a que estamos inseridos. No entanto, quando transferidos para os algoritmos, esses vieses podem levar a discriminações negativas.

Os vieses algorítmicos remetem-se aos preconceitos ou preferências herdadas dos dados ou de decisões humanas envolvidas no desenvolvimento dos modelos de IA.  Ocorrem quando os algoritmos tomam decisões ou fazem previsões de maneira parcial ou injusta, gerando consequências graves, especialmente em áreas como justiça criminal, saúde e recrutamento, onde decisões automatizadas podem impactar significativamente a vida das pessoas.

Sobre o tema, há dois leading cases que se destacaram. Citemos.

1)    A Amazon desenvolveu um sistema de IA para automatizar o processo de recrutamento, com o objetivo de analisar currículos e pontuar candidatos. No entanto, descobriu-se que o algoritmo favorecia candidatos masculinos, especialmente para cargos tecnologia da informação. Isso aconteceu porque o sistema foi treinado com dados históricos que refletiam uma predominância de candidatos masculinos em recrutamentos pretéritos. Assim, o algoritmo penalizava currículos que mencionavam palavras como "mulheres" ou que tinham experiências em colégios exclusivamente femininos.

 

2)    A Justiça Criminal dos EUA utiliza um sistema de avaliação de riscos intitulado  COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), a fim de ajudar a determinar se um réu deve ser libertado sob fiança, sentenciado à prisão ou receber outras formas de penalidade. Em 2016, uma investigação da ProPublica revelou que o algoritmo COMPAS apresentava viés racial.

A análise mostrou que o COMPAS tendia a superestimar a probabilidade de reincidência de réus negros e a subestimar a de réus brancos. Isso significava que réus negros eram mais propensos a serem classificados como de alto risco de reincidência, mesmo quando não reincidiam, enquanto réus brancos eram mais frequentemente classificados como de baixo risco, mesmo quando reincidiam.

Quando questionada acerca do suposto viés discriminatório, o COMPAS também alegou que os detalhes específicos dos seus algoritmos eram proprietários e que, por isso, não podiam divulgar as fórmulas exatas e o funcionamento interno do sistema. Eles argumentaram que essa falta de transparência era necessária para proteger sua propriedade intelectual e manter a competitividade no mercado.

Essa posição de manter os algoritmos em segredo, também chamada de Trade Secret, ou Segredo de Empresa, foi uma das principais críticas levantadas, já que a opacidade obstaculiza para terceiros analisar e auditar a equidade e a precisão do sistema.

 - HIPERVIGILÂNCIA

A hipervigilância, conectada com a proteção de dados, refere-se à vigilância constante e intensa de indivíduos por meio de tecnologias avançadas, como câmeras de segurança, reconhecimento facial e análise de dados. Essa prática pode levar a uma invasão significativa da privacidade e à erosão dos direitos individuais.

Pode ser usada para monitorar comportamentos e prever ações, mas também levanta preocupações éticas e legais sobre o uso excessivo de dados pessoais e a falta de transparência nas operações de vigilância. É um dos muitos desafios que precisam ser abordados para garantir que a IA seja desenvolvida e utilizada de maneira ética e responsável.

Os dados pessoais são matéria-prima para o desenvolvimento de modelos de inteligência artificial e utilizados, em massa, sem o devido consentimento.

Um exemplo de hipervigilância envolveu a Meta, no que tange ao uso de reconhecimento facial em suas plataformas de mídia social, como o Facebook. A Meta tem sido criticada por implementar sistemas de reconhecimento facial que monitoram e analisam as fotos e vídeos dos usuários sem seu consentimento explícito. Esses sistemas podem identificar e rastrear indivíduos em diferentes contextos, levantando preocupações sobre privacidade e o potencial uso indevido dessas informações.

Para enfrentar os riscos associados aos algoritmos, é importante adotar uma abordagem multifacetada que inclui várias práticas e políticas.

Os algoritmos oferecem um vasto potencial para transformar positivamente diversas indústrias e aspectos da sociedade. No entanto, seus riscos não devem ser subestimados. A opacidade algorítmica, os vieses embutidos e a hipervigilância podem resultar em decisões injustas, perpetuar desigualdades e ferir direitos fundamentais, como o da privacidade do indivíduo.

Para mitigar esses riscos, é essencial que haja regulamentação adequada, além de adotar práticas de transparência, diversidade de dados, monitoramento contínuo e responsabilidade. Além disso, a educação e o envolvimento da comunidade são cruciais para garantir que a implementação e o uso de algoritmos sejam realizados de maneira ética e justa.

De certo, se realizarmos essas importantes adequações, poderemos usufruir dos benefícios dessas tecnologias e, ao mesmo tempo,  protegermos os direitos e a dignidade de todos.

 

 

 

 

 

 

 




Comentários

Postagens mais visitadas deste blog

INTELIGÊNCIA ARTIFICIAL: A DISCRIMINAÇÃO ALGORÍTMICA E OS RISCOS À ETICIDADE NA SEARA CRIMINAL

A NOVA LEI N° 15.245/2025: INSTRUMENTO DE FORTALECIMENTO DA ATUAÇÃO ESTATAL CONTRA O CRIME ORGANIZADO

DISTINGUISHING E A LEI Nº 15.353/2026: O FIM DA RELATIVIZAÇÃO DO ESTUPRO DE VULNERÁVEL