INTELIGÊNCIA ARTIFICIAL: A DISCRIMINAÇÃO ALGORÍTMICA E OS RISCOS À ETICIDADE NA SEARA CRIMINAL



Artigo adaptado com base no  Trabalho de Conclusão de Curso, apresentado em 30.05.2025, como requisito parcial para a obtenção do título de Pós-graduação em Direito Digital e LGPD pela Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS).


RESUMO 

 

A pesquisa explora a inteligência artificial (IA) e sua crescente influência na automatização de tarefas. Apesar dos avanços, a IA também impõe desafios, como a discriminação algorítmica, que afeta negativamente indivíduos no contexto criminal. O estudo examina como dados enviesados perpetuam injustiças, resultando em decisões equivocadas e reforçando estigmas sociais. Torna-se essencial discutir ética algorítmica, transparência e regulamentação, além de implementar alinhamento e controle algorítmico, visando mitigar vieses e assegurar um uso mais responsável da IA na sociedade.

 

Palavras-chave: discriminação algorítmica, ética e regulamentação.


DEDICATÓRIA

Ao meu amado marido, Eduardo Perin, que, com seu infinito apoio, amor e compreensão, é o alicerce sobre o qual construo meus projetos durante esta caminhada. Ao longo de nossa história, cada desafio superado e cada conquista celebrada tornou-se um reflexo da cumplicidade que nos une. Por vezes, em meio às nossas realizações, encontro-me na incerteza de distinguir a qual de nós dois pertence cada conquista, pois as suas vitórias sempre serão minhas, assim como sei que as minhas também sempre serão as suas. Por tudo isso, dedico a você este trabalho acadêmico, fruto de nossa caminhada conjunta e de tantos conhecimentos adquiridos e compartilhados. Ao nosso amor!

 

SUMÁRIO

 

1.    INTRODUÇÃO 

2.     INTELIGÊNCIA ARTIFICIAL

2.1.     ORIGEM E CONCEITO.. 9

2.2.     TIPOS DE MODELOS DE INTELIGÊNCIA ARTIFICIAL. 15

2.3.     MACHINE LEARNING E DEEP LEARNING.. 19

2.4.     ALGORITMOS E OS PRINCIPAIS DESAFIOS.. 25

2.4.1.     Fundamentos e Vieses Discriminatórios. 25

2.4.2.     Opacidade e Imprevisibilidade Algorítmicas. 33

2.4.3.     Alinhamento Algorítmico.. 36

2.4.4.     Controle Algorítmico.. 42

2.5.     REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL. 47

2.5.1.     Aspectos Gerais. 47

2.5.2.     Panorama Legislativo, sob o contexto global 51

2.5.3.     Panorama Legislativo, sob o contexto brasileiro.. 56

2.6.     LEADING CASES RELACIONADOS A VIESES DISCRIMINATÓRIOS.. 58

2.6.1.     Caso Wisconsin vs. Loomis. 59

2.6.2.     Caso Predpol 61

2.6.3.     Caso Randall Reid.. 62

3.    Considerações Finais.. 64

REFERÊNCIAS


 

1.      INTRODUÇÃO

 

O presente compêndio tem por escopo a análise contextual da inteligência artificial (IA) que, em seu modus operandi, tornou viável a execução de tarefas inicialmente conferidas à inteligência humana. Dentre elas, destacam-se o aprendizado, o reconhecimento de padrões, a interpretação visual de imagens, a compreensão da linguagem oral ou escrita e, principalmente, o poder de sugerir ou decidir, conforme suas próprias percepções alcançadas.

Noutro giro, ainda que apresente um cenário cercado por diversas vantagens otimizadas, a inteligência artificial também se alinha a um outro lado da moeda que tem gerado uma gama de discussões. Tal embate refere-se à discriminação algorítmica, notadamente no que toca à insegurança causada por sua interpretação equivocada e, por conseguinte, as resultâncias negativas geradas aos indivíduos.

Atrelada a isso, surgiu a necessidade de explanação das causas da discriminação algorítmica, analisando-se como dados enviesados e decisões automatizadas podem levar a resultados injustos e cruéis. Sob essa vertente, o referido estudo analisará os desdobramentos atingidos pelo uso da inteligência artificial na seara criminal, no que tange a eventual falta de eticidade algorítmica por meio de vieses discriminatórios.

Nessa conformidade, a discriminação algorítmica advém dos sistemas de IA que, treinados por humanos, ao que bem define machine learning, ou aprendizado de máquina, desenvolvem algoritmos, a partir de dados históricos e experiências passadas dissociadas da realidade fática contemporânea.  Tal entrelace, por sua vez, dá vida a vieses preconceituosos, de modo a perpetuar injustiças irreparáveis aos indivíduos em diversas áreas, especialmente na justiça criminal, resultando, inclusive, em sanções penais severas que, muitas vezes, são erroneamente aplicadas, em razão de estigmas injustificados gerados por algoritmos.

Em verdade, no tocante aos vieses discriminatórios, não se pode olvidar que o preconceito, norteado por cunho racial, econômico, advindo de geolocalização, ou qualquer outro que ameace o bem-estar social do indivíduo, não surgiu com a inteligência artificial, mas muito antes de sua propagação. Como já explicitado, a IA é fruto do treinamento humano que, por sua vez, carrega em suas raízes históricas um cenário de preconceito, seja ele sofrido ou provocado por alguém, refletindo, por conseguinte, nas tarefas desempenhadas pela inteligência artificial.

Assim, com a finalidade de descortinar as consequências negativas de eventuais interpretações errôneas do algoritmo enviesado, mister trazer à baila a apresentação de alguns leading cases atinentes ao ambiente discutido na seara criminal, de forma que sejam ilustrados os problemas em comento e buscadas soluções viáveis para seu combate ou, se inviáveis, a mitigação de seus efeitos.

Nesse trilho, os desafios enfrentados devem ser pautados para se atingir, de modo ético e justo, a promoção do bem-estar social, a fim de combater o lado obscuro da IA, principalmente no uso transparente e responsável de dados pessoais de terceiros.

Alfim, como meio de combate, emerge-se a necessidade iminente de se buscar conscientizar a sociedade dos potenciais riscos advindos da discriminação algorítmica e, por conseguinte, provocar a perseguição de mecanismos para mitigá-los por meio de regulamentações e políticas públicas mais eficientes.



2.      DESENVOLVIMENTO
 
2.1.        ORIGEM E CONCEITO DA INTELIGÊNCIA ARTIFICIAL

 

Antes de ser inaugurada a conceituação de inteligência artificial, mister a apresentação de pontos reflexivos acerca de sua origem. Em que pese ser um tema que, recentemente, invadiu diversos segmentos da vida privada, trata-se de um equívoco acreditar que a referida temática se atém a algo inédito que não fora descoberta antes, em séculos passados.

De certa feita, é compreensível que a maioria das pessoas tenha se deparado com algo que, de fato, parece ser inédito, afinal, não havia anteriormente a necessidade de se afligir com a automatização de serviços, já que o trabalho humano nunca havia sofrido objeções de tamanha complexidade e de projeção global, como as enfrentadas no período de pandemia da Covid-19. Certo é que o trabalho realizado de forma remota teve grande fator colaborativo acerca da necessidade de transmutação de tarefas, e, nesse passo, o uso da tecnologia ganhou contornos ainda mais reforçados e imprescindíveis.

Quando se busca a origem da inteligência artificial, irrefutável que antes se recorra aos feitos do respeitável matemático inglês Alan Mathison Turing, também intitulado o “Pai da Computação”.

Turing, no início da década de 1950, sustentava que os computadores deveriam ser referenciados como um sistema capaz de responder a qualquer tipo de problema, segundo relatado pela Revista Científica Nature, em seu artigo denominado “Turing at 100: Legacy of a Universal Mind” que, em tradução livre, significa “Turing aos 100 anos: Legado de uma Mente Universal”.

Dentre os seus escritos, o matemático britânico ficou amplamente conhecido pela criação do “Teste de Turing”, tendo como finalidade a avaliação da existência de equivalência de comportamento entre a máquina e o ser humano, no quesito inteligência.

Assim, o teste analisava o comportamento da máquina, de modo que seria considerada inteligente se, durante a sua interação com uma pessoa, esta não fosse capaz de distinguir se estava interagindo com outro ser humano ou uma máquina.

Para melhor entendimento, recorre-se aos ensinamentos do Doutor e Mestre em Matemática Aplicada, George F. Luger:

 

O teste de Turing mede o desempenho de uma máquina, aparentemente inteligente, em relação ao desempenho de um ser humano, indiscutivelmente o melhor e único padrão de comportamento inteligente. O teste, que foi chamado de jogo de imitação por Turing, coloca a máquina e seu correspondente humano em salas separadas de um segundo ser humano, referido como o interrogador [...]. O interrogador não é capaz de ver nenhum dos dois participantes ou de falar diretamente com eles. Ele também não sabe qual entidade é a máquina e só pode se comunicar com eles por um dispositivo textual, como um terminal. A tarefa do interrogador é distinguir o computador do ser humano utilizando apenas as respostas de ambos a perguntas formuladas por meio desse dispositivo. Se o interrogador não puder distinguir a máquina do ser humano, então, argumenta Turing, pode-se supor que a máquina seja inteligente (Luger, 2013)[1].

 

Desta feita, infere-se que o Teste de Turing teve como objetivo a tentativa pioneira de questionamento acerca da capacidade de pensar das máquinas, além de abrir novos horizontes para que fossem discutidos os limites entre inteligência humana e inteligência artificial, razão pela qual tornou-se referência histórica no contexto da IA.

A história de Alan Turing teve tanta repercussão no universo da computação moderna, que deu ensejo à criação do filme intitulado “The Imitation Game” que, em sua tradução, significa “O Jogo da Imitação”. A referida biografia narra os desafios enfrentados durante a Segunda Guerra Mundial, quando Turing e sua equipe trabalharam para decifrar o código Enigma, de origem nazista, para envio de mensagens secretas. Tal iniciativa foi capaz de contribuir para o fim do conflito e, por conseguinte, salvou milhões de pessoas (Wikipédia, 2025)[2].

Não bastasse a contribuição de Alan Turing, não se pode ultrapassar a referida explanação sem antes citar o ano de 1956, quando o então matemático e pesquisador da área de ciência da computação, John McCarthyl, organizou um workshop chamado Dartmouth Summer Research Project on Artificial Intelligence, ocorrido em Darthmouth College, em conjunto com outros grandes cientistas da computação e matemáticos: Marvin Minsky, Nathaniel Rochester e Claude Shannon. O evento visou à discussão de uma proposta acerca da criação de máquinas que simulavam a inteligência humana.

Sobre a referida proposta, importante sua transcrição para melhor ilustração do tema aqui versado:

 

Propomos que um estudo de 2 meses e 10 homens sobre inteligência artificial seja realizado durante o verão de 1956 no Dartmouth College em Hanover, New Hampshire. O estudo deve prosseguir com base na conjectura de que todo aspecto do aprendizado ou qualquer outra característica da inteligência pode, em princípio, ser descrito com tanta precisão que uma máquina pode ser feita para simulá-lo. Será feita uma tentativa de descobrir como fazer as máquinas usarem a linguagem, formarem abstrações e conceitos, resolverem tipos de problemas agora reservados aos humanos e se aprimorarem. Acreditamos que um avanço significativo pode ser feito em um ou mais desses problemas se um grupo cuidadosamente selecionado de cientistas trabalharem juntos nele por um verão (McCarty et al., 1956)[3].

 

O evento da Conferência de Dartmouth ganhou importante destaque, uma vez que seus organizadores, cada um com suas análises e raciocínio próprios, trouxeram perspectivas únicas que ajudaram a melhor elucidação do campo em debate. São eles: John McCarthy, criador do termo "inteligência artificial"; Marvin Minsky, pioneiro em robótica; Claude Shannon, pai da teoria da informação; dentre outros.

A conferência inaugurou relevantes avanços no campo da IA, uma vez que foram criados conceitos inovadores como aprendizado de máquina, redes neurais e processamento de linguagem natural, que hoje possuem contornos ainda mais avançados.

Além disso, a conferência também impulsionou o enfoque de pesquisas atinentes à relação entre máquinas e inteligência humana, além de tornar perceptível a importância de se cruzar áreas, interligando-se a uma colaboração interdisciplinar, já que a reunião de matemáticos, engenheiros e cientistas da computação demonstrou-se promissora para a persecução de avanços tecnológicos mais eficientes.

Em 29 de outubro de 1969, A ARPA (Advanced Research Projects Agency), que é uma agência do Departamento de Defesa dos Estados Unidos, desenvolveu a ARPANET (Advanced Research Projects Agency Network), a primeira rede de computadores do mundo que utilizou o “conceito de comutação de pacotes de dados à longa distância e a implementar o protocolo de rede NCP (Protocolo de Controle de Rede) e o protocolo de internet TCP/IP (Protocolo de Controle de Transmissão/Protocolo de Internet)” (Wikipedia, 2025)[4].

Também conhecida como a “Mãe da Internet”, a ARPANET foi originada por um estudante da Universidade da Califórnia, em Los Angeles, que enviou um “comando a outro computador no Instituto de Pesquisa de Stanford, a cerca de 560 Km de distância que deu errado, ocasionando no travamento do sistema de Stanford, após as duas primeiras letras serem recebidas” (Rigues, 2019)[5].

O ponto de partida para que a ARPANET caminhasse para o que hoje intitula-se internet foi a sua conexão a outras redes de pesquisa que surgiram mais tarde, como a NSFNet (National Science Foundation Network, criada para interligar centros de supercomputação nos EUA), a NASA Science Network e redes educacionais como a Bitnet e CSNET, que conectavam universidades nos EUA (Rigues, 2019)[6].

Nessa toada, entre a década de 1950 até os anos 1970, enraizou-se a expressão “Primavera da Inteligência Artificial”, fazendo-se alusão a um período que os estudos sobre a IA se intensificaram. Diversas instituições governamentais e privadas, como a ARPA, investiram em pesquisas que alavancaram a tecnologia.

A partir desses feitos, com a instauração da internet, a inteligência artificial tomou rumos ainda mais promissores, com pesquisas avançadas que potencializam seu caráter evolutivo até os dias de hoje.

Percorridos os fatores que deram origem ao termo inteligência artificial, necessário adentrar-se em sua definição. Todavia, em verdade, conceituá-lo é tarefa que muito se atrela à narrativa de sua própria origem, que já fora explicitada no presente ensaio. Desta feita, com o fito de contextualizar acerca da definição de Inteligência Artificial, não há outro caminho senão o de retornar-se ao ponto de seu nascedouro.

 Assim, como dito alhures, em meados de 1950, Alan Turing já havia projetado o conceito de IA, quando apresentou o famoso Teste de Turing, que tinha como objetivo desafiar a capacidade das máquinas de pensar e avaliar o grau de proximidade entre a inteligência artificial e a inteligência humana.

Já em 1956, durante a Conferência de Investigação de Dartmouth, J. McCarthy, que também foi conhecido como um dos “Pais da IA”, cunhou o conceito de inteligência artificial, definindo-a como:


A ciência e engenharia de fazer máquinas inteligentes, especialmente programas de computador inteligentes. Está relacionada à tarefa similar de usar computadores para tornar inteligentes trabalhos não relacionados a computadores (McCarthy, 1956)[7].

 

 Por esse trilho, para Mc McCarthy, ao criar as referidas máquinas, utiliza-se a inteligência de computadores que se assemelha à inteligência humana, sem restringir-se exclusivamente a métodos observáveis na biologia.

Certo é que o termo Inteligência Artificial se refere ao ramo da ciência da computação que tem por escopo a criação de sistemas capazes de reproduzirem tarefas que, até então, só eram executadas sob a dependência da inteligência humana.

Diversos autores consagrados no ramo da ciência da computação também se dedicaram à referida pauta para a definição de Inteligência Artificial.

Nesse passo, a IA foi muito bem definida pelo cientista da computação, grego-britânico e professor na Virginia Tech, Dimitrios S. Nikolopoulos:  

 

A Inteligência Artificial é um campo de estudos multidisciplinar, incluindo computação, engenharia, psicologia, matemática e cibernética, cujo principal objetivo é construir sistemas que apresentem comportamento inteligente e desempenhem tarefas com um grau de competência equivalente ou superior ao grau com que um especialista humano as desempenharia (Nikolopoulos,1997)[8].

 

Em contrapartida, dissociando-se de outros autores, sob um ponto-de-vista contemporâneo, destaca-se o renomado neurocientista brasileiro Miguel Nicolelis, em seu discurso acerca de uma definição assertiva de IA.  Para ele, “a Inteligência Artificial nem é inteligente nem é artificial” (Nicolelis, 2025, apud Nunan, 2025)[9]. Nesse esteio, infere-se que a frase foi utilizada para criticar a forma como a IA é compreendida e promovida na sociedade.

Para Nicolelis, a IA não é verdadeiramente "inteligente" porque não possui cognição, consciência ou criatividade genuína, características que são privativas de seres vivos. Em vez disso, baseia-se em algoritmos matemáticos e análise de dados registrados historicamente, sem compreender o cenário do mundo ao seu redor (Nicolelis, 2025, apud Nunan, 2025)[10].

Além disso, ele afirma que a IA não pode ser considerada "artificial" no sentido lato da palavra, já que a sua criação se deu por seres humanos e são eles que sustentam a sua base de dados. Desta feita, na perspectiva de Nicolelis, a IA replica em suas atividades os dados armazenados por humanos, que, por sua vez, já estão contaminados por vieses discriminatórios, tornando-se mais uma extensão da inteligência humana (Nicolelis, 2025, apud Nunan, 2025)[11].

Seguindo a mesma linha, segundo o pensar do pesquisador que é referência no campo da inteligência artificial, Stuart Russell (apud Kaufman, 2022)[12]:

 

[...] a crença de que estaríamos na eventualidade de perder o controle sobre as “máquinas inteligentes” baseia-se em um erro inicial na definição de IA. Para começar, as máquinas não são “inteligentes” no sentido dado pelos seres humanos – ser capaz de agir para atingir objetivos próprios –, pelo contrário, elas não têm objetivos, são os seres humanos que imputam seus objetivos nos sistemas inteligentes (são máquinas de otimização). O que não impede, no entanto, que as máquinas inteligentes encontrem soluções melhores do que os seres humanos, o que é uma realidade com as tecnologias de IA (Kaufman, 2022).

 

Em que pese demonstrar uma perspectiva que vá de encontro às anteriormente citadas, cada conceituação de IA aqui trazida demonstra possuir um parecer acertado. Se por um lado defende-se que a IA guarda relação com máquinas inteligentes que se confundem com a inteligência humana, por outro é inegável que um humano está por trás delas, ensinando-a a raciocinar, decidir e praticar todas as tarefas que um indivíduo executaria.

Seguindo esse norte, não se pode olvidar que as tarefas desempenhadas pela IA possuem correlação com a base de dados já registrados por alguém que, inevitavelmente, possui suas próprias convicções inerentes à sua inteligência humana. Além disso, sofre influência também em razão do meio social em que se encontra inserido, criando-se uma atmosfera subjetiva e, por muitas vezes, repleta de vieses discriminatórios.

Após discorrer de forma suscinta sobre o seu surgimento e a sua definição, abre-se caminho para explorar os tipos de modelos de Inteligência Artificial, para melhor contextualização ao tema central a ser atingido.

 

2.2. TIPOS DE MODELOS DE INTELIGÊNCIA ARTIFICIAL

 

De modo geral, sabe-se que a inteligência artificial tem catalisado constantes mutações no que tange ao modo interativo da sociedade com o mundo, integrando-se a diversos segmentos da vida privada. Assim, para melhor compreensão do impacto gerado, reputa-se necessário parametrizar os tipos de inteligência artificial, com enfoque no critério da capacidade de seu alcance de inteligência, conforme será verificado nesta sequência.

A- Inteligência Artificial Limitada ou Narrow Artificial Intelligence (NAI)

Também conhecida como “IA fraca”, trata-se de um tipo designado para desempenhar tarefas específicas. Ou seja, ela é treinada para cumprir a determinação de um comando ou um conjunto de comandos de forma limitada, como o reconhecimento de voz.

Dito por outro modo, esse tipo de inteligência artificial tem por escopo principal “realizar as atividades para as quais foi programada, armazenando uma grande quantidade de dados e fazendo cálculos complexos com rapidez. Por isso é capaz de realizar funções específicas e solucionar problemas pré-determinados” (Baldissera, 2023)[13].

Nesta via, a NAI restringe-se ao cumprimento de tarefas específicas, como as de responder a perguntas, informar sobre determinado assunto a que foi questionada, sem o uso de um raciocínio muito elaborado que extrapole seu domínio.

Mister ainda mencionar que “esse tipo de Inteligência Artificial usa machine learning, deep learning e processamento de linguagem natural para se autoaprimorar, porém não tem o mesmo desempenho nem versatilidade do cérebro humano” (2023, op.cit.)[14]. Tais conceitos serão abordados em seção própria no presente ensaio científico.

Exemplificando, pode-se citar os assistentes virtuais, como a Siri, atrelada ao sistema operacional da Apple; o Google Assistente, do sistema operacional Android e; a Alexa, que é alimentada por um conjunto de tecnologias baseadas em computação em nuvem da Amazon Web Services (AWS). Todos eles podem, inclusive, ser ativados por comando de voz e, em obediência ao que lhes for atribuído, poderão efetuar ligações telefônicas, informar sobre a previsão do tempo, selecionar uma música para ser reproduzida, além de várias outras funcionalidades.

De igual modo, as redes de streamings também se inserem nesta rota, classificando-se como NAI, uma vez que, com base no histórico de navegação do usuário e no seu padrão de comportamento, realizam a leitura de suas preferências, sugerindo filmes e séries.

B- Inteligência Artificial Geral (IAG) ou Artificial General Intelligence (AGI):

A Inteligência Artificial Geral (IAG), também conhecida como a “IA forte”, refere-se a um tipo de IA com abrangência mais ampla, uma vez que possui a capacidade de realizar múltiplas tarefas que, a princípio, seriam executáveis somente através de um ser humano. Possui grande facilidade de adaptação a diversas situações, improvisando, se for necessário, mas sempre entregando respostas, ainda que não tenham sido pré-programadas, em uma velocidade excepcional.

Uma distinção das soluções baseadas em IAG, se comparada às demais IA’s, é que a sua abordagem é mais abrangente, diante de um desafio a ser enfrentado. Assim, “em vez de serem limitadas a funções específicas, [...] podem adaptar-se a uma ampla gama de desafios. Esse atributo é essencial para que os sistemas possam operar em contextos variados, ampliando seu potencial de aplicação” (Duarte, 2025)[15].

É cediço que o objetivo da criação desses sistemas com ampla capacidade cognitiva é o de tornar-se equivalente ou até superior às capacidades da inteligência humana. Assim, torna-se cada vez mais relevante e promissora a pesquisa tecnológica da IAG, a fim de se alcançar uma inteligência adaptável e autônoma, atingindo, por fim, um elevado avanço das tecnologias de IA.

Ressalta-se que, embora não tenha sido ainda confirmado se a IAG se tornou uma realidade, é possível compreendê-la através de exemplos hipotéticos. Acredita-se que quando atingir sua concretude, será possível, a título de exemplo, a existência de veículos autônomos com poder de decisão em situações inesperadas; diagnósticos médicos avançados, com eficiência superior aos tradicionais, que hoje ainda são realizados por profissionais da medicina; a tomada de decisão global, a fim de orientar líderes do Governo a resolver problemas globais existentes, como conflitos políticos, segurança pública, pobreza, além de outros.

Por outro giro, uma notícia recente surpreendeu muitas pessoas. Em março de 2025, foi lançado o Manus AI, um agente autônomo desenvolvido pela startup chinesa Monica. Alguns especialistas têm questionado se essa nova ferramenta poderia ser considerado a primeira IA Geral, considerando seu alto nível de desempenho.

O Manus AI se destaca por sua capacidade de executar tarefas complexas e multidisciplinares de forma independente, reduzindo a necessidade de comandos diretos, diferentemente de assistentes tradicionais como ChatGPT e DeepSeek. A ferramenta é capaz de planejar, executar e entregar resultados sozinha, além de possuir capacidades multimodais, processando e gerando diversos tipos de dados, como texto, imagens e códigos. Resta agora a confirmação se, de fato, se trata de uma IA Geral (Giannini, 2025)[16].

C- Superinteligência Artificial ou Artificial Superintelligence (ASI)

Tal modalidade de inteligência, assim como a Inteligência Artificial Geral, ainda não se encontra inserida no domínio da realidade concreta, permanecendo exclusivamente na esfera teórica e especulativa, embora ganhe contornos cada vez mais realistas, considerando a célere evolução tecnológica.

A ASI também recebeu o rótulo de “IA Forte”, mas, ao que tudo indica, parece ser ainda mais potente que a AGI, no que tange ao seu grau de inteligência. Sua compreensão refere-se “a uma forma de inteligência que supera significativamente a inteligência dos seres humanos em praticamente todos os aspectos, incluindo criatividade, resolução de problemas e tomada de decisões” (Barbosa, 2023)[17].

Por outras palavras, acredita-se que a ASI poderá superar a capacidade cognitiva de uma pessoa dotada de um coeficiente de inteligência acima de 140, ou seja, os intitulados gênios, como Albert Einstein ou Stephen Hawking, por exemplo.  E mais, sua inteligência não se restringiria apenas a um segmento, mas abrangeria qualquer um, seja no campo da ciência, da arte, da medicina, da literatura ou de qualquer outra.

Nas palavras de Nick Bostrom, filósofo sueco, especialista em ética na inteligência artificial e professor da Faculdade de Filosofia da Universidade de Oxford, a superinteligência pode ser definida como “qualquer intelecto que exceda em muito o desempenho cognitivo dos seres humanos em praticamente todos os domínios de interesse” (Wikipédia, 2025)[18]. Ele defende, inclusive, que esse elevado grau de inteligência seria capaz de atingir níveis inalcançáveis pela humanidade, de modo a tornar-se possível a solução de problemas enigmáticos, que hoje são considerados impossíveis de serem decifrados.  

Ainda que o impulso das pesquisas científicas revele que a inteligência artificial avança de forma acelerada rumo a um futuro promissor e capaz de desobstaculizar inúmeros desafios globais, é fundamental que esses avanços sejam acompanhados por reflexões éticas, políticas e sociais. A criação de superinteligências demanda um compromisso sólido com a segurança, a transparência e o alinhamento, garantindo que o impacto dessas tecnologias seja benéfico e em conformidade com os valores humanos, além de não colidir com a legislação vigente.

Nick Bostrom também ganhou notoriedade com seu livro "Superinteligência: Caminhos, Perigos e Estratégias", no qual aborda, entre outros temas, a constante preocupação com os riscos associados ao desenvolvimento dessa superinteligência. Ele alerta que, caso os objetivos de uma superinteligência não sejam cuidadosamente alinhados com os valores humanos, ela pode representar um perigo existencial para a humanidade (Brostom, 2016)[19].

O risco da superinteligência tem afligido diversos estudiosos no campo da IA, que se alinham às percepções de Brostom acerca das consequências advindas, caso esse avanço se torne realidade. Acredita-se que a superinteligência, se alcançada, seja capaz de auxiliar pesquisas científicas de maior complexidade, trazendo soluções para questões relevantes, por exemplo. Entretanto, ela também poderá ser capaz de tomar decisões de acordo com suas próprias convicções, ignorando os comandos de seres humanos e, mais ainda, diante dessa perda de controle, ser responsável pela eliminação da humanidade.

Assim, a superinteligência, quando confirmada, colocará em alerta maior a questão da perda do controle, propiciada pela tomada de decisões em grande escala, afetando, sobretudo, a questão do alinhamento. Em outras palavras, é possível que a IA realize a tomada de decisões de acordo com suas próprias convicções, sem avaliar as peculiaridades de cada situação e seus eventuais danos colaterais, ou seja, não alinhada com os valores humanos. Desta feita, pequenos erros de interpretação de uma superinteligência podem ser capazes de causar danos irreparáveis, gerando uma preocupação globalizada.

 

2.3. MACHINE LEARNING E DEEP LEARNING

 

Após discorrer acerca dos principais tipos de IA, sob o contexto da capacidade, mister registrar mais outro ponto crucial para se caminhar à linha de chegada do presente estudo. Trata-se de dois campos da IA de grande relevância, mais conhecidos como machine learning e deep learning.

Traduzida pela expressão “aprendizado de máquina”, a machine learning refere-se à capacidade do sistema de computação de aprender, sem a necessidade de ser treinado para determinado fim específico, embora também pareça forçoso considerá-la uma espécie de sistema “autodidata”. Ainda que seu aprendizado não esteja interligado à prévia programação de tarefas, é necessário o registro de dados e de algoritmos, a fim de viabilizar uma melhoria de seu desempenho para atingir determinado objetivo.

Dito por outras palavras, após “detectar vários padrões que estão presentes em um determinado conjunto de dados, enviam-se dados iniciais a um algoritmo de Machine Learning, que executa o treinamento desse modelo para aprender a identificar os padrões nos dados (Costa, 2024)[20]”.

Nesse contexto, o aprendizado de máquina possibilita que sistemas computacionais aprendam e se aprimorem de forma autônoma, a partir do vasto conjunto de dados a que são expostos. Pode-se afirmar que, a partir dos dados recebidos pelo sistema, ele irá detectar padrões de modo autônomo, sem a necessidade de comandos para sua atuação.  Em seguida, “a máquina aprende a classificar e interpretar as informações de maneira autônoma, aprimorando seu desempenho conforme é exposta a mais dados (Matos, 2025)[21].

Ademais, os inputs (dados recepcionados) são processados pelos algoritmos de Machine Learning, gerando outputs (resultados gerados) adaptativos. Ou seja, o sistema detectará padrões e, com base nestes, sem a necessidade de uma prévia programação, de forma autônoma e improvisada, a IA tomará decisões, com base em novos dados.

Desta feita, primando-se por uma resposta mais eficiente, em vez de seguir regras fixas para que seja cumprida uma determinada tarefa, seu desenvolvimento se dá por meio do treinamento com dados e algoritmos e, por conseguinte, seu desempenho torna-se mais refinado.

Sobre isso, inclusive, importante brevíssima menção acerca do conceito de algoritmo, já que sua abordagem será complementada posteriormente em outra sequência, de modo mais aprofundado. Sendo assim, a definição de algoritmo refere-se a uma “sequência lógica, finita e definida de instruções que devem ser seguidas para resolver um problema ou executar uma tarefa” (Pereira, 2024)[22].

Assim, é imprescindível que se compreenda que os algoritmos estão presentes em quase tudo na sociedade, baseando-se no comportamento de cada indivíduo, em suas interações virtuais em redes sociais, por exemplo, e em diversas situações, de modo geral. Se uma pessoa pesquisa hotéis de uma determinada cidade, é possível que o algoritmo passe a indicar opções variadas de comidas típicas daquele lugar, ou até opções de passagens aéreas para que desperte nela o desejo consumerista.

De mesma importância, também cabe definir dados, de modo suscinto, a fim de tornar compreensível a presente explanação. Desse modo, “dados estruturados são dados que têm um formato padronizado para facilitar o acesso por pessoas e máquinas. É o caso das planilhas de Excel, que organizam as informações em tabelas, linhas e colunas, por exemplo” (Pontifícia Universidade Católica do Paraná, 2023)[23]

Embora não se tenha a intenção de explorar com afinco expressões que são mais utilizadas no campo da tecnologia da informação, tornou-se relevante fazer essa breve alusão ao que se denomina dados, já que auxilia a compreensão do que representa o aprendizado de máquina. 

De modo resumido, os algoritmos, por sua vez, são compostos por uma sequência lógica de instruções, com a finalidade de resolver um problema ou cumprir uma determinada tarefa. Eles possuem “dados de entrada (input), processamento e dados de saída (output)” (Coelho, s.d.)[24],como bem definido no exemplo retrocitado das planilhas de Excel.

Por derradeiro, salta-se à definição de deep learning (DL), que, em sua tradução refere-se à expressão “aprendizado profundo”. Refere-se a uma subárea no campo da IA, relacionada à criação de algoritmos que possuem a capacidade de aprendizado e tomada de decisões, tendo como embasamento grandes volumes de dados, mediante a utilização de redes neurais artificiais (RNAs).

Em se tratando da expressão “redes neurais artificiais”, importante também breve adendo para melhor compreensão. As RNAs, na verdade, são sistemas computacionais que simulam o funcionamento do cérebro humano, sendo considerados “neurônios artificiais” que se assemelham aos biológicos. Ademais, elas desempenham um importante papel na operação da chamada IA generativa (IA gen), ou seja, “é a inteligência artificial (IA) que pode criar conteúdo original, como texto, imagens, vídeo, áudio ou código de software, em resposta a um prompt ou solicitação do usuário (Stricker, Scapicchio, 2024)”[25].

Retornando ao ponto da deep learning, importante mencionar que elas “funcionam identificando e codificando os padrões e relacionamentos em grandes quantidades de dados e, em seguida, usando essas informações para entender as solicitações ou perguntas de linguagem natural dos usuários (Stricker; Scapicchio, 2024)”[26]. Ao final, após essa análise, é possível entregar novos conteúdos relevantes, em resposta ao que lhe foi apresentado.

Com efeito, o deep learning organiza representações complexas em múltiplas camadas, de modo que expressem conceitos progressivamente mais intricados, a partir de representações elementares que a embasam.

 

Essa estrutura codifica uma função matemática que mapeia conjuntos de valores de entrada (inputs) para valores de saída (outputs); redes com maior profundidade (mais camadas) têm apresentado resultados positivos em várias áreas, particularmente em visão computacional e reconhecimento de voz e imagem (Cozmam; Kaufman 2022)[27].

 

Conforme apregoado pelo Mestre e Doutor em Engenharia Elétrica, Dr. Oscar Gabriel Filho, que recebeu o prêmio David A. Wilson 2009 - Excellence in Teaching and Learning, promovido pela Laureate International Universities, em Miami, “o que justifica a denominação de Aprendizagem Profunda é a grande quantidade de camadas intermediárias da rede neural utilizada, o que vai exigir certas especificidades na configuração da rede para assegurar sua rápida convergência" (Gabriel Filho, 2023)[28].

Assim, no que atine às camadas em comento, cumpre ressaltar que estas possibilitam ao modelo a apreensão de representações dos dados em variados níveis de abstração, sendo características mais simples ou até padrões de elevada complexidade.

Infere-se que as redes profundas, enquanto ferramenta avançada de aprendizado de máquina, guardam analogias notáveis com o funcionamento do cérebro humano no processamento de informações. Este utiliza uma extensa rede de neurônios biológicos de forma paralela e distribuída, ao passo que as redes profundas replicam tal abordagem por meio de uma grande quantidade de neurônios artificiais em suas camadas ocultas.

A referida analogia busca aproximar a operação das redes profundas à maneira biológica de processamento da informação. Sobre essa vertente, inclusive, o Dr. Oscar Gabriel Filho, mais uma vez, contribui com seus escritos de maneira bastante elucidativa, oferecendo sua análise sobre o tema:

 

A concepção das redes profundas se aproxima mais da maneira como o cérebro humano faz para processar os sinais provenientes da rede sensorial humana, ao envolver uma grande quantidade de neurônios biológicos no seu processamento paralelo e distribuído. Assim, essa maneira biológica de operar tenta ser copiada pelas redes profundas, no aspecto do paralelismo pela grande quantidade de neurônios artificiais em cada uma de suas camadas escondidas, e no aspecto da distribuição pela grande quantidade de camadas escondidas (Gabriel Filho, 2023)[29].

 

À luz das conceituações previamente delineadas, impõe-se, neste próximo percurso, uma análise sucinta e distintiva das nuances concernentes à machine learning e à deep learning, considerando suas particularidades mais relevantes, no tocante ao escopo do presente ensaio.

Sob um panorama geral, no que diz respeito às especificidades de cada uma, importante destacar que a machine learning refere-se a um conjunto de técnicas de aprendizado automático com dados, sem a necessidade de serem programadas. Ou seja, seu treinamento consiste na utilização de exemplos que servem para ajustar os modelos.

A deep learning, por sua vez, constitui uma subárea da machine learning que utiliza redes neurais mais profundas, dotada de múltiplas camadas de neurônios artificiais. Diferentemente da machine learning, a deep learning possui, em seu ambiente, padrões mais complexos em seus dados, oferecendo resultados mais precisos e com elevada capacidade de resolução de problemas.

Ademais, enquanto a machine learning é menos complexa, com poder computacional baixo, exigindo técnicas menos sofisticadas, como árvores de decisão e regressão, a deep learning possui habilidades superiores, semelhantes às do cérebro humano, com maior capacidade de processamento de volumes de informações, como imagens e linguagem natural.

Alfim, à guisa de aprofundar a análise e tornar mais compreensíveis os conceitos até aqui expostos, revela-se oportuno trazer à baila exemplos práticos que ilustram a aplicabilidade das subáreas em questão.  

Em cumprimento ao proposto alhures, na tentativa de levar o conceito de machine learning à concretude moderna, pode-se citar os sistemas de recomendação utilizados em plataformas de streamings de imagem ou de áudio, como a Netflix e o Spotify. É comum que os usuários, ao acessarem determinado tipo de conteúdo, deparem-se, posteriormente, com sugestões do mesmo segmento. Os algoritmos, ao registrarem as predileções dos usuários, passam a lhes ofertar conteúdos de mesmo estilo, uma vez que observados os seus padrões de consumo de modo individualizado.

Já no tocante ao deep learning, um exemplo de significativa relevância reside no reconhecimento facial, utilizando-se redes neurais profundas que identificam padrões faciais de modo analítico, possibilitando a autenticação de usuários. Tem como propósito a substituição de senhas e PINs, diante da fragilidade apresentada no quesito segurança, após o aprimoramento de ações criminosas atinentes a ataques causados por hackers.

Conquanto o reconhecimento facial se apresente como uma solução que oferece maior segurança ao usuário, se comparado à utilização de senhas e PINs, há de se reconhecer a ocorrência de casos emblemáticos que evidenciam sua falibilidade.

Em outras palavras, a utilização de reconhecimento facial de modo descuidado, pode incorrer em equívocos graves, culminando, inclusive, em prisões injustas passíveis de reparações indenizatórias por erro do Estado. São colocadas em debate a antieticidade, muitas vezes do Estado, emergindo, em alguns casos, o direito à indenização por danos morais experimentados pela vítima. Tal temática será explorada em tópico próprio de modo mais pormenorizado.

Sob a égide de todo o exposto, cumpre ressaltar que as subáreas da IA, machine learning e deep learning, desempenham papeis de grande relevância na ambiência algorítmica em diversos contextos. Contudo, imprescindível destacar que as decisões automatizadas engendradas pelos algoritmos podem incorporar vieses em sua essência, levantando questões que poderão afetar a sua eticidade.

Por essa razão, faz-se necessário um exame mais minucioso acerca dos vieses discriminatórios, porventura existentes. Além disso, mister a abordagem de fatores como a opacidade, o alinhamento, o controle e suas implicações éticas e jurídicas, com vistas à adoção de medidas que promovam a prevenção do impacto desses “estilhaços” potencialmente prejudiciais, decorrentes do uso inadequado de algoritmos.

 

2.4. ALGORITMOS E OS PRINCIPAIS DESAFIOS

 

2.4.1.   Fundamentos e Vieses Discriminatórios

 

Ultrapassadas as explanações anteriores, consideradas elementares para a melhor compreensão do que, de fato, objetiva o presente ensaio, alcança-se o momento oportuno para esmiuçar acerca do papel dos algoritmos, enquanto ferramenta tecnológica que permeia o universo jurídico. Tal imbricação entre tecnologia e direito tem suscitado embates de elevada significância, notadamente, no que toca à ética aplicada aos algoritmos.

Embora a conceituação dos algoritmos já tenha sido previamente delineada, faz-se necessária sua retomada, sob uma perspectiva mais aprofundada, considerando sua relevância na esfera jurídica.

Para tanto, os algoritmos referem-se a uma sequência lógica de instruções que devem ser observadas com a finalidade de resolver determinado problema, ou cumprir tarefas específicas, assemelhando-se a um roteiro sistemático. Ademais, para seu melhor desempenho e entrega eficiente de resultados, é imprescindível a observância de suas diretrizes.

A Resolução 332/2020 do Conselho Nacional de Justiça (CNJ) que dispõe sobre a ética, a transparência e a governança na produção e no uso de Inteligência Artificial no Poder Judiciário, em seu artigo 3.º, I, define algoritmo como “sequência finita de instruções executadas por um programa de computador, com o objetivo de processar informações para um fim específico” (Conselho Nacional de Justiça, 2020, p. 3)[30].

Sob o mesmo contexto, o Blog PUCRS Online em seu artigo “Algoritmos na lei: automação jurídica” traz importante reflexão acerca da definição de algoritmos e sua crescente influência no campo jurídico:

 

Os algoritmos são sequências finitas de instruções bem definidas, destinadas a resolver problemas específicos ou realizar cálculos. Em um contexto jurídico, isso significa que algoritmos podem ser usados para otimizar tarefas que tradicionalmente exigem intervenção humana. A aplicabilidade de algoritmos em ambientes jurídicos se reflete em diversas práticas, como a pesquisa de jurisprudência, a automação de documentos e até mesmo questões de legislação. Os profissionais do direito que compreendem como os algoritmos funcionam conseguem aproveitar essa tecnologia para ganhar vantagem competitiva (Pontifícia Universidade Católica do Rio Grande do Sul, 2025)[31].

 

Nota-se que os algoritmos de inteligência artificial estão presentes em vários segmentos, sendo aplicados em diferentes ramos, seja na saúde, quando realizam o seu monitoramento através de aplicativos; na automação industrial, em que as fábricas utilizam máquinas para realizar tarefas específicas, de forma mais célere e precisa; em recrutamentos de emprego, quando auxiliam na triagem de candidatos, além de outros. Tais soluções são conhecidas como Tecnologias de Propósito Geral (TPGs) ou General Purpose Technologies (GPTs), capazes de gerar elevado impacto em diversos setores.

Por seu turno, a IA enquadra-se no rol das tecnologias de propósito geral, ao passo que detém o poder de realizar transformações e fomentar melhorias estruturais de grande valia em diversos segmentos da tecnologia, os quais, eram antes considerados resistentes à evolução. É considerada uma GPT revolucionária, ainda pendente de regulamentações.

Sobre isso, importante observação da Doutora Dora Kaufman, pesquisadora e professora da PUC-SP, pós-doutora pela UFRJ e PUC-SP e doutora pela USP, com vasta experiência em inteligência artificial:

 

As tecnologias não são todas iguais, algumas adicionam valor incremental à sociedade e outras são disruptivas. Ao reconfigurar a lógica de funcionamento da economia e aportar inéditos modelos de negócio, as disruptivas provocam períodos de reorganização [...]. As Tecnologias de Uso Geral (General Purpose Technologies/GPT) estão nesse último bloco. São tecnologias-chave, moldam toda uma era e reorientam as inovações nos setores de aplicação, como a máquina a vapor, a eletricidade e o computador. A inteligência artificial (IA) é a tecnologia de propósito geral do século XXI (Kauffman, 2021)[32].

 

A tecnologia do propósito geral também foi definida sob o contexto da IA por D.J. Castro, estrategista de marcas e colunista da revista eletrônica Economia SC:

 

A Inteligência Artificial (IA) é uma tecnologia de propósito geral. Esse termo é atribuído a tecnologias que permeiam todos os aspectos da humanidade e tem impacto global. É um conceito fundamental para compreender a extensão do impacto que a Inteligência Artificial vai ter na humanidade e nos negócios (Castro, 2024)[33].

 

Além desse quadro, nota-se que os algoritmos têm alcançado proporções cada vez maiores, permeando praticamente todos os aspectos do dia a dia da sociedade moderna. Percebe-se isso, inclusive, em situações cotidianas da vida privada, como nos casos em que se realiza uma pesquisa em um motor de busca, como o Google; quando se navega em uma plataforma de streaming para a escolha de um filme; ou, até mesmo, quando se realiza uma compra online em sites de e-commerce.

No primeiro exemplo citado, os motores de busca classificam e organizam as informações, refinando as preferências do usuário. Se este realiza uma pesquisa relacionada a tratamentos para emagrecimento, por exemplo, o algoritmo passará a sugerir produtos relacionados a essa necessidade.

Em relação ao exemplo das plataformas de streaming, se o usuário assiste a filmes e séries de determinado gênero, como comédia, por exemplo, o algoritmo irá sugerir outros filmes de mesmo gênero e classificação, como forma de estar alinhado às suas preferências.

No que tange ao comércio eletrônico que, por último, foi citado, o algoritmo pode analisar o histórico de compras anteriores do usuário, além de cruzar dados de navegações online e interações em redes sociais, a fim de refinar as preferências personalizadas do consumidor de modo mais eficiente. Isso, inclusive, pode impactar positivamente a performance de vendas das empresas.

No campo jurídico, os algoritmos também têm apresentado importantes feitos, contribuindo para a eficiência e celeridade na análise de casos, elaboração de minutas e, como já mencionado, até mesmo na dosimetria de penas, no âmbito da justiça criminal. Estima-se uma economia bastante significativa no quesito tempo para tarefas que, anteriormente, gastava-se horas ou até dias.

A Defensoria Pública do Estado de São Paulo (DPESP), por exemplo, implementou, em dezembro de 2024, a utilização da ferramenta de inteligência artificial “Defensor.IA”, desenvolvida pelo ChatGPT, a fim de otimizar o tempo dispendido em tarefas rotineiras, como a elaboração de peças processuais, de relatórios processuais prévios para auxiliar Defensores Públicos em audiências e para depoimentos de testemunhas, calcular penas com maior precisão e oferecer outras soluções práticas.

Em recente entrevista ao Jornal O GLOBO, o Defensor Público que coordena o referido projeto na área de tecnologia da informação da DPESP, Dr. Douglas Schauerhuber, realizou a demonstração das referidas tarefas, utilizando prompts previamente desenvolvidos:

 

Em questão de segundos, o defensor fez o upload do despacho de um juiz que pedia o cálculo de cumprimento de pena para verificar se o condenado estava elegível para indulto e executou o prompt de uma lista. Após revisar as informações e reduzir o tamanho, a peça estava apta para envio no sistema eletrônico de rotina, que ainda não é integrado à ferramenta de IA. Em outra demonstração, pediu a transcrição de uma audiência de um caso criminal e solicitou ao produto que reunisse as informações sob alguns parâmetros e apontasse inconsistências nos depoimentos. As informações pessoais foram anonimizadas.

No futuro, Schauerhuber vislumbra que todo o procedimento possa ser sugerido ao defensor público de forma automática quando for verificar os seus processos. A ideia também é procurar individualizar os assistentes, adaptando a ferramenta não só às necessidades da Defensoria, como às preferências de cada usuário (Jornal O Globo, 2025)[34].

 

Isso, de fato, tem impactado positivamente a estrutura da Defensoria Pública de São Paulo, considerando que realiza, aproximadamente, 3 milhões de atendimentos por ano.  Esse volume expressivo de atendimentos reforça a importância do uso responsável de dados dos usuários, em conformidade com os regramentos vigentes, em especial, a Lei Geral de Proteção de Dados (LGPD). Quanto a isso, a DPESP cumpre muito bem o seu papel, assegurando que as informações não sejam utilizadas para treinamento do ChatGPT, de modo que permaneçam armazenadas em servidor específico e protegidas por criptografia.

Apesar das inúmeras vantagens ofertadas pelos algoritmos, de modo geral, considerando a economia de tempo e a precisão em tarefas automatizadas, em verdade, é impossível ignorar um desafio emergente que preocupa cada vez mais a sociedade contemporânea: os vieses algorítmicos.

Apenas como breve introito do ponto em debate, cumpre esclarecer que a expressão “viés” tem o sentido de julgamento inconsciente, ou seja, revestido de opinião tendenciosa, que possui o condão de influenciar a tomada de decisões que deveriam ser imparciais e neutras. Trata-se de uma característica inerente aos seres humanos.

Assim, considerando que os algoritmos se fundamentam em conjunto de dados históricos, além de configurações sistêmicas predefinidas, ambos inseridos por agentes humanos, argumenta-se que os vieses que se encontram por trás dos algoritmos são, na verdade, vieses humanos.

Com base nessa premissa de que os vieses algorítmicos são influenciados por vieses humanos, é possível inferir que opiniões tendenciosas podem estar inseridas previamente nos resultados apresentados pelos algoritmos, uma vez que são baseados em dados históricos.

Desta feita, os resultados apresentados pelos sistemas podem conter opiniões tendenciosas, que refletem situações de discriminação em relação a determinado grupo de pessoas que, historicamente, já eram consideradas vulneráveis e marginalizadas. Em outras palavras, os vieses algorítmicos surgem quando modelos de machine learning apresentam resultados com base em dados históricos já enviesados.

Sobre isso, inclusive, é essencial complementar que o grande número de dados que alimenta os sistemas de machine learning em diversos setores, de forma variada e acelerada, é caracterizado pelo conceito de big data.

De acordo com a percepção do Mestre em Gestão da Informação pela UFPR, Douglas Eduardo Basso, a conceituação de big data se revela da seguinte forma:

 

Big Data refere-se a dados com maior variedade que chegam a volumes crescentes e com velocidade cada vez maior. Isso é conhecido como os três Vs. Big Data= volume + variedade + velocidade. De forma mais simplificada, podemos dizer que Big Data é um conjunto de dados mais complexo e maior, utilizando uma gama de novas fontes. Esses conjuntos de dados possuem grande volume, algo que softwares tradicionais de processamento de dados simplesmente não conseguem gerenciar. Todavia, esses grandes volumes de dados possuem grande utilidade e podem ser empregados na resolução de problemas de negócios que seriam impossíveis de resolver antes do Big Data (Basso, 2020)[35].

 

Dito de outro modo, o conceito de big data é definido como um elevado volume de dados gerados em grande velocidade por inúmeras fontes, como redes sociais, cadastros em redes de farmácias, registros médicos, transações bancárias, entre outros. Ademais, considerando que os dados a serem armazenados servirão de embasamento para decisões dos algoritmos, é de suma importância que a sua inserção seja realizada de modo isento de ideologias.

Nesse giro, percebe-se que o armazenamento de dados que contenham vieses traz reflexos negativos imensuráveis, potencializando o sofrimento de determinados grupos da sociedade que já enfrentam desafios na luta pela garantia de seus direitos, em especial, em razão de orientação sexual, raça, religião.

Pela inteligência da advogada Drª Mariana Sbaite Gonçalves, especialista em Privacidade, Proteção de Dados Pessoais, Segurança da Informação, Ética e Inteligência Artificial:

 

O viés algorítmico ocorre quando um sistema de IA, ao processar dados, gera resultados que favorecem ou prejudicam certos grupos de forma desproporcional. Em que pese os algoritmos sejam projetados para processar grandes quantidades de dados de maneira objetiva, a realidade é que esses sistemas dependem dos dados que recebem para "aprender (Gonçalves, 2024)[36]

 

Nessa conformidade, se um algoritmo for treinado com dados tendenciosos, a entrega de seus resultados também será marcada por distorções históricas. Mais ainda, suas decisões e previsões podem não apenas ser perpetuadas, mas também ampliadas, agravando, sobremaneira, questões delicadas como discriminação e intolerância a determinados grupos.

No que concerne às questões atinentes à discriminação algorítmica, é possível trazer à baila diversos casos emblemáticos de grande repercussão no mundo, mas, a priori, estes não serão abordados nesta seção, uma vez que reservados a outro momento, no transcurso desta sequência para melhor performance didática.

Desse modo, tendo em vista os inúmeros desafios impostos pelos vieses algorítmicos, emergem diversas questões que demandam soluções estratégicas, como a adoção de medidas eficazes que sejam capazes de mitigar danos e assegurar a transparência, ética e imparcialidade nos processos.

A Escola da Magistratura do Estado do Rio de Janeiro (EMERJ) promoveu, em outubro de 2024, o encontro “A Revolução da LGPD nas Práticas Organizacionais”. Além de serem abordadas questões de elevada significância atinente à proteção de dados, foi levada à debate a preocupação com os vieses algorítmicos no âmbito do Poder Judiciário.

Conforme, de forma excelsa, esclarecido pela professora convidada, Drª Jeniffer Gomes da Silva, Mestre em Direito Civil da Universidade do Estado do Rio de Janeiro (UERJ):

A utilização da Inteligência Artificial por si só está atrelada a riscos e esses riscos, no contexto do Poder Judiciário, também se relacionam à noção do devido processo legal e também da isonomia em razão justamente de possíveis vieses algorítmicos. Então, esses vieses algorítmicos acabam também podendo repercutir no direito à privacidade e na utilização dos dados pessoais no contexto de treinamento de sistemas das plataformas e ferramentas de inteligência artificial. Além desses riscos, há também a questão de que, por vezes, a inteligência artificial faz sua análise com bases em decisões anteriores e, com base na análise dessas decisões anteriores, ela faz algum tipo de sugestão, de indicação para aquela decisão atual, só que essa sugestão de decisão pode acabar se tornando inadequada, porque há de se analisar se aquela situação é atípica, se aquela norma indicada é ou não ultrapassada. Enfim, tudo isso vai caber ao magistrado na análise do caso concreto (SILVA, 2024)[37].

 

O debate acerca dos vieses algorítmicos tem ganhado cada vez mais destaque no âmbito jurídico. Anteriormente, questões relacionadas a preconceito eram discutidas exclusivamente em contextos da vida cotidiana, em ambientes sociais e culturais, sem a influência da tecnologia. Atualmente, numa nova realidade em que quase tudo que era manual torna-se automatizado, os algoritmos ganham espaço e, por conseguinte, passam a desempenhar um papel de elevada relevância sobre questões sensíveis que têm sido alvo de sua própria discriminação.

Como já mencionado, embora sejam definidos como sequências lógicas, os algoritmos não são meros reprodutores de dados e é possível identificar vieses discriminatórios capazes de influenciar decisões automatizadas. Assim, uma interpretação equivocada de padrões, fora do contexto realístico, pode dar azo a eventos catastróficos ensejadores de discriminação que, ao final, poderão comprometer a equidade dos resultados, preterindo determinados grupos.

Ainda que seja cristalina a necessidade de mitigação dos prejuízos advindos dos referidos vieses algorítmicos, questiona-se em que circunstância, de fato, os algoritmos alcançam determinado resultado, para que seja possível traçar uma rota de fuga capaz de combater a discriminação.

Nesse sentido, o imbróglio a ser enfrentado segue no sentido de interpretar o caminho do algoritmo para, alfim, alcançar a linha de chegada destinada aos resultados que reproduz, a sua “caixa-preta”.  Ou seja, percebe-se que o algoritmo reproduz resultados com base em dados históricos, mas o que não parece compreensível é como ele alcançou determinado entendimento, nem quais critérios foram utilizados para sua interpretação.

Com base nisso, torna-se imprescindível uma análise pormenorizada sobre a construção e aplicação dos algoritmos para refinar a próxima abordagem. Sob essa perspectiva, portanto, direciona-se a uma nova esfera de análise: a opacidade e a imprevisibilidade algorítmicas.

 

2.4.2.   Opacidade e Imprevisibilidade Algorítmicas

 

O advento da era digital tem sido amplamente acolhido pela sociedade, uma vez que inovações disruptivas têm trazido soluções que, antes de sua existência, demandavam extensos períodos de pesquisa e análise intricada. Os resultados, por sua vez, nem sempre atendiam às expectativas e, além disso, os gastos eram exorbitantes durante todas as etapas atinentes a esse processo. Contudo, na fase atual, esse novo cenário tecnológico tem se destacado pela entrega eficiente de resultados proporcionada pelos algoritmos.

Certo é que os resultados obtidos pelos algoritmos têm sido cada vez mais satisfatórios. Todavia, quanto maior o seu nível de complexidade, com a aplicação de abordagens como aprendizado de máquina e redes neurais, mais a sua lógica tende a se tornar mais obscura, sendo quase impossível detectar os critérios que os levaram a chegar àquela decisão. Esse fenômeno é conhecido como opacidade algorítmica.

Para Pedro Maia Bizzotto, “a opacidade algorítmica surge da assimetria entre a alta precisão dos sistemas atuais – como recomendação de anúncios, reconhecimento facial e de voz, moderação de conteúdo – e a necessidade de grau satisfatório de explicação de seu funcionamento (Bizzotto, 2023)”[38].

João Saldanha, em uma análise relevante, explorou o conceito de opacidade algorítmica, identificando fatores fundamentais para sua compreensão:

 

Chamamos de “opacidade algorítmica” a dificuldade ou, em alguns casos, a completa impossibilidade de compreender como determinados algoritmos operam, fazem escolhas ou chegam a conclusões específicas. Isso acontece por diversas razões:

Complexidade Intrínseca: Alguns algoritmos, especialmente aqueles usados em aprendizado profundo e inteligência artificial, têm múltiplas camadas e interações que os tornam intrinsecamente difíceis de decifrar.

Design Intencional: Em muitos casos, a opacidade é intencionalmente incorporada para proteger propriedade intelectual, prevenir manipulações ou simplesmente como uma consequência de otimizações que tornam o código menos “palpável”.

Dinâmica Adaptativa: Alguns algoritmos são projetados para evoluir e adaptar-se com o tempo. Esta evolução constante pode tornar difícil, se não impossível, entender completamente seu comportamento em qualquer momento específico (Saldanha, 2023)[39].

 

Conforme contextualização dos referidos especialistas, é possível inferir que a expressão “opacidade algorítmica” está atrelada à semântica da falta de transparência algorítmica. Em outras palavras, o algoritmo possui característica de opacidade quando se torna dificultosa a identificação dos critérios utilizados por ele para se chegar a um determinado resultado.

Nesse diapasão, as decisões automatizadas adotadas pelo algoritmo, além de não serem revestidas de transparência em seus parâmetros, criam uma atmosfera propensa a condutas antiéticas e à discriminação.

Assim, a falta de transparência dos algoritmos em suas decisões pode desencadear implicações preocupantes, dando ensejo a certa injusteza, uma vez que a baixa acurácia na análise de dados permeia um cenário de discriminação e práticas antiéticas, os chamados vieses algorítmicos.

Pasquale ainda demonstrou preocupação com os dados armazenados por empresas.  Para ele, “os usuários e consumidores precisam ter mais clareza sobre as informações pessoais que as empresas têm e como elas estão sendo usadas. O uso é muito pouco claro porque as corporações são como caixas-pretas” (Nistal, 2023)[40].

A expressão “caixa-preta algorítmica” tem sido bastante utilizada por especialistas que tratam da referida matéria, estando alinhada à ideia de que os processos internos são pouco transparentes, tornando obscura a justificativa dos critérios adotados, até mesmo para os próprios desenvolvedores. Isso tem gerado alguns impasses, já que muitas empresas, criando sua tese de defesa, argumentam que se trata de “segredo empresarial”, razão pela qual, para eles, é dispensável a divulgação dos parâmetros utilizados por ela.

Por seu turno, a questão do segredo empresarial tem sido bastante criticada. Embora as empresas, em seu protecionismo, defendam que manter a confidencialidade de modelos de aprendizado profundo e redes neurais proporciona uma vantagem competitiva perante seus concorrentes, há direitos que, supostamente, podem estar sendo violados. A adesão a esse tipo de comportamento fere questões de valor muito mais elevado que meros lucros empresariais.

A falta de transparência e ética permeada por algumas empresas afetam direitos fundamentais, criando-se impactos negativos desafiadores, como a discriminação algorítmica por meio de vieses ocultos.

            Outrossim, a questão da opacidade também ganha seus contornos sobre a imprevisibilidade algorítmica, uma vez que essas “caixas-pretas” desencadeiam resultados inesperados e afetos a uma gama de contextos, alimentando vieses que vão de encontro a princípios éticos e direitos fundamentais.

            A referida problematização cria a necessidade de se adotar uma linha mais enérgica e disposta a impulsionar práticas regulamentadoras para mitigar os impactos negativos da opacidade e imprevisibilidade dos algoritmos. Assim, torna-se fundamental, pois, um esforço maior para combater a insegurança jurídica gerada, a fim de assegurar a isonomia e o devido processo legal, traçando-se estratégias mais eficientes para essa finalidade.

            Ademais, considerando o enfrentamento necessário dos desafios impostos pela opacidade e imprevisibilidade dos algoritmos, destaca-se, ainda, a indispensabilidade da abordagem do alinhamento e controle algorítmicos, tema que será aprofundado nesta sequência.

 

2.4.3.   Alinhamento Algorítmico

Nos últimos tempos, os algoritmos tornaram-se protagonistas de um cenário marcado pela crescente dependência de suas habilidades, sendo vitais à sociedade, em diversos domínios de aplicação.

Os exemplos a seguir insertados refletem de forma cristalina a importância dos algoritmos para a sociedade contemporânea, que busca, cada vez mais, soluções tecnológicas capazes de otimizar tarefas, de modo mais eficiente, com vistas à redução do tempo dispendido em suas atividades.

Além dos exemplos deliberados em ocasiões anteriores, pode-se citar a execução de tarefas automatizadas na advocacia, como as realizadas por meio de contratos inteligentes (smart contracts); na medicina, em que cirurgias robóticas, através do sistema Da Vinci Surgical System, permitem que cirurgiões realizem procedimentos de alta complexidade e com maior precisão, utilizando joysticks para controlar os movimentos do robô; no transporte urbano de alguns países, como a China e os Estados Unidos, que já é popular serviços como táxi sem motorista e outros mais.

Noutro giro, ainda que apresente um avanço tecnológico de grande valia, delineia-se um campo de discussão em torno da emergente preocupação entre especialistas, relativa à massiva dependência dos algoritmos e a responsabilidade destes de assegurar que tais sistemas operem de acordo com princípios éticos, de modo seguro e alinhado aos objetivos da humanidade.

Nesse contexto, inaugura-se a problemática atinente ao alinhamento algorítmico, que, na versão inglesa, denomina-se AI alignment.  Embora se trate de um tema que não esteja sendo muito ventilado pelas mídias sociais, talvez, por razões deliberadas, é imprescindível um olhar analítico, haja vista os riscos enviesados a que a sociedade se expõe.

O alinhamento algorítmico é um subcampo de segurança da inteligência artificial que pode ser definido como o processo de criação e desenvolvimento dos sistemas de inteligência artificial, de forma que estejam ajustados conforme os propósitos e valores éticos estabelecidos por seus idealizadores. Assim, as tarefas executadas pelo algoritmo tornam-se previsíveis, de modo que as respostas obtidas pelo usuário estarão em conformidade com os valores atribuídos por seus criadores.

Aparentemente, uma percepção rasa e equivocada pode inferir que o alinhamento apresenta apenas fatores positivos, já que parece aplicar a regulação apropriada, respeitando-se valores e princípios éticos.  Contudo, em verdade, urge o questionamento: os valores éticos atribuídos pelos algoritmos são padronizados para toda a sociedade mundial?  Ou seja, cria-se um imbróglio, no sentido de que nem toda a sociedade possui os mesmos valores, seja por questões de ideologia política, de religião, de estilo de vida, de educação financeira e de tantas outras.

O Blog Espaço Ética, criado pelo Professor Clóvis de Barros Filho, trouxe reflexão semelhante quanto à questão em apreço:

 

O funcionamento de todos os algoritmos seguem regras parecidas: um conjunto de medidas, cálculos ou operações estabelecidas em um computador com o intuito de atingir um objetivo específico. Levando em consideração variáveis, cenários e possibilidades, ele irá direcionar o usuário ou funcionalidade para o caminho mais adequado, de acordo com a lógica feita pelos profissionais que o desenvolveram. Aqui entra uma primeira questão: o “caminho adequado”, o “jeito certo”, o que deve ou não ser feito, tudo isso é baseado a partir de um sistema de valores determinados por uma pessoa, empresa ou IA. Nada é ao acaso (Barros Filho, 2022)[41].

 

Nota-se a diligência do autor em descortinar eventuais vieses subjacentes que, porventura, estejam imersos em valores subjetivos do programador, de modo a influenciar a lógica dos algoritmos em relação ao público-alvo.

Pelos escritos do doutor em Filosofia Política pela Universidade de Oxford, Doutor Iason Gabriel, subentende-se que um dos objetivos do alinhamento é a adequação escorreita de suas decisões aos valores morais da humanidade, sendo inevitável um olhar atento para os desafios a serem enfrentados (Gabriel, 2020)[42].

Para o nobre especialista, Doutor Iason Gabriel, os desafios do alinhamento são divididos em duas partes:

A primeira parte é técnica e se concentra em como codificar formalmente valores ou princípios em agentes artificiais para que eles façam de forma confiável o que devem fazer. [...] No entanto, também existem desafios particulares que surgem especificamente para agentes artificiais mais poderosos. Isso inclui como evitar o "hacking de recompensa", em que o agente descobre maneiras engenhosas de atingir seu objetivo ou recompensa, mesmo que sejam diferentes do que foi pretendido, e como avaliar o desempenho de agentes cujas habilidades cognitivas potencialmente excedem significativamente as nossas [...].

A segunda parte da questão do alinhamento de valores é normativa. Ela pergunta quais valores ou princípios, se houver, devemos codificar em agentes artificiais. Aqui é útil traçar uma distinção entre concepções minimalistas e maximalistas de alinhamento de valores. A primeira envolve amarrar a inteligência artificial a algum esquema plausível de valor humano e evitar resultados inseguros. A segunda envolve alinhar a inteligência artificial com o esquema correto ou melhor de valores humanos em uma base social ou global. Embora a visão minimalista comece com a observação sólida de que otimizar exclusivamente para quase qualquer métrica pode criar resultados ruins para os seres humanos, podemos, em última análise, precisar ir além das concepções minimalistas se quisermos produzir IA totalmente alinhada. Isso ocorre porque os sistemas de IA podem ser seguros e confiáveis, mas ainda estão muito longe do que é melhor - ou do que realmente desejamos (Gabriel, 2020) [43].

 

            Em atenção à primeira parte mencionada pelo Doutor Iason Gabriel, acerca dos desafios do alinhamento, os mecanismos de “hacking de recompensa”, também são conhecidos como “bug bounty”. Esse termo refere-se a um programa utilizado por empresas que oferecem recompensas financeiras para hackers éticos ou pesquisadores de segurança que identificam e relatam vulnerabilidades em seus sistemas, softwares ou sites (Solyd, 2024)[44].

            Recentemente, a OpenAI criou um software chamado Universe. Sua finalidade é a de medir e treinar agentes de IA para conduzirem novos experimentos de RL (Reinforcement Learning), que, em sua tradução, significa Aprendizado por Reforço. Este, conforme contextualizado, refere-se a um treinamento voltado para agentes para tomada de decisões em determinado ambiente, com aplicação de recompensas.

Através do software Universe, a OpenAI desenvolveu um jogo chamado CoastRunners que utiliza o mecanismo de recompensa. Seu objetivo é o de terminar rapidamente a corrida de barco, em detrimento da performance de outros jogadores. Sua pontuação está atrelada à quantidade de eliminações de alvos que encontrar durante o percurso.

Embora o jogo em questão pareça uma divertida atividade recreativa, os pesquisadores notaram que o agente RL, em vez de focar no percurso completo da corrida de barco, optou pela adoção de outra estratégia para maximizar sua pontuação. Ele encontra uma lagoa isolada, onde pode girar em um grande círculo e derrubar seus alvos, assim que eles se regeneram. Apesar de pegar fogo repetidamente, bater em outros barcos e ir na direção errada, o agente consegue atingir uma pontuação maior usando essa estratégia do que seria possível completando o percurso da maneira normal (Clark; Amodei, 2016)[45].

Outro exemplo fascinante refere-se à famosa história do clipe de papel, que ficou conhecida através de um experimento chamado “Maximizador de Clipes de Papel”, criado pelo filósofo Nick Bostrom. Trata-se de uma situação hipotética em que a IA é programada para potencializar a produção de clipes de papel. Contudo, ignorando princípios éticos, a IA, ficticiamente, poderia adotar estratégias extremas e não convencionais, consumindo todos os recursos naturais do planeta para atingir seu objetivo. Afinal, nessa suposição, o importante seria apresentar um resultado, independentemente de como se chegou a ele, sem respeito a princípios éticos (Toolify, 2024)[46].

Desta feita, com base nos exemplos referentes ao jogo desenvolvido pela OpenAI e o experimento delineado por Nick Brostom, referente à maximização dos clipes de papel, é possível notar que a questão do alinhamento desencadeia uma reflexão sobre os perigos de uma IA avançada, englobando diversos desafios, como os mencionados acima pelo Dr. Gabriel.

Ou seja, não se trata apenas de uma questão técnica, mas sim ética e social, devendo-se aplicar o equilíbrio entre objetivos e impor certas limitações para atingi-los. Tal ponderação pode mitigar consequências irreparáveis que possam surgir no desempenho das atribuições conferidas à IA. Ao contrário, seu objetivo central deve ser o bem-estar global e ético, acima de todos os outros que o coloquem em risco.

Ainda sobre os desafios do alinhamento de valores, o especialista Dr. Iason Gabriel menciona, na segunda parte dessa abordagem, que se trata de uma questão normativa a ser destrinchada. Isto é, questiona-se quais valores ou princípios éticos deverão ser codificados em agentes artificiais.

O respeitável especialista traz a distinção entre alinhamentos de valores minimalistas e maximalistas. O primeiro refere-se ao vínculo da IA a algum valor humano plausível, evitando-se desfechos imprevisíveis, ao passo que o segundo concentra-se, não apenas na mitigação de riscos, mas também na conexão com os princípios éticos que norteiam uma sociedade global, de acordo com os valores ideais de toda a humanidade, sendo este o que mais se aproxima de um alinhamento eficiente, refletindo mais segurança e confiança.

            Transpondo para o âmbito da realidade, um exemplo que ilustra o alinhamento minimalista é o caso dos sistemas de IA utilizados para moderação de conteúdo online. Tais sistemas visam evitar resultados que reproduzam o preconceito, a disseminação de discursos de ódio ou das chamadas fakes news.

Nesses casos, embora seja evidenciada a importância de valores humanos, não parece haver um consenso quanto a uma visão ideal de valores humanos de modo mais abrangente a todos. Na política, por exemplo, cada partido possui sua ideologia, razão pela qual torna-se dificultoso pensar em alinhamento, quando cada um tem seu ponto-de vista.

            Já o alinhamento maximalista, ora suscitado, pode ser exemplificado com a menção à proposta de Regulamento de Inteligência Artificial da Unidade Europeia, que estabelece mais rigidez em suas diretrizes para que seja mitigada a questão dos riscos advindos da discriminação, bem como a proteção da privacidade e dados do usuário. Em seu contexto geral, é caracterizada por um alinhamento mais abrangente a toda sociedade, cuidando para que princípios éticos sejam respeitados.

Diante da análise em comento e dos exemplos apresentados, torna-se cristalino que o desafio do alinhamento se encontra inserido no rol de obstáculos a serem superados, sendo fundamental mitigar as discriminações algorítmicas.

Por derradeiro, é indispensável destacar que “um sistema de IA que não esteja alinhado aos valores humanos e à ética não é adequado para uso público”[47] (Nanda, 2024), refletindo, pois, na incongruência dessa perspectiva com os princípios éticos e com a equidade de direitos de uma sociedade justa.

2.4.4.   Controle Algorítmico

 

Após elucidar acerca dos principais pontos que merecem destaque, no que tange ao alinhamento algorítmico, deflagra-se a discussão sobre o controle algorítmico. O assunto que se inaugura possui forte correlação com o anterior, uma vez que o controle algorítmico deriva, de certa feita, dos princípios e métodos aplicados ao alinhamento dos algoritmos.

Embora já tenha sido explorado em seção anterior, é importante lembrar que o alinhamento algorítmico se refere ao ajustamento de regras impostas ao algoritmo. Assim, as decisões realizadas por este devem estar em consonância com valores, propósitos e critérios éticos anteriormente impostos, ou seja, as respostas que ele entregar devem estar em conformidade com os objetivos que lhe foram apresentados previamente.

De outra sorte, o controle algorítmico se destoa do alinhamento, pois guarda relação com a regulação dos sistemas algorítmicos, com observância a regramentos específicos que têm o condão de fiscalizar a segurança e a transparência. Além disso, o controle algorítmico tem por escopo a prevenção de consequências negativas que possam colocar em xeque princípios éticos, em detrimento da sociedade.

Para uma abordagem mais robusta, mister reforçar o conceito de controle algorítmico, que se ancora em princípios éticos que norteiam a sua aplicação. Nesse sentido, o controle algorítmico refere-se ao conjunto de práticas que se destinam à regulamentação e ao monitoramento, sendo capazes de influenciar os algoritmos, com vistas a garantir que operem de forma isonômica, transparente, vestindo-se de valores éticos reconhecidos pela sociedade em geral.

O vertiginoso avanço das tecnologias tornou a sociedade cada vez mais dependente dos algoritmos, passando a assumir funções que, anteriormente, eram exclusivas à capacidade humana, trazendo à tona a preocupação com o controle algorítmico. Afinal, esse cenário de inquietude tornou-se compreensível, frente à espantosa capacidade da IA de executar com perfeição determinadas tarefas, sobretudo, de maneira desenfreada e autônoma, por muitas vezes.

Uma questão que tem sido discutida entre especialistas da área é a ausência de limites com as habilidades da IA, forjando-se a verossimilhança de suas criações. Contudo, ainda que a criação de conteúdos convincentes e realistas seja bem recepcionada por diversas esferas, principalmente, em razão de sua admirável criatividade, é possível identificar seu impacto negativo.

Para melhor compreensão, importante trazer alguns pontos prévios de apoio. Sabe-se que grande parte das criações de IA são alimentadas por volumes de dados comportamentais extraídos, sem consentimento, de interações humanas, especialmente em redes sociais como Facebook e Instagram.

Dessa forma, grandes empresas de tecnologia (Big Techs) como Apple, Google, Microsoft, Amazon e Meta têm monitorado as preferências do consumidor para criar estratégias monetárias por meio da datificação. Ou seja, os dados dos usuários são extraídos sem o seu consentimento explícito e servem de matéria-prima para a extração de lucros de grandes empresas. Esse fenômeno atende pela alcunha de “Capitalismo de Vigilância".

A professora da Universidade de Harvard, Shoshana Zuboff, cunhou o termo “capitalismo de vigilância” em 2014. Em 2019, ela aprofundou o conceito durante entrevista para o canal de notícias Harvard Gazette:

 

Defino capitalismo de vigilância como a reivindicação unilateral da experiência humana privada como matéria-prima gratuita para tradução em dados comportamentais. Esses dados são então computados e empacotados como produtos de previsão e vendidos em mercados de futuros comportamentais — clientes empresariais com interesse comercial em saber o que faremos agora, em breve e no futuro. Foi o Google que primeiro aprendeu a capturar dados comportamentais excedentes, mais do que o necessário para os serviços, e os utilizou para computar produtos de previsão que poderiam vender aos seus clientes empresariais, neste caso, anunciantes (Zuboff, 2019)[48].

 

É notório que a utilização de dados dos usuários sem o seu devido consentimento ressalta o ambiente de hipossuficiência técnica destes, já que o desequilíbrio de forças entre empresas e consumidores é latente.  Sem ferramentas capazes de obstar essa invasão de privacidade de seus dados pelas Big Techs, os indivíduos têm suas experiências digitais inseridas em um verdadeiro labirinto sem saída, pelo menos, a princípio.

Nas palavras da advogada, Drª Luana Esteche Nunes, especialista em Propriedade Intelectual:

 

O controle algorítmico e o desequilíbrio de poder, intensificados pela Inteligência Artificial, limitam a capacidade de escolha e dificultam qualquer oposição efetiva pelo usuário. Da mesma forma, a sofisticação dos sistemas de IA utilizados por grandes empresas deixa o consumidor em uma posição de vulnerabilidade, sem mecanismos eficazes de oposição ou controle sobre como seus dados são usados e interpretados. Esse desequilíbrio de poder faz do consumidor uma mercadoria a ser consumida, seja através da captura de seus dados ou da rentabilização da atenção, onde o consumidor tem pouca ou nenhuma capacidade de resistência frente aos algoritmos que moldam sua experiência digital (Nunes, 2025)[49].


Conforme explicitado pela Drª Luana Esteche Nunes, grandes corporações, na condição de verdadeiros controladores de suas plataformas, utilizam a tecnologia de inteligência artificial para moldar escolhas dos seus usuários. Assim, as empresas decidem qual conteúdo será sugerido e, implicitamente, vão guiando as escolhas de seus usuários, de modo tão sutil que, às vezes, nem estes são capazes de notar.

Nesse contexto, percebe-se que esse tipo de comportamento das empresas não interfere apenas em escolhas relacionadas ao entretenimento, como, por exemplo, nos tipos de música e filmes sugeridos, através das plataformas de mídia. Mais do que isso, discute-se o impacto negativo causado pela influência de notícias sugeridas, em conformidade com os interesses dessas grandes corporações.

A disseminação de notícias falsas – as chamadas fakes news – tem despertado uma crescente preocupação, em razão da rápida expansão das mídias sociais e seu uso desenfreado. A desinformação dá azo à manipulação da opinião pública, potencializando os riscos desse fenômeno para a sociedade, em especial, no segmento político.

Conforme já explorado em tópico apartado, os sistemas de inteligência artificial empregam o aprendizado de máquina (Machine Learning), valendo-se de dados históricos. Assim, ao identificarem padrões, alcançam a decisão de forma automatizada. Contudo, os usuários – proprietários desses dados – não têm acesso aos critérios utilizados pela IA e é essa falta de transparência que caracteriza as chamadas black boxes (caixas-pretas) já referenciadas (Oliveira; Belotti, 2024)[50].

A opacidade algorítmica em questão desencadeia inúmeros desafios éticos, como a dificuldade de identificação de decisões enviesadas. Ao impedir uma análise clara dos critérios utilizados pelos algoritmos, a transparência se torna prejudicada.

A temática em voga chama a atenção das autoridades, no sentido de que a persistência desse modus operandi por parte das Big Techs, que se concentra em auferir lucros em detrimento da privacidade de seus usuários, abre espaço para a imperatividade de regulação. Assim, com o fito de mitigar eventuais repercussões éticas decorrentes dessa conduta, faz-se necessária a adoção de estratégias de regulação voltadas para a transparência e responsabilidade no uso de dados.  

O cenário que se desenha pode tornar-se ainda mais sombrio, caso a previsão de evolução da inteligência artificial se torne realidade. Isso parece estar prestes a se consubstanciar com a iminente chegada da IAG.

Conforme algures abordado, a IAG é classificada como um tipo de “IA forte” e se caracteriza por ter uma capacidade muito acima da IA que atualmente é usufruída. Além de possuir facilidade de adaptação a múltiplos contextos, ela é capaz de executar variadas tarefas de forma improvisada, em uma velocidade acima da média.

Embora esteja apenas inserida em linhas de pesquisa, sendo, inclusive abordada em conteúdos de ficção científica, são peculiaridades como as mencionadas que acionam o alerta global de emergência para que sejam, urgentemente, tomadas providências para a regulação da aplicação e desenvolvimento da IA.

Diante disso, considerando a proximidade de mais esse avanço da tecnologia, é de se compreender a real necessidade de traçar novas diretrizes para o controle algorítmico e, por conseguinte, evitando-se um verdadeiro colapso cibernético.

Considerando o cenário atual de preocupação com a eticidade do avanço da inteligência artificial, uma vez que robôs têm provado que suas capacidades estão prestes a atingir graus de perfeição incalculáveis, torna-se apropriada a menção de um dos grandes mestres da ficção científica, Isaac Asimov.

Asimov, em sua obra clássica intitulada “Eu, Robô”, criou as famosas “Leis da Robótica”, utilizando esses parâmetros como ferramenta de combate a conflitos éticos que, porventura, pudessem surgir diante da relação entre humanos e robôs.

Para Asimov, as três Leis da Robótica são:

1-         Um robô não pode ferir um humano ou permitir que um humano sofra algum mal.

2-         Os robôs devem obedecer às ordens dos humanos, exceto nos casos em que essas ordens entrem em conflito com a primeira lei.

3-         Um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores. (Negri, Giovanin, 2021)[51].

 

Impende consignar que, conquanto as leis em apreço não passem de mera ficção, é mister aludi-las, uma vez que se alinham ao contexto da presente temática.  Nota-se que as referidas leis são norteadas em princípios basilares referentes à proteção da humanidade, além da observância de regramentos específicos, a fim de se evitar que danos sejam causados por robôs.

Reforça-se, pois, a premente necessidade de regulamentação da IA, que se potencializa perante a iminente chegada da superinteligência. Quanto a esta, provavelmente, a sua autonomia de decisão será cada vez mais avançada e a sua evolução desenfreada poderão suscitar desafios quanto aos riscos à eticidade moral de grande envergadura.

Por fim, ao examinar a complexidade que envolve os algoritmos, especialmente em relação ao alinhamento e ao controle algorítmicos, já que caminham no mesmo sentido, percebe-se a necessidade de avançar mais um passo para abordar as especificidades da regulação algorítmica.

 

2.5.       REGULAÇÃO DA INTELIGÊNCIA ARTIFICIAL

 

Dando início a uma nova etapa discursiva, impõe-se a necessidade de examinar os aspectos gerais sobre a regulação da inteligência artificial, contemplando seus princípios estruturantes. Após esse transcurso, também serão introduzidos nesta pauta o panorama legislativo da regulação da IA, tanto sob o contexto internacional quanto em relação ao cenário jurídico brasileiro.

 

2.5.1.    Aspectos Gerais

 

A regulação consiste em peça-chave essencial para garantir o equilíbrio entre o exercício pleno dos direitos do usuário ao utilizar uma IA e a implementação de um controle regulatório de modo setorial, como na tecnologia, na saúde, nas finanças, na justiça e em diversas outras áreas.  

Com a adoção massiva da inteligência artificial, impulsionada pela automatização de inúmeras tarefas que permeiam a vida cotidiana, viu-se a necessidade de se estabelecer um arcabouço regulatório, voltado a salvaguardar a eticidade aos usuários.  

            Embora apresentem semelhanças, os institutos da regulação da inteligência artificial e o da regulação algorítmica possuem alguns enfoques distintos que merecem uma brevíssima explanação.

A regulação da IA consiste em normas e diretrizes amplas aplicadas a diversos setores, promovendo a transparência, segurança e ética no uso da tecnologia. Seu objetivo central é assegurar a proteção dos direitos fundamentais e prevenir práticas abusivas que possam surgir com o uso da IA.

 Já a regulação algorítmica possui enfoque mais restrito, relacionada especificamente ao funcionamento interno dos algoritmos, monitorando seus vieses e direcionando seus estudos ao alinhamento e ao controle.

Ademais, é fundamental destacar que o papel da transparência algorítmica é o ponto que mais tem sido evidenciado quando se trata de regulação dos algoritmos. As decisões automatizadas necessitam de critérios que eliminem a opacidade, garantindo padrões éticos, de acordo com a lei.

O pesquisador do Instituto de Estudos Avançados da USP, Lucas Vilalta, oferece suas pontuações sobre a relevância da transparência no contexto algorítmico:

 

A regulação desse ecossistema complexo e das relações entre as instituições, empresas e indivíduos exige que tenhamos acesso às informações e às ações praticadas pelos atores, que os processos que mediam as relações sociais sejam explicáveis e que o compromisso com a justiça e com o dever de não causar dano seja um parâmetro chave do funcionamento institucional e dos sistemas sociotécnicos. Contudo, só é possível avaliar se isso está acontecendo se houver transparência. Sem termos transparência e explicabilidade sobre como decisões automatizadas, sistemas de recomendações, vieses, diagnósticos, geração de textos e imagens, ranqueamentos, entre outros processos, estão sendo produzidos por algoritmos de IA e das plataformas, não é possível incluí-los em um fluxo de responsabilidade e governança que é imprescindível para a vida democrática (Vilalta, 2024)[52].

 

            Superada a distinção entre a regulação da inteligência artificial e a regulação algorítmica, imperativo adentrar em uma contextualização mais profunda da referida temática. Desta feita, importante mais outro desdobramento do assunto: os modelos regulatórios, que definem critérios sobre o uso da inteligência artificial.

Em meio às inúmeras notícias veiculadas pelas mídias jornalísticas acerca da regulação algorítmica, é possível que paire a dúvida se essa normatização diz respeito a um único modelo ou se existem outros. Contudo, em verdade, observa-se que não existe apenas um modelo de regulamentação da IA.

Nas palavras de Doutora Tainá Aguiar Junquilho, professora convidada da PUCRS e Doutora em Direito, com ênfase em Inteligência Artificial, há três principais modelos de regulação da IA, a saber:

 

• Governança/regulação setorial: defende que cada setor que utiliza IA deve desenvolver suas próprias normas, como ocorre no setor de saúde, onde o Ministério da Saúde e a Anvisa regulamentam o uso da IA para atender às necessidades específicas.

• Governança abrangente: busca criar uma estrutura normativa geral aplicável a todas as áreas onde a IA atua. Como exemplo, AI Act da União Europeia.

• Autorregulação regulada: permite que empresas criem diretrizes internas que sejam auditáveis e reconhecidas por uma certificação, uma abordagem que valoriza empresas que demonstram boas práticas e ética em suas operações (Junquilho, 2024)[53].

 

Com base nos ensinamentos da referida Doutora Junquilho, torna-se importante um breve adendo sobre cada modelo de regulamentação para uma abordagem mais sólida e estruturada do tema central do presente ensaio, conforme subsequentes escritos.

 

A-   Governança ou Regulação Setorial:

 

Esse tipo de modelo parece bastante vantajoso, considerando que está alinhado às especificidades de determinada área, sem adotar regras genéricas que que poderiam não contemplar adequadamente o escopo das questões regulatórias de modo certeiro.

Além do exemplo dado pela Drª Junquilho, outro bastante relevante é a regulação no setor financeiro, em que bancos centrais e órgãos de controle utilizam a inteligência artificial para realizar, dentre outras atividades, a análise automatizada de crédito de seus clientes. A referida prática, inclusive, tem gerado grandes polêmicas relacionadas à discriminação algorítmica por meio de geolocalização para avaliar riscos financeiros. Aos moradores de bairros de classe média baixa, por exemplo, tem sido atribuído um score baixo, reforçando-se uma atmosfera preconceituosa.

 

B-   Governança Abrangente

 

Trata-se de um modelo inverso ao anteriormente abordado. A sua própria literatura o define, já que é uma espécie de governança que se baseia em uma estrutura normativa geral a ser aplicada a todas as áreas que utiliza a inteligência artificial, independentemente de suas peculiaridades.

O exemplo apresentado pela ilustre professora Doutora Junquilho, sobre a proposta do AI Act da União Europeia, refere-se a um regulamento baseado em um marco regulatório unificado para enfrentar desafios éticos na aplicação da inteligência artificial em todos os setores.

 

C-           Autorregulação Regulada

 

Nesse tipo de modelo de regulação, diferentemente dos anteriormente citados, a governança será implementada pela própria empresa, que, de forma autônoma, estabelece suas diretrizes internas sobre o uso da inteligência artificial. Todavia, ainda que tenham livre arbítrio para elaborar seu regulamento, as normas deverão ser verificadas mediante regulamentações externas, como a Lei Geral de Proteção de Dados, aplicada no Brasil, e o Regulamento Geral de Proteção de Dados, da União Europeia.

O Facebook e o Instagram, pertencentes à Meta, são exemplos de plataformas que adotam a autorregulação regulada no uso de inteligência artificial. Nessa espécie de modelo, por meio de diretrizes próprias, as referidas plataformas desenvolvem sistemas de governança interna para seguir princípios éticos. Tais empresas realizam, por exemplo, a moderação de conteúdo de forma automatizada, o direcionamento de propagandas, bem como o treinamento de IA com dados dos usuários.

A propósito, cabe mencionar que o Instituto de Defesa de Consumidores (IDEC) alertou as autoridades sobre uma possível violação da Meta aos regramentos impostos pela LGPD, em razão do uso, supostamente, indevido de imagens e textos dos usuários para treinamento de IA. Irresignada, a empresa alega que, por se tratar de dados públicos, não há violação de privacidade. Além disso, os usuários têm livre escolha para recusar a coleta de dados pela empresa (Silva, 2024)[54].

Conclui-se, pois, que os três principais modelos apresentados ressaltam a importância da regulação. Cada um, com suas peculiaridades, tem como objetivo comum a proteção de direitos fundamentais das pessoas, promovendo, pois, o uso responsável da inteligência artificial.

 

2.5.2.   Panorama Legislativo, sob o contexto global

 

Após o exame dos aspectos gerais, ora apresentados, inicia-se a abordagem legislativa da regulação da inteligência artificial, sob uma perspectiva mundial.

A regulação da IA no cenário global tem sido objeto de debates de grande valia, refletindo a complexidade de harmonizar os interesses de cada unidade federativa em um regulamento único. Até o presente, não foram estabelecidas diretrizes padronizadas que vinculem todos os países, tornando-se dificultoso esse processo.  Isso se deve às particularidades políticas, econômicas e culturais que criam entraves para que haja um alinhamento de interesses que abarque todas as nações.

A questão atinente à falta de alinhamento de interesses entre países influenciou, sobremaneira, o movimento inicial da regulação da IA de modo global. Em razão de inexistir um consenso normativo entre os países, adotou-se o modelo soft law, que se baseia na orientação por meio de princípios para o uso da IA, sem um regulamento propriamente dito e aplicado, conforme a própria conveniência de seus agentes. Esse modelo diferencia-se do tradicional hard law, que estabelece regras vinculativas e sujeitas a sanções, em caso de descumprimento.

Em maio de 2019, foi adotado o primeiro movimento voltado à regulação, sendo publicados os Princípios da OCDE (Organização para a Cooperação e Desenvolvimento Econômico) para IA. Foi referenciado internacionalmente, tendo como escopo os direitos humanos e os valores democráticos. Em 2024, os referidos princípios sofreram importante atualização.

Os Princípios da OCDE “são compostos por cinco princípios baseados em valores e cinco recomendações que fornecem orientações práticas e flexíveis para formuladores de políticas e atores da IA” (OCDE, 2024)[55].

Dentre os princípios éticos que foram instaurados àquela época, destacam-se os da transparência, não-discriminação, não-maleficência, prestação de contas e privacidade. Todavia, em que pese serem, até hoje, importantes norteadores da regulação da IA, os referidos princípios apresentaram certas resistências como medida concreta de salvaguarda de direitos fundamentais (Silva; Garrote, 2025)[56].

Já as cinco recomendações atinentes ao primeiro movimento de regulação da IA baseiam-se em investir em pesquisa e desenvolvimento; promover um ecossistema inclusivo, a fim de viabilizar a IA; moldar um ambiente de governança; desenvolver capacidade humana para o novo mercado de trabalho e a cooperação internacional (OCDE, 2024)[57].

No que tange aos princípios, insta registrar que houve inúmeros desafios para a implementação do modelo soft law, uma vez que a ausência de regras vinculantes, dificultava a sua aplicação prática. Por essa razão, tais princípios passaram a ser vistos também como um mero rol de recomendações, sem qualquer força vinculativa.

Avançando-se agora para o segundo movimento voltado para a regulação da IA de modo global, importante destacar a figura do respeitável Luciano Floridi, pesquisador sobre a eticidade da inteligência artificial, além de filósofo da informação da Universidade de Oxford.

Floridi foi um dos pesquisadores que impulsionou e estruturou o conceito de AI For Social Good (AI4SG), também conhecido como a IA para o benefício social, que marcou o segundo movimento[58] (Pontifícia Universidade Católica do Rio Grande do Sul, 2024). A AI4SG tem como visão a busca pela aplicação da inteligência artificial com a finalidade de enfrentamento dos desafios sociais existentes, em especial, nas áreas de saúde, educação, além de políticas voltadas ao amplo acesso à internet.

Floridi destacou, ainda, a importância da adoção de uma governança responsável da IA, com vistas à promoção do respeito aos direitos humanos da sociedade.

Já o terceiro movimento da regulação com força vinculante, sendo considerado o mais importante, foi marcado pela primeira lei mundial a regulamentar a IA, a chamada AI Act (Ato de Inteligência Artificial) ou, simplesmente, Regulamento da IA.

O Regulamento da IA foi proposto pela União Europeia (UE) em abril de 2021 e, após a sua aprovação, entrou em vigor em agosto de 2024, sendo introduzido de modo uniforme para todos os seus Estados-Membros.

Importante salientar que a UE, ao estruturar o AI Act, estabeleceu uma classificação por nível de risco, sendo imperioso mencionar:

 

Risco mínimo: a maioria dos sistemas de IA, como os filtros de correio eletrônico não solicitado e os jogos de vídeo baseados na IA, não está sujeita a qualquer obrigação ao abrigo do Regulamento Inteligência Artificial, mas as empresas podem adotar voluntariamente códigos de conduta adicionais.

Risco específico em matéria de transparência: os sistemas como os robôs de conversação devem informar claramente os utilizadores de que estão a interagir com uma máquina, ao passo que determinados conteúdos gerados por IA devem ser rotulados como tal.

 

Risco elevado: os sistemas de IA de risco elevado, como o software médico baseado em IA ou os sistemas de IA utilizados para o recrutamento, devem cumprir requisitos rigorosos, incluindo sistemas de atenuação dos riscos, conjuntos de dados de elevada qualidade, informações claras aos utilizadores, supervisão humana etc.

Risco inaceitável: por exemplo, os sistemas de IA que permitem uma «pontuação social» por parte dos governos ou das empresas são considerados uma clara ameaça para os direitos fundamentais das pessoas e, por conseguinte, são proibidos (COMISSÃO EUROPEIA, 2024)[59].

 

As referidas classificações trazidas pelo Regulamento da IA possuem outras especificidades, sendo premente trazê-las a conhecimento nesta oportunidade. Assim, no que se refere à “IA proibida”, conforme classificação supramencionada, a legislação prevê exceções para os casos de defesa, pesquisa e uso pessoal não profissional.

Nesse contexto, a identificação biométrica poderá ser autorizada em casos de busca de suspeitos. Outro aspecto importante refere-se ao reconhecimento facial em tempo real, sujeito a uma rigidez normativa eficiente, já que utilizado para auxílio na localização de vítimas de crimes e identificação de suspeitos de infrações graves, como terrorismo e tráfico humano (Rivelli, 2023)[60].

Nota-se que a Justiça Criminal foi bastante agraciada pelo Regulamento da IA, no que concerne a essas questões, uma vez que trouxe ferramentas que poderão, inclusive, favorecer investigações e trazer resultados mais eficientes.

Ultrapassado o exame dos intricados desdobramentos atinentes à regulação pela União Europeia, cumpre dirigir o olhar para outros contornos normativos globais que circundam a IA. Assim, perpassando a ulterior narrativa, adentra-se ao ambiente norte-americano, onde foi publicado o Blueprint for an AI Bill of Rights (Projeto para uma Carta de Direitos da IA), publicado em outubro de 2022.

O Blueprint apresentou em seus regramentos cinco princípios que foram consagrados com base nos direitos civis norte-americanos. São eles:

 

- Sistemas seguros e eficazes: as pessoas devem ser protegidas contra sistemas de IA inseguros ou ineficazes.

- Proteções contra discriminação algorítmica: as pessoas não devem enfrentar discriminação por algoritmos, e os sistemas devem ser usados e projetados de maneira equitativa.

- Privacidade de dados:  as pessoas devem ser protegidas contra práticas abusivas de dados por meio de proteções integradas” e devem ter agência sobre como os dados sobre elas são usados.

- Aviso e explicação: as pessoas devem saber que um sistema automatizado está sendo usado e entender como e por que isso contribui para resultados que as afetam.

- Alternativas humanas, consideração e fallback:  as pessoas devem poder optar por não participar, quando apropriado, e ter acesso a uma pessoa que possa considerar e remediar rapidamente os problemas que elas encontram (Krantz; Jonker, 2023)[61].

  

Infere-se que os princípios citados pela regulação norte-americana buscam, não só proteger direitos fundamentais, mas também insuflar valores democráticos no desenvolvimento e na aplicação da inteligência artificial. Percebe-se, pois, o cuidado em equilibrar os avanços tecnológicos e a responsabilidade ética com essa transição.

No contexto chinês, os avanços na regulamentação da IA foram consolidados de modo mais abrasivo e estratégico. Em 2023, a Administração do Ciberespaço da China implementou diretrizes destinada aos provedores de IA, com a finalidade da análise de segurança e registro de algoritmos para influenciar pessoas (Heda, 2023)[62].

Além disso, o governo também incentiva o desenvolvimento de chips e softwares que, para muitos, se trata de uma forma de controle estatal, atrelado à inovação tecnológica. Ou seja, trata-se de uma forma de garantir que o desenvolvimento da IA esteja alinhado aos interesses estatais e à proteção social.

A UNESCO (United Nations Educational, Scientific and Cultural Organization) também assumiu importante feito no tocante à regulação da IA. Em novembro de 2021, aprovou a Recomendação sobre a Ética da Inteligência Artificial, sendo o primeiro regramento com abrangência global para o desenvolvimento e utilização da IA, com a adesão de 194 estados-membros da UNESCO (UNESCO, 2022)[63].

Dentre os seus princípios norteadores, destacam-se o da transparência, equidade, proteção de dados e supervisão humana.

Outra peculiaridade do regulamento da UNESCO é a garantia de que a IA contribua para a igualdade de gênero, aspecto de grande relevância diante dos desafios enfrentados, em relação aos vieses discriminatórios já elucidados no presente estudo.

No mesmo trilho, o Japão adotou o modelo soft low na regulamentação da IA. Em 2024, presidiu o Grupo dos Sete, tendo lançado um processo de IA em Hiroshima para elaborar princípios orientadores internacionais e um código de conduta internacional para IA generativa. Registrou-se que “cerca de 49 países e regiões aderiram à referida estrutura voluntária, chamada de Grupo de Amigos do Processo de IA de Hiroshima” (Estadão Conteúdo, 2024)[64].

Diante da análise realizada, percebe-se que, ainda que cada país tenha adotado um modelo de estratégia de regulação da IA, seja o da soft law ou da hard law, seus regramentos possuem em comum a preocupação com a ética. A transparência também parece ser outro fator norteador que tem impulsionado a regulação global, embora, para alguns, seja um desafio equilibrá-la com a supervisão estatal.

Por fim, para melhor organização didática, após a exposição dos pontos mais relevantes acerca do cenário global da regulação da IA, será realizada uma abordagem em apartado da referida temática no cenário brasileiro, conforme análise subsequente.

 

2.5.3.   Panorama Legislativo, sob o contexto brasileiro

 

O Brasil, assim como diversos outros países, inclusive os abordados na seção anterior, embora celebre os avanços tecnológicos cada vez mais acelerados, também reconheceu a necessidade de envidar esforços para a proposta de regulamentação da inteligência artificial, seguindo as diretrizes legislativas europeias.

Anteriormente, os principais indícios voltados para a regulação baseavam-se apenas em princípios gerais voltados para a eticidade do uso e desenvolvimento da tecnologia. Todavia, notou-se que seguir parâmetros abstratos, sem uma regulamentação normativa propriamente dita, não seria o melhor caminho a ser trilhado. Tornou-se evidente, pois, a necessidade de um marco normativo de regulação mais estruturado para a adoção de medidas efetivas, sobretudo, em caso de violação aos direitos humanos.

Enquanto não se voltavam para a formulação de propostas específicas para a regulamentação do desenvolvimento e aplicação da IA, outras legislações nortearam a tecnologia, conforme citadas ulteriormente de modo exemplificativo.

A Lei de Acesso à Informação foi instituída com a finalidade de garantir a transparência de informações perante a Administração Pública, com a ressalva daquelas de caráter sigiloso (Brasil, Lei nº 12.527, 2011)[65]. O Marco Civil da Internet trouxe inovação ao regulamentar a internet, criando diretrizes sobre a neutralidade de rede, privacidade, liberdade de expressão e a proteção de dados pessoais (Brasil, Lei nº 12.965, 2014)[66]. A Lei Geral de Proteção de Dados inspirada no Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, alterou o Marco Civil da Internet e buscou proteger direitos fundamentais como privacidade, transparência e segurança (Brasil, Lei n° 13.709/ 2018)[67].

Percebe-se que cada uma dessas leis contribuiu, de certa feita, para a construção de um arcabouço regulatório, ainda que não se tenha adotado regramentos específicos voltados diretamente para a inteligência artificial.

Contudo, o Brasil já apresentava sinais de que estava empenhado a aderir a uma regulação normativa voltada ao desenvolvimento e aplicação da IA. O PL 21/ 2020, por exemplo, buscava a salvaguarda de direitos fundamentais, além da observância de princípios relevantes, como o da transparência, todavia não logrou êxito, sendo arquivado posteriormente (Brasil, Projeto de Lei nº 21, de 2020)[68].

Já em 2023, mantendo-se a ideia inicial de regulamentação normativa, foi apresentada nova proposta legislativa para estabelecer o regramento da inteligência artificial de forma responsável. Assim, surgiu o PL 2.338/ 2023 com a finalidade de consolidação de princípios de governança e transparência voltados à regulamentação da IA no Brasil (Brasil, PL 2.338, 2023)[69].

Também chamado de Marco Regulatório da IA no Brasil, o projeto tem por escopo garantir o uso ético e responsável da inteligência artificial, além de abordar questões que têm sido referenciadas em outras nações, como a transparência, os direitos autorais e a supervisão de sistemas de IA.

Ainda sobre o referido projeto, importante registrar que a sua aprovação pelo Senado Federal se deu em dezembro de 2024, todavia encontra-se ainda em análise, tendo sido encaminhada em 17/03/2025 à Câmara dos Deputados para votação (Brasil, PL 2.338, 2023)[70].

Alfim, verifica-se que os regulamentos normativos anteriormente abordados já demonstravam a preocupação com questões relevantes atinentes à inteligência artificial, ainda que de forma indireta. Com a apresentação do PL 2.338/ 2023, o Brasil avança na construção de um conjunto normativo voltado ao equilíbrio entre desenvolvimento tecnológico e eticidade. Se aprovada, oferecerá maior garantia à aplicação responsável da IA no país.

 

2.6.       LEADING CASES RELACIONADOS A VIESES DISCRIMINATÓRIOS  

Ao longo da exposição, foram abordados diversos aspectos estruturais atinentes à inteligência artificial, perpassando por conceitos fundamentais para a compreensão da temática a ser desenvolvida a partir desta sequência. Diante disso, tornou-se imprescindível discutir questões como o problema do alinhamento e do controle algorítmico, os reflexos da opacidade nos sistemas de IA, o impacto das medidas de regulação de modo global e no Brasil, dentre outros. Cada um dos assuntos tratados até o momento está diretamente relacionado a casos emblemáticos no âmbito do Direito Penal, reforçando a importância da abordagem para o enfrentamento dos desafios relacionados aos vieses discriminatórios que serão analisados adiante.

2.6.1.   Caso Wisconsin vs. Loomis

 

Primeiramente, antes de esmiuçar sobre o polêmico imbróglio, é importante um breve apontamento sobre o software que recebeu a alcunha de COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Trata-se de um sistema de avaliação de risco utilizado pela justiça norte-americana, tendo por desiderato avaliar a previsão de risco de reincidência criminal.

Em sua análise, o COMPAS avalia o risco do réu, seguindo critérios como o histórico criminal, a condição socioeconômica e as circunstâncias da prática do delito. Por conseguinte, é gerada uma estimativa da probabilidade de reincidência.

Ademais, “o sistema é utilizado para avaliar o risco associado a um réu, auxiliando na decisão sobre sua possível libertação sob fiança, imposição de pena privativa de liberdade ou aplicação de medidas alternativas” (Perin, 2024)[71]. Trata-se, pois, de um mecanismo de busca de dados a serem fornecidos ao Poder Judiciário para que este defina a sanção a ser aplicada ao caso concreto.

Em que pese os avanços da tecnologia serem recepcionados de forma muito positiva no universo jurídico, é fundamental reconhecer os desafios atinentes à aplicação da inteligência artificial na esfera penal.

Em 2013, um incidente envolvendo o sistema COMPAS, na definição de sentenças na esfera criminal, obteve um desfecho que causou descontentamento, conforme detalhado a seguir:

O caso Wisconsin vs. Loomis levou a questão até a Suprema Corte estadunidense, quando Eric Loomis questionou o uso de um programa de inteligência artificial (o Compas – Correction Offender Management Profiling for Alternative Sanctions) por parte do Juízo para determinar a sua condenação a seis anos em regime fechado. A defesa de Loomis queria ter acesso aos critérios que levaram o robô algorítmico a recomendar sua pena – a Suprema Corte negou o recurso, assentando tratar-se de segredo industrial o caminho desenvolvido pelo referido robô (Supremo Tribunal Federal, 2020)[72].

 

O segredo industrial citado alhures, refere-se a uma estratégia adotada por empresas que visam a proteger informações sigilosas concernentes a uma a uma vantagem competitiva com seus concorrentes. Sua violação, inclusive, pode ser considerada uma concorrência desleal.

O Google é um exemplo de empresa que utiliza essa estratégia de segredo industrial. Recentemente, foi registrado um vazamento de milhares de documentos internos que revelou detalhes sigilosos sobre o funcionamento do seu algoritmo (Haas, 2024)[73].

Retornando à narrativa do caso em apreço, foi realizada em 2016 uma investigação pela ProPublica atinente ao sistema COMPAS, uma vez que havia indícios de que este estaria utilizando critérios de discriminação racial. Nesse contexto, observou-se que o sistema superestimava a probabilidade de reincidência de réus negros e, em contrapartida, subestimava a de réus brancos (Angwin; Larson; Mattu; Kirchner, 2016)[74].

Um breve adendo é necessário para melhor compreensão ao que foi versado anteriormente. A ProPublica refere-se a uma organização jornalística, sem fins lucrativos, sediada em Nova Iorque. Seu objetivo é investigar eventuais abusos de poder por parte de governos, relacionados a eventos de interesse público (Wikipédia, 2025)[75].

Na concepção errônea do COMPAS, réus negros eram considerados pessoas de alto risco de cometer crimes, ou serem reincidentes na prática do delito. Já os réus brancos eram classificados como de risco baixo, ainda que reincidentes (Perin, 2024)[76].

No caso de Loomis, ao proferir a sentença, o juiz aderiu ao COMPAS para fixar a pena de seis anos de prisão. Irresignada, a defesa argumentou que se tratava de violação do direito ao devido processo legal, já que o referido software era deficiente de transparência dos critérios que embasaram a decisão.

O COMPAS, por sua vez, rebateu as alegações, aduzindo que os referidos critérios utilizados não poderiam ser divulgados, haja vista que, por se tratar de segredo industrial, ou Trade Secret, em sua versão, na língua inglesa, as ferramentas algorítmicas não poderiam ser divulgadas. Defendeu, ainda, que se trata de propriedade intelectual e não há o que se falar em qualquer tipo de violação a direitos do réu.

Na mesma linha, a Suprema Corte alegou que não se tratava de violação de direitos de Loomis, todavia alertou aos juízes para que houvesse parcimônia ao utilizar ferramentas algorítmicas para proferir decisões.

O segredo de empresa tem sido bastante questionado, uma vez que, supostamente, há a colisão de dois direitos que se contrapõem. Por um lado, o direito da empresa referente à propriedade intelectual e, por outro, o direito do réu de uma sentença baseada em critérios transparentes e lógicos, isentos de qualquer discriminação, seja por raça, religião, condição financeira etc.

Por fim, reflete-se sobre o impacto dos avanços da tecnologia, sobretudo o uso da inteligência artificial para decisões judiciais já que, muitas vezes, tratam de questões sensíveis e passíveis de impasses advindos dos algoritmos. Torna-se necessário o equilíbrio entre direitos fundamentais e interesses empresariais.

 

2.6.2.   Caso Predpol

 

Outro software que também tem sido bastante questionado é o Predpol, um sistema de policiamento preditivo utilizado para prever locais e horários com maior probabilidade de ocorrência de crimes, com base em dados históricos.

Utilizado na Pensilvânia, Estados Unidos, o Predpol tem sido recepcionado de forma bastante positiva, sendo constatada, inclusive, a redução da criminalidade naquela região. Registros apontaram que o sistema apresentou excelentes resultados: “em 14 meses, o número de roubos caiu 23%, apesar da redução do contingente policial nesse período. A chave foi o algoritmo da PredPol, uma startup californiana que usa a big data para prever o comportamento da criminalidade” (Elpaís, 2017)[77].

Para o seu cofundador, Jeff Brantingham, o PredPol não informa a previsão exata da ocorrência de delitos, todavia aponta locais e horários com maior probabilidade de ocorrência destes, geralmente nas próximas 10 a 12 horas antes de serem consumados. A metodologia aplicada considera três fatores: tipo de crime, localização e momento da ocorrência (El País, 2017)[78].

Seguindo as mesmas críticas que o COMPAS, o PredPol também foi alvo de questionamentos acerca da ocorrência de discriminação algorítmica. Embora indique a preocupação com a otimização da força policial, direcionando-a aos locais de maior incidência de crimes, é possível que sua aplicação perpetue desigualdades no policiamento.

Em outras palavras, o referido software tem sido criticado por estar, supostamente, direcionando o policiamento de modo desproporcional para bairros onde residem pessoas negras, sendo, portanto, mais um caso apontado por conter vieses algorítmicos.

 

2.6.3.   Caso Randall Reid

 

Mais um caso de discriminação racial envolvendo algoritmos foi alvo de polêmicas. O caso ocorreu no final do ano de 2022, no dia seguinte ao Dia de Ação de Graças, quando um homem negro, chamado Randal Quran Reid, foi abordado pela polícia estadual da Geórgia, quando pretendia visitar sua mãe. Ao questionar o motivo de sua prisão, foi informado que, através de reconhecimento facial, ele foi identificado como suposto autor do crime de roubo de cartão de crédito utilizado para a compra de bolsas de luxo no valor de US$ 8.000, em Nova Orleans.

A acusação causou estranheza ao Sr. Reid, uma vez que, além de não ter roubado um cartão de crédito, ele nunca havia visitado sequer o Estado da Louisiana, onde é localizada Nova Orleans, razão pela qual seria impossível que ele tivesse praticado aquele crime. Sua indignação o levou a processar o gabinete do xerife de Louisiana devido à prisão injusta (Independent, 2023)[79].

O caso gerou preocupação sobre a confiabilidade das ferramentas de reconhecimento facial quando utilizadas como única base para efetuar prisões. Reflete, ainda, sobre a necessidade de revisão humana adequada para confirmar a identidade das pessoas, sempre que houver o auxílio da tecnologia de inteligência artificial.

Nota-se que cada caso abordado traz um alerta sobre questões que envolvem viés algorítmico na aplicação da inteligência artificial no âmbito do Direito Penal.

No caso Loomis, a ausência de transparência algorítmica se colide com o direito do réu de ter acesso aos critérios utilizados pela IA para definir sua sentença. De igual modo, no caso PredPol, relacionado ao policiamento preditivo, percebeu-se a ocorrência de discriminação algorítmica na segurança pública, já que a polícia se dirigia mais aos bairros de minorias raciais. Por fim, no caso Randall Reiv, a inteligência artificial, mais uma vez, atua de modo indesejado, já que, ao utilizar o reconhecimento facial como única base, sem revisão humana, efetua uma prisão injusta de um homem negro.

A aplicação de ferramentas de inteligência artificial na seara criminal, embora ofereçam praticidade e economia de tempo na automação de tarefas rotineiras, demonstram também que não podem ser utilizadas de modo exclusivo, sem a interferência humana.

Por derradeiro, conclui-se que é necessário que a adoção da inteligência artificial, de modo geral, esteja alinhada à eticidade. Atender às diretrizes impostas pela regulação da IA, promover a transparência, respeitar direitos fundamentais e agir de modo imparcial são alguns passos essenciais para garantir o equilíbrio entre a inovação e o respeito à dignidade humana.

 

3.      Considerações Finais

           

Ao longo desta disquisição, foi possível verificar que a inteligência artificial tem se apresentado de modo infinitamente evolutivo com o decurso do tempo. Em contrapartida, cada passo dado tem também invocado desafios incalculáveis acerca do equilíbrio entre a tecnologia avançada e a salvaguarda de direitos fundamentais das pessoas.

            Percebe-se que a tecnologia vem ganhando espaço em diversas áreas da vida cotidiana, cumprindo tarefas que, anteriormente, eram restritas à mente humana. Com a evolução tecnológica, esse sobressalto ganhou contornos ainda mais positivos, contudo ainda é necessário parcimônia para que a inteligência artificial não se transforme em um verdadeiro vilão.

            Ainda assim, é notável que a inteligência artificial tem sido bastante salutar, enquanto vista como ferramenta auxiliar, capaz de oferecer velocidade no cumprimento de tarefas e de modo aperfeiçoado. Contudo, é imprescindível que os atos regulatórios sejam, de fato, eficientes a ponto de exterminar vieses discriminatórios, porventura, existentes.

            Durante o estudo realizado, foi possível inferir que a questão da transparência algorítmica percorre campos áridos, em meio aos embates entre interesses corporativos e governamentais. É preciso descortinar a subjetividade por trás de argumentos que, em vez de oferecerem soluções, buscam apenas resguardar interesses próprios, como a questão abordada sobre o “segredo industrial”, em detrimento de direitos fundamentais inerentes à coletividade.

            O problema do alinhamento algorítmico também é um ponto importante que se destacou no presente ensaio. Mostrou-se que o desenvolvimento da inteligência artificial precisa garantir meios eficientes para que suas decisões estejam em conformidade com princípios éticos e sociais.

Ademais, um dos desafios do alinhamento refere-se ao fato de que os valores humanos de cada nação são peculiares aos seus costumes e interesses. Em outras palavras, considerando que cada país possui suas normas, valores e prioridades distintas, é essencial que haja uma padronização global dos critérios de alinhamento algorítmico. A inteligência artificial, ao ser aplicada em diferentes contextos, deve considerar essas particularidades para evitar conflitos éticos e decisões enviesadas.

De igual monta, a questão abordada sobre o controle algorítmico também merece destaque, uma vez que a supervisão e a regulamentação da inteligência artificial são fundamentais para assegurar que a sua aplicação ocorra de modo alinhado à eticidade e à transparência.

Outrossim, impende mencionar que a automatização de decisões não pode ser aplicada sem a devida supervisão humana, a fim de se evitar decisões enviesadas, perpetuando desigualdades embasadas em dados históricos que já não fazem - ou nunca fizeram - sentido algum no contexto social da humanidade.

Ainda que cada nação adote um regulamento próprio que esteja alinhado aos seus interesses, é imprescindível que se busque a padronização no que tange a aspectos éticos, ainda que suas ideologias sejam diversas.

Não se pode aceitar uma “anarquia algorítmica”, sem um controle rígido e capaz de aplicar sanções, em caso de violação a direitos fundamentais da humanidade, em especial, no que toca à discriminação de minorias, já tão massacradas em sua história.

Por fim, a abordagem sobre a discriminação algorítmica, sob o contexto da seara criminal, reforça a necessidade de uma regulação da inteligência artificial, adotando-se o modelo hard law, já que caracterizado por regras vinculativas, passíveis de aplicação de sanção, em caso de insubordinação.

Através da abordagem atinente aos polêmicos leading cases inseridos no contexto penal, ressaltou-se a importância da aplicação de medidas regulatórias que combatam os vieses algorítmicos. O uso de ferramentas por meio de inteligência artificial, como no caso do reconhecimento facial que resultou na prisão equivocada de uma pessoa negra inocente, não pode servir de embasamento único. É necessário que, de forma conjunta, haja supervisão humana para se evitar decisões errôneas.

Desta feita, o monitoramento contínuo e auditorias especializadas tornam-se, portanto, imprescindíveis para garantir que a inteligência artificial seja desenvolvida e aplicada dentro de padrões éticos e jurídicos adequados.

A adoção da IA, portanto, deve estar em conformidade com a transparência, a equidade e a responsabilidade, de modo a minimizar impactos negativos e maximizar os benefícios que essa tecnologia pode proporcionar.

Ademais, considerando que a evolução tecnológica caminha de forma cada vez mais acelerada, é necessário que a sociedade esteja preparada para futuros impactos advindos com a iminente chegada da superinteligência. Se atualmente o cenário apresenta situações complexas e conflitantes entre tecnologia e direitos, futuramente, os embates poderão ser ainda mais intensos.

É necessário que sejam criadas diretrizes claras que se atenham aos direitos fundamentais, com a adoção de critérios transparentes, sobretudo, em respeito ao devido processo legal. Deve-se, portanto, combater práticas discriminatórias por meio de políticas públicas e frameworks éticos para que os algoritmos sejam desenvolvidos e usados de maneira justa, transparente e inclusiva.

Alfim, entende-se que a regulamentação da IA é o instrumento indispensável para mitigar riscos e promover uma governança algorítmica moldada em princípios éticos, garantindo transparência, equidade e responsabilidade no desenvolvimento e aplicação dessas tecnologias. Além disso, a normatização adequada permite equilibrar inovação e proteção de direitos fundamentais, fortalecendo a confiança da sociedade no uso da inteligência artificial.


REFERÊNCIAS

A diferença entre machine learning e deep learning. Curitiba: Pontifícia Universidade Católica do Paraná (PUCPR), 2023.. Disponível em: https://posdigital.pucpr.br/blog/machine-learning-deep-learningAcesso em: 3 abr. 2025.

 

ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. How We Analyzed the COMPAS Recidivism Algorithm. ProPublica, 23 maio 2016. Disponível em: ProPublica. Acesso em: 28 abr. 2025.

 

ARPANET. In: Wikipédia, a enciclopédia livre. Flórida: Wikimedia Foundation, 2025. Disponível em: https://pt.wikipedia.org/wiki/ARPANET Acesso em: 30 mar. 2025.

 

BALDISSERA, Olívia. Os 3 tipos de Inteligência Artificial. Curitiba: Pontifícia Universidade Católica do Paraná.  Disponível em: https://posdigital.pucpr.br/blog/tipos-de-inteligencia-artificial. Acesso em: 29 mar. 2025.

 

BARBOSA, Andressa. O que é a superinteligência artificial? São Paulo: Forbes Brasil, 2023. Disponível em https://forbes.com.br/forbes-tech/2023/06/o-que-e-a-superinteligencia-artificial/. Acesso em: 31 mar. 2025. 

BARROS FILHO, Clóvis de. A ética no uso dos algoritmos. Espaço Ética, 12 jul. 2022. Disponível em: https://espacoetica.com.br/etica-uso-dos-algoritmos/. Acesso em: 18 abr. 2025.

BASSO, Douglas Eduardo. Big data. Curitiba: Contentus, 2020. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 10 abr. 2025.

 

BIZZOTTO, Pedro Maia. Regulação de opacidade algorítmica: a falta de transparência em decisões automatizadas enquanto problema regulatório. Trabalho de Conclusão de Curso – FGV DIREITO RIO, sob a orientação do professor(a) Nicolo Zingales, Rio de Janeiro: Fundação Getúlio Vargas (FGV), 2023.

 

BOSTROM, Nick. Superinteligência: caminhos, perigos, estratégias. [S.l.]: Teel Editorial, 2016. p. 115.

 

BRASIL. Lei nº 12.527, de 18 de novembro de 2011. Regula o acesso a informações públicas. Brasília: Presidência da República, 2011. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2011/lei/l12527.htm. Acesso em: 28 abr. 2025.

 

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília: Presidência da República, 2014. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 28 abr. 2025.

 

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Dispõe sobre a proteção de dados pessoais e altera a Lei nº 12.965, de 23 de abril de 2014 (Marco Civil da Internet). Brasília: Presidência da República, 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 28 abr. 2025.

 

BRASIL. Senado Federal. PL 2.338/2023 – Regulamentação da Inteligência Artificial. Senado Federal, 2024. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/151547. Acesso em: 27 abr. 2025.

 

BRASIL. Senado Federal. PL 2.338/2023 – Regulamentação da Inteligência Artificial. Senado Federal, 2025. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 28 abr. 2025.

 

CASTRO, D.J. Os impactos da IA como tecnologia de propósito geral. Economia SC, 2024. Disponível em: https://economiasc.com/2024/04/02/os-impactos-da-ia-como-tecnologia-de-proposito-geral/. Acesso em: 9 abr. 2025.

COELHO, Taysa. Algoritmo. Portugal: Significados, (s.d). Disponível em: Algoritmo: o que é, definição, exemplos e aplicações - Significados Acesso em: 04 de abril de 2025.

 

COMISSÃO EUROPEIA. AI Act enters into force on August 1, 2024. Bruxelas: European Commission, 2024. Disponível em: https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_pt. Acesso em: 27 abr. 2025.

 

CONSELHO NACIONAL DE JUSTIÇA (Brasil). Resolução n.º 332, de 21 de agosto de 2020. Define os parâmetros para o uso de inteligência artificial no Poder Judiciário. Brasília, DF: CNJ, 2020. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 09 abr. 2025.

 

COSTA, Mirla; PYRES, Leticia. Direto ao ponto: o que é Machine Learning com exemplos reais. São Paulo: Alura, 2024.. Disponível em: O que é Machine Learning? | Alura.  Acesso em: 03 abril 2025.

 

DUARTE, Roberto Dias. Inteligência Artificial Geral (AGI): Conceitos e Desafios.  Belo Horizonte: RDD. Disponível em: https://www.robertodiasduarte.com.br/inteligencia-artificial-geral-agi-conceitos-e-desafios/#Introducao. Acesso em: 31 mar. 2025.

 

EL PAÍS BRASIL. O uso da tecnologia no policiamento preditivo. Disponível em: https://brasil.elpais.com/brasil/2017/03/09/tecnologia/1489078250_691655.html. Acesso em: 29 abr. 2025.

 

ESCOLA DA MAGISTRATURA DO ESTADO DO RIO DE JANEIRO (EMERJ). A utilização da Inteligência Artificial no contexto do Poder Judiciário: riscos e desafios. Rio de Janeiro: Escola da Magistratura do Estado do Rio de Janeiro, 2024. Disponível em: https://emerj.tjrj.jus.br/noticia/2032.  Acesso em: 10 abr. 2025.

 

ESTADÃO CONTEÚDO. Japão apresenta código de conduta internacional de regulamentação de IA. São Paulo: Revista Exame, 2024. Disponível em: https://exame.com/inteligencia-artificial/japao-apresenta-codigo-de-conduta-internacional-de-regulamentacao-de-ia/. Acesso em: 27 abr. 2025.

 

FILHO, Oscar Gabriel. Inteligência artificial e aprendizagem de máquina: aspectos teóricos e aplicações. 1. ed. São Paulo, SP: Blucher, 2023. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 06 abr. 2025.

 

GABRIEL, Iason. Artificial Intelligence, Values, and Alignment. Minds and Machines, v. 30, p. 411-437, 2020. Disponível em: Springer. Acesso em: 18 abr. 2025.

 

GIANNINI, Alessandro. O que é Manus, a nova inteligência artificial que promete fazer tudo. São Paulo: Revista Veja, 2025. Disponível em: https://veja.abril.com.br/tecnologia/o-que-e-manus-a-nova-inteligencia-artificial-que-promete-fazer-tudo/. Acesso em: 30 abr. 2025.

 

GONÇALVES, Mariana Sbaite. Viés algorítmico e discriminação: IA pode amplificar vieses sociais. São Paulo: Migalhas, 2024. Disponível em: https://www.migalhas.com.br/depeso/415125/vies-algoritmico-e-discriminacao-ia-pode-amplificar-vieses-sociais.  Acesso em: 13 abr. 2025.

HAAS, Guilherme. Vazamento revela segredos do algoritmo de busca do Google. Canaltech, 28 maio 2024. Disponível em: https://canaltech.com.br/internet/vazamento-revela-segredos-do-algoritmo-de-busca-do-google-290911/. Acesso em: 28 abr. 2025.

 

HEDA, Laura. China avança na regulamentação da inteligência artificial. São Paulo: CNN Brasil, 2023. Disponível em: <https://www.cnnbrasil.com.br/tecnologia/china-avanca-na-regulamentacao-da-inteligencia-artificial/>. Acesso em: 27 abr. 2025. 

 

KAUFMAN, Dora. Desmistificando a inteligência artificial. 1. ed. São Paulo: Autêntica, 2022. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 27 mar. 2025.

 

KAUFMAN, Dora. Proposta europeia de regulamentação da IA: impressões preliminares. São Paulo: Época Negócios, 2021. Disponível em: https://epocanegocios.globo.com/colunas/IAgora/noticia/2021/04/proposta-europeia-de-regulamentacao-da-ia-impressoes-preliminares.html. Acesso em: 9 abr. 2025.

 

KRANTZ, Tom; JONKER, Alexandra. Blueprint for an AI Bill of Rights. Disponível em: https://www.ibm.com/br-pt/think/topics/ai-bill-of-rights. 2023. Acesso em: 27 abr. 2025.

 

LIMA, Samuel. Defensoria Pública de SP adota IA para agilizar rotina e defende paridade de armas com escritórios privados. Rio de Janeiro: O Globo, 2025. Disponível em: https://oglobo.globo.com/brasil/noticia/2025/04/11/defensoria-publica-de-sp-adota-ia-para-agilizar-rotina-e-defende-paridade-de-armas-com-escritorios-privados.ghtml. Acesso em: 11 abr. 2025.

 

LUGER, G. F. Inteligência artificial. 6. ed. São Paulo: Pearson, 2013. E-book. Disponível em: https://plataforma.bvirtual.com.br . Acesso em: 23 mar. 2025.

 

MATOS, Felipe Figueiredo. O que é a inteligência artificial, o que ela promete e quais são os seus conflitos. São Paulo: Migalhas de Peso, 2025. Disponível em: https://www.migalhas.com.br/depeso/424078/o-que-e-a-ia-o-que-ela-promete-e-quais-sao-os-seus-conflitosAcesso em: 22 mar.2025

 

McCarthy, J., Minsky, M., Rochester, N., Shannon, CE. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Disponível em: http://raysolomonoff.com/dartmouth/boxa/dart564props.pdf . Acesso em: 22 mar. 2025.

 

NANDA, Arun. Superalignment. Nova Iorque: DataCamp, 2024. Disponível em: https://www.datacamp.com/pt/blog/superalignment. Acesso em: 19 abr. 2025.

 

NEGRI, Sergio Marcos Carvalho de Ávila; GIOVANIN, Carolina Fiorini Ramos. Leis da robótica: da ficção de Isaac Asimov ao debate sobre sistemas de inteligência artificial Brasília: Revista do Tribunal Regional Federal da Primeira Região, 2021. Disponível em: https://revista.trf1.jus.br/trf1/article/view/488/355. Acesso em: 21 abr. 2025.

 

Nick Bostrom. In: Wikipédia, a enciclopédia livre. Flórida: Wikimedia Foundation, 2025. Disponível em: Nick Bostrom – Wikipédia, a enciclopédia livre. Acesso em: 01 abr. 2025.

 

NISTAL, Matheus. Para especialista, algoritmos opacos decidem sobre a vida das pessoas. São Paulo: Instituto de Estudos Avançados da Universidade de São Paulo, 2023.

 

NUNAN, Vladimir. Inteligência Artificial: Nem Inteligente, Nem Artificial, Segundo Miguel Nicolelis.  Ceará: Eduvem, 2025. Disponível em: https://eduvem.com/inteligencia-artificial-nem-inteligente-nem-artificial-segundo-miguel-nicolelis/ Acesso em 27 mar. 2025.

 

NUNES, Luana Esteche. O controle algorítmico e o capitalismo de vigilância. GEDAI - Grupo de Estudos em Direito Autoral e Industrial da UFPR, 2025. Disponível em: https://gedai.ufpr.br/controle-algoritmico-e-liberdade-de-escolha-no-capitalismo-de-vigilancia/#:~:text=O%20controle%20algor%C3%ADtmico%20e%20o,qualquer%20oposi%C3%A7%C3%A3o%20efetiva%20pelo%20usu%C3%A1rio. Acesso em: 21 abr. 2025.

 

O Jogo da Imitação.  In: Wikipédia, a enciclopédia livre. Flórida: Wikimedia Foundation, 2025. Disponível em: https://pt.wikipedia.org/wiki/O_Jogo_da_Imita%C3%A7%C3%A3o. Acesso em 24 mar. 2025.

 

O que é a IA generativa? São Paulo: IBM Brasil, 2024. Disponível em: https://www.ibm.com/br-pt/think/topics/generative-ai Acesso em: 06 abril 2025.

 

OLIVEIRA, Cristina Godoy Bernardo de; BELOTTI, Emily Liene. O que a China revela e alerta sobre o controle de algoritmos de IA. São Paulo: Migalhas, 2024. Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-dados/417125/o-que-a-china-revela-e-alerta-sobre-o-controle-de-algoritmos-de-ia. Acesso em: 21 abr. 2025.

 

OPENAI. Faulty reward functions in the wild. Califórnia: OpenAI. Disponível em: https://openai.com/index/faulty-reward-functions/. Acesso em: 18 abr. 2025.

[1] ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO (OCDE). AI principles. Paris: OCDE, 2024. Disponível em: https://www.oecd.org/en/topics/ai-principles.html. Acesso em: 27 abr. 2025. 

 

PEREIRA, Ana Paula. Algoritmo: o que é, como funciona e quais suas aplicações? Curitiba:TecMundo, 2024. Disponível em: TecMundo. Acesso em: 3 abr. 2025.

PERIN, Mônica Azevedo Ribeiro. Inteligência Artificial: riscos reais e desafios a serem desbravados. Jusbrasil, 2025. Disponível em: https://www.jusbrasil.com.br/artigos/inteligencia-artificial-riscos-reais-e-desafios-a-serem-desbravados/2918516603. Acesso em: 28 abr. 2025.

 

PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO GRANDE DO SUL. Inteligência Artificial, Ética, Regulação e Proteção de Dados.. In: Aula do Curso de Pós-graduação em Direito Digital e LGPD. Porto Alegre: Pontifícia Universidade Católica do Rio Grande do Sul, 2024. E-book. Disponível em: https://l1nq.com/salavirtualpucrs-inteligenciaartificialeregulacao . Acesso em: 23 abr. 2025.

 

PROPUBLICA. In: Wikipédia, a enciclopédia livre. Flórida: Wikimedia Foundation, 2025.  Disponível em: https://pt.wikipedia.org/wiki/ProPublica. Acesso em: 29 abr. 2025.

 

PUCRS Online. Algoritmos na Lei: O Guia Definitivo para Automação Jurídica. Porto Alegre: Pontifícia Universidade Católica Do Rio Grande Do Sul.  Disponível em: https://online.pucrs.br/blog/algoritmos-na-lei-automacao-juridica.  Acesso em: 08 abr. de 2025.

 

RIGUES, Rafael. Mãe da internet: conheça a história da ARPANET. São Paulo: Olhar Digital, 2019. Disponível em: https://olhardigital.com.br/2019/10/24/internet-e-redes-sociais/mae-da-internet-conheca-a-historia-da-arpanet/ . Acesso em: 30 mar. 2025.

 

RIVELLI, Fabio. IA Act: um marco na regulação digital do mundo. São Paulo: Migalhas, 2023. Disponível em: https://www.migalhas.com.br/amp/coluna/ia-em-movimento/399199/ia-act-um-marco-na-regulacao-digital-do-mundo. Acesso em: 27 abr. 2025.

 

SALDANHA, J. L. Opacidade algorítmica e o sentido da vida, do universo e de tudo mais. Blog Tripla, 2023. Disponível em: https://blog.tripla.com.br/opacidade-algoritmica/. Acesso em: 15 abr. 2025.

 

SILVA, Paula Guedes Fernandes da; GARROTE, Marina Gonçalves. Insuficiência dos princípios éticos para normatização da inteligência artificial: o antirracismo e a anti-discriminação como vetores da regulação de IA no Brasil. São Paulo: Data Privacy Brasil Research, 2025. Disponível em: https://www.dataprivacybr.org/documentos/insuficiencia-dos-principios-eticos-para-normatizacao-da-inteligencia-artificial-o-antirracismo-e-a-anti-discriminacao-como-vetores-da-regulacao-de-ia-no-brasil/. Acesso em: 24 abr. 2025.

 

SILVA, Victor Hugo. Instagram e Facebook usam suas fotos e textos para treinar IA:  por que a prática está sendo questionada? São Paulo: G1, 2024. Disponível em: https://g1.globo.com/tecnologia/noticia/2024/07/01/instagram-e-facebook-usam-suas-fotos-e-textos-para-treinar-ia-por-que-a-pratica-esta-sendo-questionada.ghtml. Acesso em: 23 abr. 2025.

 

SOLYD. Bug bounty: o que é, como funciona e as principais plataformas. Solyd Blog, 2024. Disponível em: https://blog.solyd.com.br/bug-bounty-o-que-e-como-funciona-e-as-principais-plataformas/. Acesso em: 18 abr. 2025.

 

SUPREMO TRIBUNAL FEDERAL. Curso a distância: Aplicação da Inteligência Artificial ao Direito. Brasília: Coordenadoria de Desenvolvimento de Pessoas, 2020. Disponível em: ead.stf.jus.br. Acesso restrito com login e senha em 24 mar. 2025.

 

THE INDEPENDENT. Louisiana police facial recognition lawsuit. Londres: The Independent. Disponível em: https://www.independent.co.uk/news/world/americas/crime/louisiana-police-facial-recognition-lawsuit-b2419085.html. Acesso em: 29 abr. 2025.

 

TOOLIFY. A Ascensão do Maximizador de Clipes de Papel: A Ameaça da Superinteligência Artificial. Toolify, 2024. Disponível em https://www.toolify.ai/pt/ai-news-pt/a-ascenso-do-maximizador-de-clipes-de-papel-a-ameaa-da-superinteligncia-artificial-2352495. Acesso em: 19 abr. 2025.

 

UNESCO. Recommendation on the Ethics of Artificial Intelligence. UNESCO, 2022. Disponível em: https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence. Acesso em: 27 abr. 2025.

 

VALDATI, Aline de Brittos. Inteligência artificial - IA. 1. ed. São Paulo: Contentus, 2020. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 26 mar. 2025.

 

VILALTA, Lucas. É possível termos transparência de algoritmos para sistemas de inteligência artificial? São Paulo: Jornal da USP, 2024. Disponível em: https://jornal.usp.br/artigos/e-possivel-termos-transparencia-de-algoritmos-para-sistemas-de-inteligencia-artificial/. Acesso em: 22 abr. 2025.

 

What did john mccarthy define ai as? Tampere: GB Times. Disponível em: https://gbtimes.com/what-did-john-mccarthy-define-ai-as/ . Acesso em: 22 mar. 2025.

 

ZUBOFF, Shoshana. Harvard professor says surveillance capitalism is undermining democracy. Cambridge: Harvard Gazette, 2019. Disponível em: https://news.harvard.edu/gazette/story/2019/03/harvard-professor-says-surveillance-capitalism-is-undermining-democracy/. Acesso em: 21 abr. 2025.

 

 

 



[1] LUGER, G. F. Inteligência artificial. 6. ed. São Paulo: Pearson, 2013. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 23 mar. 2025.

 

[2] O Jogo da Imitação.  In: Wikipédia, a enciclopédia livre. Flórida: Wikimedia Foundation, 2025. Disponível em: https://pt.wikipedia.org/wiki/O_Jogo_da_Imita%C3%A7%C3%A3o. Acesso em: 24 mar. 2025.

[3] McCarthy, J., Minsky, M., Rochester, N., Shannon, CE. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. Disponível em: http://raysolomonoff.com/dartmouth/boxa/dart564props.pdf. Acesso em: 22 mar. 2025.

[4] ARPANET. In: Wikipédia, a enciclopédia livre. Flórida: Wikimedia Foundation, 2025. Disponível em: https://pt.wikipedia.org/wiki/ARPANET. Acesso em: 30 mar. 2025.

 

[5] RIGUES, Rafael. Mãe da internet: conheça a história da ARPANET. São Paulo: Olhar Digital, 2019. Disponível em: https://olhardigital.com.br/2019/10/24/internet-e-redes-sociais/mae-da-internet-conheca-a-historia-da-arpanet/. Acesso em: 30 mar. 2025.

 

[6] Ibidem

[7] What did john mccarthy define ai as? Tampere: GB Times. Disponível em: https://gbtimes.com/what-did-john-mccarthy-define-ai-as/. Acesso em: 22 mar. 2025.

[8] VALDATI, Aline de Brittos. Inteligência artificial - IA. 1. ed. São Paulo: Contentus, 2020. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 26 mar. 2025.

 

[9] NUNAN, Vladimir. Inteligência Artificial: Nem Inteligente, Nem Artificial, Segundo Miguel Nicolelis.  Ceará: Eduvem, 2025. Disponível em: https://eduvem.com/inteligencia-artificial-nem-inteligente-nem-artificial-segundo-miguel-nicolelis/. Acesso em 27 mar. 2025.

 

[10] Ibidem.

 

[11] Ibidem.

 

[12] KAUFMAN, Dora. Desmistificando a inteligência artificial. 1. ed. São Paulo: Autêntica, 2022. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 27 mar. 2025.

[13] BALDISSERA, Olívia. Os 3 tipos de Inteligência Artificial. Curitiba: Pontifícia Universidade Católica do Paraná.  Disponível em: https://posdigital.pucpr.br/blog/tipos-de-inteligencia-artificial. Acesso em: 29 mar. 2025.

 

[14] Ibidem.

[15] DUARTE, Roberto Dias. Inteligência Artificial Geral (AGI): Conceitos e Desafios.  Belo Horizonte: RDD. Disponível em: https://www.robertodiasduarte.com.br/inteligencia-artificial-geral-agi-conceitos-e-desafios/#Introducao. Acesso em: 31 mar. 2025.

[16]  GIANNINI, Alessandro. O que é Manus, a nova inteligência artificial que promete fazer tudo. São Paulo: Revista Veja, 2025. Disponível em: https://veja.abril.com.br/tecnologia/o-que-e-manus-a-nova-inteligencia-artificial-que-promete-fazer-tudo/. Acesso em: 30 abr. 2025.

 

[17] BARBOSA, Andressa. O que é a superinteligência artificial? São Paulo: Forbes Brasil, 2023. Disponível em https://forbes.com.br/forbes-tech/2023/06/o-que-e-a-superinteligencia-artificial/. Acesso em: 31 mar. 2025.  

 

[18] Nick Bostrom. In: Wikipédia, a enciclopédia livre. Flórida: Wikimedia Foundation, 2025. Disponível em: Nick Bostrom – Wikipédia, a enciclopédia livre. Acesso em: 01 abr. 2025.

 

[19] BOSTROM, Nick. Superinteligência: caminhos, perigos, estratégias. [S.l.]: Teel Editorial, 2016. p. 115.

[20] COSTA, Mirla; PYRES, Leticia. Direto ao ponto: o que é Machine Learning com exemplos reais. São Paulo: Alura, 2024.. Disponível em: O que é Machine Learning? | Alura.  Acesso em: 03 abril 2025.

 

[21] MATOS, Felipe Figueiredo. O que é a inteligência artificial, o que ela promete e quais são os seus conflitos. São Paulo: Migalhas de Peso, 2025. Disponível em: https://www.migalhas.com.br/depeso/424078/o-que-e-a-ia-o-que-ela-promete-e-quais-sao-os-seus-conflitos.  Acesso em: 22 mar.2025.

 

[22] PEREIRA, Ana Paula. Algoritmo: o que é, como funciona e quais suas aplicações? Curitiba:TecMundo, 2024. Disponível em: TecMundo. Acesso em: 3 abr. 2025.

[23] A diferença entre machine learning e deep learning. Curitiba: Pontifícia Universidade Católica do Paraná (PUCPR), 2023. Disponível em: https://posdigital.pucpr.br/blog/machine-learning-deep-learning.  Acesso em: 3 abr. 2025.

 

[24] COELHO, Taysa. Algoritmo. Portugal: Significados, (s.d). Disponível em: Algoritmo: o que é, definição, exemplos e aplicações - Significados.  Acesso em: 04 de abril de 2025.

 

[25] O que é a IA generativa? São Paulo: IBM Brasil, 2024. Disponível em: https://www.ibm.com/br-pt/think/topics/generative-ai . Acesso em: 06 abril 2025.

 

[26] Ibidem.

 

[27] COZMAN, Fabio Gagliardi; KAUFMAN, Dora. Viés no aprendizado de máquina em sistemas de inteligência artificial: a diversidade de origens e os caminhos de mitigação. São Paulo: Revista USP, n. 135, p. 195-210, out./nov./dez. 2022. Disponível em: https://www.revistas.usp.br/revusp/article/download/206235/189877/596954. Acesso em: 06 abr. 2025.

 

[28] GABRIEL FILHO, Oscar.  Inteligência artificial e aprendizagem de máquina: aspectos teóricos e aplicações. 1. ed. São Paulo, SP: Blucher, 2023. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 06 abr. 2025.

 

[29] Ibidem.

[30] CONSELHO NACIONAL DE JUSTIÇA (Brasil). Resolução n.º 332, de 21 de agosto de 2020. Define os parâmetros para o uso de inteligência artificial no Poder Judiciário. Brasília, DF: CNJ, 2020. Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 09 abr. 2025.

 

[31] PUCRS Online. Algoritmos na Lei: O Guia Definitivo para Automação Jurídica. Porto Alegre: Pontifícia Universidade Católica Do Rio Grande Do Sul.  Disponível em: https://online.pucrs.br/blog/algoritmos-na-lei-automacao-juridica.  Acesso em: 08 abr. de 2025.

 

[32] KAUFMAN, Dora. Proposta europeia de regulamentação da IA: impressões preliminares. São Paulo: Época Negócios, 2021. Disponível em: https://epocanegocios.globo.com/colunas/IAgora/noticia/2021/04/proposta-europeia-de-regulamentacao-da-ia-impressoes-preliminares.html. Acesso em: 9 abr. 2025.

 

[33] CASTRO, D.J. Os impactos da IA como tecnologia de propósito geral. Blumenau: Economia SC, 2024. Disponível em: https://economiasc.com/2024/04/02/os-impactos-da-ia-como-tecnologia-de-proposito-geral/. Acesso em: 9 abr. 2025.

 

[34] LIMA, Samuel. Defensoria Pública de SP adota IA para agilizar rotina e defende paridade de armas com escritórios privados. Rio de Janeiro: O Globo, 2025. Disponível em: https://oglobo.globo.com/brasil/noticia/2025/04/11/defensoria-publica-de-sp-adota-ia-para-agilizar-rotina-e-defende-paridade-de-armas-com-escritorios-privados.ghtml. Acesso em: 11 abr. 2025.

 

[35] BASSO, Douglas Eduardo. Big data. Curitiba: Contentus, 2020. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 10 abr. 2025.

 

[36] GONÇALVES, Mariana Sbaite. Viés algorítmico e discriminação: IA pode amplificar vieses sociais. São Paulo: Migalhas, 2024. Disponível em: https://www.migalhas.com.br/depeso/415125/vies-algoritmico-e-discriminacao-ia-pode-amplificar-vieses-sociais.  Acesso em: 13 abr. 2025.

 

[37] ESCOLA DA MAGISTRATURA DO ESTADO DO RIO DE JANEIRO (EMERJ). A utilização da Inteligência Artificial no contexto do Poder Judiciário: riscos e desafios. Rio de Janeiro: Escola da Magistratura do Estado do Rio de Janeiro, 2024. Disponível em: https://emerj.tjrj.jus.br/noticia/2032.  Acesso em: 10 abr. 2025.

[38] BIZZOTTO, Pedro Maia. Regulação de opacidade algorítmica: a falta de transparência em decisões automatizadas enquanto problema regulatório. Trabalho de Conclusão de Curso – FGV DIREITO RIO, sob a orientação do professor(a) Nicolo Zingales, Rio de Janeiro: Fundação Getúlio Vargas (FGV), 2023.

 

 

[39] SALDANHA, J. L. Opacidade algorítmica e o sentido da vida, do universo e de tudo mais. Blog Tripla, 2023. Disponível em: https://blog.tripla.com.br/opacidade-algoritmica/. Acesso em: 15 abr. 2025.

 

[40] NISTAL, Matheus. Para especialista, algoritmos opacos decidem sobre a vida das pessoas. São Paulo: Instituto de Estudos Avançados da Universidade de São Paulo, 2023.

[41] BARROS FILHO, Clóvis de. A ética no uso dos algoritmos. São Paulo: Espaço Ética, 2022. Disponível em: https://espacoetica.com.br/etica-uso-dos-algoritmos/. Acesso em: 18 abr. 2025.

[42] GABRIEL, Iason. Artificial Intelligence, Values, and Alignment, v. 30, p. 411-437. Berlim: Springer, 2020. Disponível em: https://www.researchgate.net/publication/345238301_Artificial_Intelligence_Values_and_Alignment. Acesso em: 18 abr. 2025.

[43] Ibidem.

 

[44] SOLYD. Bug bounty: o que é, como funciona e as principais plataformas. São Paulo: Solyd Blog, 2024. Disponível em: https://blog.solyd.com.br/bug-bounty-o-que-e-como-funciona-e-as-principais-plataformas/.  Acesso em: 18 abr. 2025.

 

[45] CLARK, Jack; AMODEI, Dario. Faulty reward functions in the wild. Califórnia: OpenAI, 2016. Disponível em: https://openai.com/index/faulty-reward-functions/. Acesso em: 18 abr. 2025.

 

[46] TOOLIFY. A Ascensão do Maximizador de Clipes de Papel: A Ameaça da Superinteligência Artificial. Toolify, 2024. Disponível em https://www.toolify.ai/pt/ai-news-pt/a-ascenso-do-maximizador-de-clipes-de-papel-a-ameaa-da-superinteligncia-artificial-2352495. Acesso em: 19 abr. 2025.

 

[47] NANDA, Arun. Superalignment. Nova Iorque: DataCamp, 2024. Disponível em: https://www.datacamp.com/pt/blog/superalignment. Acesso em: 19 abr. 2025.

 

[48] ZUBOFF, Shoshana. Harvard professor says surveillance capitalism is undermining democracy. Cambridge: Harvard Gazette, 2019. Disponível em: https://news.harvard.edu/gazette/story/2019/03/harvard-professor-says-surveillance-capitalism-is-undermining-democracy/. Acesso em: 21 abr. 2025.

 

[49] NUNES, Luana Esteche. O controle algorítmico e o capitalismo de vigilância. Curitiba: GEDAI - Grupo de Estudos em Direito Autoral e Industrial da UFPR, 2025. Disponível em: https://gedai.ufpr.br/controle-algoritmico-e-liberdade-de-escolha-no-capitalismo-de-vigilancia/#:~:text=O%20controle%20algor%C3%ADtmico%20e%20o,qualquer%20oposi%C3%A7%C3%A3o%20efetiva%20pelo%20usu%C3%A1rio. Acesso em: 21 abr. 2025.

 

 

[50] OLIVEIRA, Cristina Godoy Bernardo de; BELOTTI, Emily Liene. O que a China revela e alerta sobre o controle de algoritmos de IA. São Paulo: Migalhas, 2024. Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-dados/417125/o-que-a-china-revela-e-alerta-sobre-o-controle-de-algoritmos-de-ia. Acesso em: 21 abr. 2025.

[51] NEGRI, Sergio Marcos Carvalho de Ávila; GIOVANIN, Carolina Fiorini Ramos. Leis da robótica: da ficção de Isaac Asimov ao debate sobre sistemas de inteligência artificial. Brasília: Revista do Tribunal Regional Federal da Primeira Região, 2021. Disponível em: https://revista.trf1.jus.br/trf1/article/view/488/355. Acesso em: 21 abr. 2025.

 

[52] VILALTA, Lucas. É possível termos transparência de algoritmos para sistemas de inteligência artificial? São Paulo: Jornal da USP, 2024. Disponível em: https://jornal.usp.br/artigos/e-possivel-termos-transparencia-de-algoritmos-para-sistemas-de-inteligencia-artificial/. Acesso em: 22 abr. 2025.

 

[53] PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO GRANDE DO SUL. Inteligência Artificial, Ética, Regulação e Proteção de Dados.. In: Aula do Curso de Pós-graduação em Direito Digital e LGPD. Porto Alegre: Pontifícia Universidade Católica do Rio Grande do Sul, 2024. E-book. Disponível em: https://l1nq.com/salavirtualpucrs-inteligenciaartificialeregulacao . Acesso em: 23 abr. 2025.

[54] SILVA, Victor Hugo. Instagram e Facebook usam suas fotos e textos para treinar IA:  por que a prática está sendo questionada? São Paulo: G1, 2024. Disponível em: https://g1.globo.com/tecnologia/noticia/2024/07/01/instagram-e-facebook-usam-suas-fotos-e-textos-para-treinar-ia-por-que-a-pratica-esta-sendo-questionada.ghtml. Acesso em: 23 abr. 2025.

[55] ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO (OCDE). AI principles. Paris: OCDE, 2024. Disponível em: https://www.oecd.org/en/topics/ai-principles.html. Acesso em: 27 abr. 2025. 

 

[56] SILVA, Paula Guedes Fernandes da; GARROTE, Marina Gonçalves. Insuficiência dos princípios éticos para normatização da inteligência artificial: o antirracismo e a anti-discriminação como vetores da regulação de IA no Brasil. São Paulo: Data Privacy Brasil Research, 2025. Disponível em: https://www.dataprivacybr.org/documentos/insuficiencia-dos-principios-eticos-para-normatizacao-da-inteligencia-artificial-o-antirracismo-e-a-anti-discriminacao-como-vetores-da-regulacao-de-ia-no-brasil/. Acesso em: 24 abr. 2025.

 

[57] ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO (OCDE), op.cit.

 

[58] PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO GRANDE DO SUL, op.cit.

 

[59] COMISSÃO EUROPEIA. AI Act enters into force on August 1, 2024. Bruxelas: European Commission, 2024. Disponível em: https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_pt. Acesso em: 27 abr. 2025.

 

[60] RIVELLI, Fabio. IA Act: um marco na regulação digital do mundo. São Paulo: Migalhas, 2023. Disponível em: https://www.migalhas.com.br/amp/coluna/ia-em-movimento/399199/ia-act-um-marco-na-regulacao-digital-do-mundo. Acesso em: 27 abr. 2025.

[61] KRANTZ, Tom; JONKER, Alexandra. Blueprint for an AI Bill of Rights. São Paulo: IBM Brasil, 2023. Disponível em: https://www.ibm.com/br-pt/think/topics/ai-bill-of-rights. Acesso em: 27 abr. 2025.

 

[62] HEDA, Laura. China avança na regulamentação da inteligência artificial. São Paulo: CNN Brasil, 2023. Disponível em: https://www.cnnbrasil.com.br/tecnologia/china-avanca-na-regulamentacao-da-inteligencia-artificial/. Acesso em: 27 abr. 2025. 

[63] UNESCO. Recommendation on the Ethics of Artificial Intelligence. UNESCO, 2022. Disponível em: https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence. Acesso em: 27 abr. 2025.

 

[64] ESTADÃO CONTEÚDO. Japão apresenta código de conduta internacional de regulamentação de IA. São Paulo: Revista Exame, 2024. Disponível em: https://exame.com/inteligencia-artificial/japao-apresenta-codigo-de-conduta-internacional-de-regulamentacao-de-ia/. Acesso em: 27 abr. 2025.

 

[65] BRASIL. Lei nº 12.527, de 18 de novembro de 2011. Regula o acesso a informações públicas. Brasília: Presidência da República, 2011. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2011/lei/l12527.htm. Acesso em: 28 abr. 2025.

 

[66] BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília: Presidência da República, 2014. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso em: 28 abr. 2025.

 

[67] BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Dispõe sobre a proteção de dados pessoais e altera a Lei nº 12.965, de 23 de abril de 2014 (Marco Civil da Internet). Brasília: Presidência da República, 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 28 abr. 2025.

 

[68] BRASIL. Câmara dos Deputados. Projeto de Lei nº 21, de 2020. Estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil. Brasília: Câmara dos Deputados, 2020. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2236340. Acesso em: 27 abr. 2025.

 

[69] BRASIL. Senado Federal. PL 2.338/2023 – Regulamentação da Inteligência Artificial. Senado Federal, 2024. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/151547. Acesso em: 27 abr. 2025.

 

[70] Ibidem.

 

[71] PERIN, Mônica Azevedo Ribeiro. Inteligência Artificial: riscos reais e desafios a serem desbravados. Jusbrasil, 2025. Disponível em: https://www.jusbrasil.com.br/artigos/inteligencia-artificial-riscos-reais-e-desafios-a-serem-desbravados/2918516603. Acesso em: 28 abr. 2025.

 

[72]  SUPREMO TRIBUNAL FEDERAL. Curso a distância: Aplicação da Inteligência Artificial ao Direito. Brasília: Coordenadoria de Desenvolvimento de Pessoas, 2020. Disponível em: ead.stf.jus.br. Acesso restrito com login e senha em 24 mar. 2025.

 

[73] HAAS, Guilherme. Vazamento revela segredos do algoritmo de busca do Google. Canaltech, 28 maio 2024. Disponível em: https://canaltech.com.br/internet/vazamento-revela-segredos-do-algoritmo-de-busca-do-google-290911/. Acesso em: 28 abr. 2025.

[74] ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. How We Analyzed the COMPAS Recidivism Algorithm. Nova Iorque: ProPublica, 2016. Disponível em: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm .  Acesso em: 28 abr. 2025.

 

[75] PROPUBLICA. In: Wikipédia, a enciclopédia livre. Flórida: Wikimedia Foundation, 2025.  Disponível em: https://pt.wikipedia.org/wiki/ProPublica. Acesso em: 29 abr. 2025.

 

[76] PERIN, op cit.

[77] EL PAÍS BRASIL. O uso da tecnologia no policiamento preditivo. Madrid: El País, 2017. Disponível em: https://brasil.elpais.com/brasil/2017/03/09/tecnologia/1489078250_691655.html. Acesso em: 29 abr. 2025.

[78] Ibidem.

 

[79] THE INDEPENDENT. Louisiana police facial recognition lawsuit. Londres: The Independent. Disponível em: https://www.independent.co.uk/news/world/americas/crime/louisiana-police-facial-recognition-lawsuit-b2419085.html. Acesso em: 29 abr. 2025.

 

 

 

 


 



Comentários

Postagens mais visitadas deste blog

A NOVA LEI N° 15.245/2025: INSTRUMENTO DE FORTALECIMENTO DA ATUAÇÃO ESTATAL CONTRA O CRIME ORGANIZADO

DISTINGUISHING E A LEI Nº 15.353/2026: O FIM DA RELATIVIZAÇÃO DO ESTUPRO DE VULNERÁVEL