INTELIGÊNCIA ARTIFICIAL: A DISCRIMINAÇÃO ALGORÍTMICA E OS RISCOS À ETICIDADE NA SEARA CRIMINAL
Artigo adaptado com base no Trabalho de Conclusão de Curso, apresentado em 30.05.2025, como requisito parcial para a obtenção do título de Pós-graduação em Direito Digital e LGPD pela Pontifícia Universidade Católica do Rio Grande do Sul (PUCRS).
RESUMO
A
pesquisa explora a inteligência artificial (IA) e sua crescente influência na
automatização de tarefas. Apesar dos avanços, a IA também impõe desafios, como
a discriminação algorítmica, que afeta negativamente indivíduos no contexto
criminal. O estudo examina como dados enviesados perpetuam injustiças,
resultando em decisões equivocadas e reforçando estigmas sociais. Torna-se
essencial discutir ética algorítmica, transparência e regulamentação, além de
implementar alinhamento e controle algorítmico, visando mitigar vieses e
assegurar um uso mais responsável da IA na sociedade.
Palavras-chave: discriminação
algorítmica, ética e regulamentação.
DEDICATÓRIA
Ao meu amado marido, Eduardo
Perin, que, com seu infinito apoio, amor e compreensão, é o alicerce sobre o
qual construo meus projetos durante esta caminhada. Ao longo de nossa história,
cada desafio superado e cada conquista celebrada tornou-se um reflexo da
cumplicidade que nos une. Por vezes, em meio às nossas realizações, encontro-me
na incerteza de distinguir a qual de nós dois pertence cada conquista, pois as
suas vitórias sempre serão minhas, assim como sei que as minhas também sempre
serão as suas. Por tudo isso, dedico a você este trabalho acadêmico, fruto de
nossa caminhada conjunta e de tantos conhecimentos adquiridos e compartilhados.
Ao nosso amor!
SUMÁRIO
1. INTRODUÇÃO
2. INTELIGÊNCIA ARTIFICIAL
2.1. ORIGEM E CONCEITO
2.2. TIPOS DE MODELOS DE INTELIGÊNCIA
ARTIFICIAL
2.3. MACHINE
LEARNING E DEEP LEARNING
2.4. ALGORITMOS E OS PRINCIPAIS DESAFIOS
2.4.1. Fundamentos e Vieses
Discriminatórios
2.4.2. Opacidade e
Imprevisibilidade Algorítmicas
2.4.3. Alinhamento Algorítmico
2.4.4. Controle Algorítmico
2.5. REGULAÇÃO DA INTELIGÊNCIA
ARTIFICIAL
2.5.1. Aspectos Gerais
2.5.2. Panorama Legislativo,
sob o contexto global
2.5.3. Panorama Legislativo,
sob o contexto brasileiro
2.6. LEADING CASES RELACIONADOS A
VIESES DISCRIMINATÓRIOS
2.6.1. Caso Wisconsin vs.
Loomis
2.6.2. Caso Predpol
2.6.3. Caso Randall Reid
3. Considerações
Finais
REFERÊNCIAS
O presente compêndio tem por escopo a análise
contextual da inteligência artificial (IA) que, em seu modus operandi, tornou
viável a execução de tarefas inicialmente conferidas à inteligência humana.
Dentre elas, destacam-se o aprendizado, o reconhecimento de padrões, a
interpretação visual de imagens, a compreensão da linguagem oral ou escrita e,
principalmente, o poder de sugerir ou decidir, conforme suas próprias
percepções alcançadas.
Noutro giro, ainda que apresente um cenário
cercado por diversas vantagens otimizadas, a inteligência artificial também se
alinha a um outro lado da moeda que tem gerado uma gama de discussões. Tal
embate refere-se à discriminação algorítmica, notadamente no que toca à
insegurança causada por sua interpretação equivocada e, por conseguinte, as
resultâncias negativas geradas aos indivíduos.
Atrelada a isso, surgiu a necessidade de explanação
das causas da discriminação algorítmica, analisando-se como dados enviesados e
decisões automatizadas podem levar a resultados injustos e cruéis. Sob essa
vertente, o referido estudo analisará os desdobramentos atingidos pelo uso da inteligência
artificial na seara criminal, no que tange a eventual falta de eticidade
algorítmica por meio de vieses discriminatórios.
Nessa conformidade, a discriminação algorítmica
advém dos sistemas de IA que, treinados por humanos, ao que bem define machine
learning, ou aprendizado de máquina, desenvolvem algoritmos, a partir de
dados históricos e experiências passadas dissociadas da realidade fática
contemporânea. Tal entrelace, por sua
vez, dá vida a vieses preconceituosos, de modo a perpetuar injustiças irreparáveis
aos indivíduos em diversas áreas, especialmente na justiça criminal, resultando,
inclusive, em sanções penais severas que, muitas vezes, são erroneamente
aplicadas, em razão de estigmas injustificados gerados por algoritmos.
Em verdade, no tocante aos vieses
discriminatórios, não se pode olvidar que o preconceito, norteado por cunho racial,
econômico, advindo de geolocalização, ou qualquer outro que ameace o bem-estar social
do indivíduo, não surgiu com a inteligência artificial, mas muito antes de sua
propagação. Como já explicitado, a IA é fruto do treinamento humano que, por
sua vez, carrega em suas raízes históricas um cenário de preconceito, seja ele
sofrido ou provocado por alguém, refletindo, por conseguinte, nas tarefas
desempenhadas pela inteligência artificial.
Assim, com a finalidade de descortinar as
consequências negativas de eventuais interpretações errôneas do algoritmo
enviesado, mister trazer à baila a apresentação de alguns leading cases
atinentes ao ambiente discutido na seara criminal, de forma que sejam ilustrados
os problemas em comento e buscadas soluções viáveis para seu combate ou, se
inviáveis, a mitigação de seus efeitos.
Nesse trilho, os desafios enfrentados devem ser
pautados para se atingir, de modo ético e justo, a promoção do bem-estar social,
a fim de combater o lado obscuro da IA, principalmente no uso transparente e
responsável de dados pessoais de terceiros.
Alfim, como meio de combate, emerge-se a
necessidade iminente de se buscar conscientizar a sociedade dos potenciais
riscos advindos da discriminação algorítmica e, por conseguinte, provocar a
perseguição de mecanismos para mitigá-los por meio de regulamentações e
políticas públicas mais eficientes.
2.
DESENVOLVIMENTO
Antes de ser
inaugurada a conceituação de inteligência artificial, mister a apresentação de
pontos reflexivos acerca de sua origem. Em que pese ser um tema que,
recentemente, invadiu diversos segmentos da vida privada, trata-se de um
equívoco acreditar que a referida temática se atém a algo inédito que não fora
descoberta antes, em séculos passados.
De certa
feita, é compreensível que a maioria das pessoas tenha se deparado com algo que,
de fato, parece ser inédito, afinal, não havia anteriormente a necessidade de
se afligir com a automatização de serviços, já que o trabalho humano nunca
havia sofrido objeções de tamanha complexidade e de projeção global, como as enfrentadas
no período de pandemia da Covid-19. Certo é que o trabalho realizado de forma
remota teve grande fator colaborativo acerca da necessidade de transmutação de
tarefas, e, nesse passo, o uso da tecnologia ganhou contornos ainda mais
reforçados e imprescindíveis.
Quando se
busca a origem da inteligência artificial, irrefutável que antes se recorra aos
feitos do respeitável matemático inglês Alan Mathison Turing, também
intitulado o “Pai da Computação”.
Turing, no início da década de 1950, sustentava
que os computadores deveriam ser referenciados como um sistema capaz de
responder a qualquer tipo de problema, segundo relatado pela Revista Científica
Nature, em seu artigo denominado “Turing at 100: Legacy of a
Universal Mind” que, em tradução livre, significa “Turing aos 100 anos:
Legado de uma Mente Universal”.
Dentre os seus escritos, o matemático britânico
ficou amplamente conhecido pela criação do “Teste de Turing”, tendo como finalidade
a avaliação da existência de equivalência de comportamento entre a máquina e o
ser humano, no quesito inteligência.
Assim, o teste analisava o comportamento da
máquina, de modo que seria considerada inteligente se, durante a sua interação
com uma pessoa, esta não fosse capaz de distinguir se estava interagindo com outro
ser humano ou uma máquina.
Para melhor entendimento, recorre-se aos ensinamentos
do Doutor e Mestre em Matemática Aplicada, George F. Luger:
O teste de Turing mede o desempenho de uma máquina, aparentemente inteligente, em relação ao desempenho de um ser humano, indiscutivelmente o melhor e único padrão de comportamento inteligente. O teste, que foi chamado de jogo de imitação por Turing, coloca a máquina e seu correspondente humano em salas separadas de um segundo ser humano, referido como o interrogador [...]. O interrogador não é capaz de ver nenhum dos dois participantes ou de falar diretamente com eles. Ele também não sabe qual entidade é a máquina e só pode se comunicar com eles por um dispositivo textual, como um terminal. A tarefa do interrogador é distinguir o computador do ser humano utilizando apenas as respostas de ambos a perguntas formuladas por meio desse dispositivo. Se o interrogador não puder distinguir a máquina do ser humano, então, argumenta Turing, pode-se supor que a máquina seja inteligente (Luger, 2013)[1].
Desta feita, infere-se que o Teste de Turing teve
como objetivo a tentativa pioneira de questionamento acerca da capacidade de
pensar das máquinas, além de abrir novos horizontes para que fossem discutidos
os limites entre inteligência humana e inteligência artificial, razão pela qual
tornou-se referência histórica no contexto da IA.
A história de Alan Turing teve tanta
repercussão no universo da computação moderna, que deu ensejo à criação do
filme intitulado “The Imitation Game” que, em sua tradução, significa “O
Jogo da Imitação”. A referida biografia narra os desafios enfrentados durante a
Segunda Guerra Mundial, quando Turing e sua equipe trabalharam para decifrar o
código Enigma, de origem nazista, para envio de mensagens secretas. Tal
iniciativa foi capaz de contribuir para o fim do conflito e, por conseguinte,
salvou milhões de pessoas (Wikipédia, 2025)[2].
Não bastasse a contribuição de Alan Turing, não
se pode ultrapassar a referida explanação sem antes citar o ano de 1956, quando
o então matemático e pesquisador da área de ciência da computação, John McCarthyl,
organizou um workshop chamado Dartmouth Summer Research Project on Artificial
Intelligence, ocorrido em Darthmouth College, em conjunto com outros
grandes cientistas da computação e matemáticos: Marvin Minsky, Nathaniel
Rochester e Claude Shannon. O evento visou à discussão de uma proposta acerca
da criação de máquinas que simulavam a inteligência humana.
Sobre a referida proposta, importante sua
transcrição para melhor ilustração do tema aqui versado:
Propomos que um estudo de 2 meses e 10 homens sobre inteligência artificial seja realizado durante o verão de 1956 no Dartmouth College em Hanover, New Hampshire. O estudo deve prosseguir com base na conjectura de que todo aspecto do aprendizado ou qualquer outra característica da inteligência pode, em princípio, ser descrito com tanta precisão que uma máquina pode ser feita para simulá-lo. Será feita uma tentativa de descobrir como fazer as máquinas usarem a linguagem, formarem abstrações e conceitos, resolverem tipos de problemas agora reservados aos humanos e se aprimorarem. Acreditamos que um avanço significativo pode ser feito em um ou mais desses problemas se um grupo cuidadosamente selecionado de cientistas trabalharem juntos nele por um verão (McCarty et al., 1956)[3].
O evento da Conferência de Dartmouth ganhou
importante destaque, uma vez que seus organizadores, cada um com suas análises
e raciocínio próprios, trouxeram perspectivas únicas que ajudaram a melhor
elucidação do campo em debate. São eles: John McCarthy, criador do termo
"inteligência artificial"; Marvin Minsky, pioneiro em robótica;
Claude Shannon, pai da teoria da informação; dentre outros.
A conferência inaugurou relevantes avanços no
campo da IA, uma vez que foram criados conceitos inovadores como aprendizado de
máquina, redes neurais e processamento de linguagem natural, que hoje possuem
contornos ainda mais avançados.
Além disso, a conferência também impulsionou o
enfoque de pesquisas atinentes à relação entre máquinas e inteligência humana,
além de tornar perceptível a importância de se cruzar áreas, interligando-se a
uma colaboração interdisciplinar, já que a reunião de matemáticos, engenheiros
e cientistas da computação demonstrou-se promissora para a persecução de
avanços tecnológicos mais eficientes.
Em 29 de outubro de 1969, A ARPA (Advanced
Research Projects Agency), que é uma agência do Departamento de Defesa dos
Estados Unidos, desenvolveu a ARPANET (Advanced Research Projects Agency
Network), a primeira rede de computadores do mundo que utilizou o “conceito
de comutação de pacotes de dados à longa distância e a implementar o protocolo
de rede NCP (Protocolo de Controle de Rede) e o protocolo de internet TCP/IP (Protocolo
de Controle de Transmissão/Protocolo de Internet)” (Wikipedia, 2025)[4].
Também conhecida como a “Mãe da Internet”, a
ARPANET foi originada por um estudante da Universidade da Califórnia, em Los
Angeles, que enviou um “comando a outro computador no Instituto de Pesquisa de
Stanford, a cerca de 560 Km de distância que deu errado, ocasionando no
travamento do sistema de Stanford, após as duas primeiras letras serem
recebidas” (Rigues, 2019)[5].
O ponto de partida para que a ARPANET
caminhasse para o que hoje intitula-se internet foi a sua conexão a outras
redes de pesquisa que surgiram mais tarde, como a NSFNet (National Science
Foundation Network, criada para interligar centros de supercomputação nos EUA),
a NASA Science Network e redes educacionais como a Bitnet e CSNET, que
conectavam universidades nos EUA (Rigues, 2019)[6].
Nessa toada, entre a década de 1950 até os anos
1970, enraizou-se a expressão “Primavera da Inteligência Artificial”,
fazendo-se alusão a um período que os estudos sobre a IA se intensificaram. Diversas
instituições governamentais e privadas, como a ARPA, investiram em pesquisas
que alavancaram a tecnologia.
A partir desses feitos, com a instauração da
internet, a inteligência artificial tomou rumos ainda mais promissores, com
pesquisas avançadas que potencializam seu caráter evolutivo até os dias de
hoje.
Percorridos os
fatores que deram origem ao termo inteligência artificial, necessário
adentrar-se em sua definição. Todavia, em verdade, conceituá-lo é tarefa que
muito se atrela à narrativa de sua própria origem, que já fora explicitada no
presente ensaio. Desta feita, com o fito de contextualizar acerca da definição
de Inteligência Artificial, não há outro caminho senão o de retornar-se ao
ponto de seu nascedouro.
Assim, como dito alhures, em meados de 1950,
Alan Turing já havia projetado o conceito de IA, quando apresentou o famoso
Teste de Turing, que tinha como objetivo desafiar a capacidade das máquinas de
pensar e avaliar o grau de proximidade entre a inteligência artificial e a
inteligência humana.
Já em 1956,
durante a Conferência de Investigação de Dartmouth, J. McCarthy, que
também foi conhecido como um dos “Pais da IA”, cunhou o conceito de
inteligência artificial, definindo-a como:
A ciência e engenharia de fazer máquinas inteligentes, especialmente programas de computador inteligentes. Está relacionada à tarefa similar de usar computadores para tornar inteligentes trabalhos não relacionados a computadores (McCarthy, 1956)[7].
Por esse trilho, para Mc McCarthy, ao criar as referidas máquinas,
utiliza-se a inteligência de computadores que se assemelha à inteligência
humana, sem restringir-se exclusivamente a métodos observáveis na biologia.
Certo é que o
termo Inteligência Artificial se refere ao ramo da ciência da computação que
tem por escopo a criação de sistemas capazes de reproduzirem tarefas que, até
então, só eram executadas sob a dependência da inteligência humana.
Diversos
autores consagrados no ramo da ciência da computação também se dedicaram à
referida pauta para a definição de Inteligência Artificial.
Nesse passo, a
IA foi muito bem definida pelo cientista da computação, grego-britânico e professor
na Virginia Tech, Dimitrios S. Nikolopoulos:
A Inteligência Artificial é um campo de estudos multidisciplinar, incluindo computação, engenharia, psicologia, matemática e cibernética, cujo principal objetivo é construir sistemas que apresentem comportamento inteligente e desempenhem tarefas com um grau de competência equivalente ou superior ao grau com que um especialista humano as desempenharia (Nikolopoulos,1997)[8].
Em
contrapartida, dissociando-se de outros autores, sob um ponto-de-vista
contemporâneo, destaca-se o renomado neurocientista brasileiro Miguel
Nicolelis, em seu discurso acerca de uma definição assertiva de IA. Para ele, “a Inteligência Artificial nem é
inteligente nem é artificial” (Nicolelis,
2025, apud Nunan, 2025)[9].
Nesse esteio, infere-se que a frase foi utilizada para criticar a forma como a
IA é compreendida e promovida na sociedade.
Para
Nicolelis, a IA não é verdadeiramente "inteligente" porque não possui
cognição, consciência ou criatividade genuína, características que são privativas
de seres vivos. Em vez disso, baseia-se em algoritmos matemáticos e análise de
dados registrados historicamente, sem compreender o cenário do mundo ao seu
redor (Nicolelis, 2025, apud Nunan, 2025)[10].
Além disso,
ele afirma que a IA não pode ser considerada "artificial" no sentido lato
da palavra, já que a sua criação se deu por seres humanos e são eles que
sustentam a sua base de dados. Desta feita, na perspectiva de Nicolelis, a IA
replica em suas atividades os dados armazenados por humanos, que, por sua vez,
já estão contaminados por vieses discriminatórios, tornando-se mais uma
extensão da inteligência humana (Nicolelis, 2025, apud Nunan, 2025)[11].
Seguindo a
mesma linha, segundo o pensar do pesquisador que é referência no campo da
inteligência artificial, Stuart Russell (apud Kaufman, 2022)[12]:
[...] a crença de que estaríamos na eventualidade de perder o controle sobre as “máquinas inteligentes” baseia-se em um erro inicial na definição de IA. Para começar, as máquinas não são “inteligentes” no sentido dado pelos seres humanos – ser capaz de agir para atingir objetivos próprios –, pelo contrário, elas não têm objetivos, são os seres humanos que imputam seus objetivos nos sistemas inteligentes (são máquinas de otimização). O que não impede, no entanto, que as máquinas inteligentes encontrem soluções melhores do que os seres humanos, o que é uma realidade com as tecnologias de IA (Kaufman, 2022).
Em que pese demonstrar
uma perspectiva que vá de encontro às anteriormente citadas, cada conceituação
de IA aqui trazida demonstra possuir um parecer acertado. Se por um lado
defende-se que a IA guarda relação com máquinas inteligentes que se confundem
com a inteligência humana, por outro é inegável que um humano está por trás
delas, ensinando-a a raciocinar, decidir e praticar todas as tarefas que um
indivíduo executaria.
Seguindo esse norte, não se pode olvidar que
as tarefas desempenhadas pela IA possuem correlação com a base de dados já
registrados por alguém que, inevitavelmente, possui suas próprias convicções
inerentes à sua inteligência humana. Além disso, sofre influência também em
razão do meio social em que se encontra inserido, criando-se uma atmosfera
subjetiva e, por muitas vezes, repleta de vieses discriminatórios.
Após
discorrer de forma suscinta sobre o seu surgimento e a sua definição, abre-se
caminho para explorar os tipos de modelos de Inteligência Artificial, para
melhor contextualização ao tema central a ser atingido.
2.2. TIPOS DE MODELOS DE INTELIGÊNCIA ARTIFICIAL
De
modo geral, sabe-se que a inteligência artificial tem catalisado constantes mutações
no que tange ao modo interativo da sociedade com o mundo, integrando-se a
diversos segmentos da vida privada. Assim, para melhor compreensão do impacto
gerado, reputa-se necessário parametrizar os tipos de inteligência artificial, com
enfoque no critério da capacidade de seu alcance de inteligência, conforme será
verificado nesta sequência.
A-
Inteligência Artificial Limitada ou Narrow Artificial Intelligence (NAI)
Também
conhecida como “IA fraca”, trata-se de um tipo designado para desempenhar
tarefas específicas. Ou seja, ela é treinada para cumprir a determinação de um
comando ou um conjunto de comandos de forma limitada, como o reconhecimento de
voz.
Dito
por outro modo, esse tipo de inteligência artificial tem por escopo principal “realizar
as atividades para as quais foi programada, armazenando uma grande quantidade
de dados e fazendo cálculos complexos com rapidez. Por isso é capaz de realizar
funções específicas e solucionar problemas pré-determinados” (Baldissera, 2023)[13].
Nesta
via, a NAI restringe-se ao cumprimento de tarefas específicas, como as
de responder a perguntas, informar sobre determinado assunto a que foi
questionada, sem o uso de um raciocínio muito elaborado que extrapole seu
domínio.
Mister
ainda mencionar que “esse tipo de Inteligência Artificial usa machine
learning, deep learning e processamento de linguagem natural para se
autoaprimorar, porém não tem o mesmo desempenho nem versatilidade do cérebro
humano” (2023, op.cit.)[14]. Tais conceitos serão
abordados em seção própria no presente ensaio científico.
Exemplificando,
pode-se citar os assistentes virtuais, como a Siri, atrelada ao sistema
operacional da Apple; o Google Assistente, do sistema operacional Android e; a
Alexa, que é alimentada por um conjunto de tecnologias baseadas em computação
em nuvem da Amazon Web Services (AWS). Todos eles podem, inclusive, ser
ativados por comando de voz e, em obediência ao que lhes for atribuído, poderão
efetuar ligações telefônicas, informar sobre a previsão do tempo, selecionar
uma música para ser reproduzida, além de várias outras funcionalidades.
De
igual modo, as redes de streamings também se inserem nesta rota,
classificando-se como NAI, uma vez que, com base no histórico de navegação
do usuário e no seu padrão de comportamento, realizam a leitura de suas
preferências, sugerindo filmes e séries.
B-
Inteligência Artificial Geral (IAG) ou Artificial General Intelligence (AGI):
A
Inteligência Artificial Geral (IAG), também conhecida como a “IA forte”, refere-se
a um tipo de IA com abrangência mais ampla, uma vez que possui a capacidade de
realizar múltiplas tarefas que, a princípio, seriam executáveis somente através
de um ser humano. Possui grande facilidade de adaptação a diversas situações,
improvisando, se for necessário, mas sempre entregando respostas, ainda que não
tenham sido pré-programadas, em uma velocidade excepcional.
Uma
distinção das soluções baseadas em IAG, se comparada às demais IA’s, é que a sua
abordagem é mais abrangente, diante de um desafio a ser enfrentado. Assim, “em vez
de serem limitadas a funções específicas, [...] podem adaptar-se a uma ampla
gama de desafios. Esse atributo é essencial para que os sistemas possam operar
em contextos variados, ampliando seu potencial de aplicação” (Duarte, 2025)[15].
É
cediço que o objetivo da criação desses sistemas com ampla capacidade cognitiva
é o de tornar-se equivalente ou até superior às capacidades da inteligência
humana. Assim, torna-se cada vez mais relevante e promissora a pesquisa
tecnológica da IAG, a fim de se alcançar uma inteligência adaptável e autônoma,
atingindo, por fim, um elevado avanço das tecnologias de IA.
Ressalta-se
que, embora não tenha sido ainda confirmado se a IAG se tornou uma realidade, é
possível compreendê-la através de exemplos hipotéticos. Acredita-se que quando
atingir sua concretude, será possível, a título de exemplo, a existência de
veículos autônomos com poder de decisão em situações inesperadas; diagnósticos
médicos avançados, com eficiência superior aos tradicionais, que hoje ainda são
realizados por profissionais da medicina; a tomada de decisão global, a fim de
orientar líderes do Governo a resolver problemas globais existentes, como
conflitos políticos, segurança pública, pobreza, além de outros.
Por
outro giro, uma notícia recente surpreendeu muitas pessoas. Em março de 2025,
foi lançado o Manus AI, um agente autônomo desenvolvido pela startup chinesa
Monica. Alguns especialistas têm questionado se essa nova ferramenta poderia
ser considerado a primeira IA Geral, considerando seu alto nível de desempenho.
O
Manus AI se destaca por sua capacidade de executar tarefas complexas e
multidisciplinares de forma independente, reduzindo a necessidade de comandos
diretos, diferentemente de assistentes tradicionais como ChatGPT e DeepSeek. A
ferramenta é capaz de planejar, executar e entregar resultados sozinha, além de
possuir capacidades multimodais, processando e gerando diversos tipos de dados,
como texto, imagens e códigos. Resta agora a confirmação se, de fato, se trata
de uma IA Geral (Giannini, 2025)[16].
C-
Superinteligência Artificial ou Artificial Superintelligence (ASI)
Tal
modalidade de inteligência, assim como a Inteligência Artificial Geral, ainda
não se encontra inserida no domínio da realidade concreta, permanecendo
exclusivamente na esfera teórica e especulativa, embora ganhe contornos cada
vez mais realistas, considerando a célere evolução tecnológica.
A
ASI também recebeu o rótulo de “IA Forte”, mas, ao que tudo indica, parece ser
ainda mais potente que a AGI, no que tange ao seu grau de inteligência. Sua
compreensão refere-se “a uma forma de inteligência que supera
significativamente a inteligência dos seres humanos em praticamente todos os
aspectos, incluindo criatividade, resolução de problemas e tomada de decisões”
(Barbosa, 2023)[17].
Por
outras palavras, acredita-se que a ASI poderá superar a capacidade cognitiva de
uma pessoa dotada de um coeficiente de inteligência acima de 140, ou seja, os
intitulados gênios, como Albert Einstein ou Stephen Hawking, por exemplo. E mais, sua inteligência não se restringiria
apenas a um segmento, mas abrangeria qualquer um, seja no campo da ciência, da arte,
da medicina, da literatura ou de qualquer outra.
Nas
palavras de Nick Bostrom, filósofo sueco, especialista em ética na inteligência
artificial e professor da Faculdade de Filosofia da Universidade de Oxford, a
superinteligência pode ser definida como “qualquer intelecto que exceda em
muito o desempenho cognitivo dos seres humanos em praticamente todos os
domínios de interesse” (Wikipédia, 2025)[18]. Ele defende, inclusive,
que esse elevado grau de inteligência seria capaz de atingir níveis
inalcançáveis pela humanidade, de modo a tornar-se possível a solução de
problemas enigmáticos, que hoje são considerados impossíveis de serem decifrados.
Ainda
que o impulso das pesquisas científicas revele que a inteligência artificial avança
de forma acelerada rumo a um futuro promissor e capaz de desobstaculizar inúmeros
desafios globais, é fundamental que esses avanços sejam acompanhados por
reflexões éticas, políticas e sociais. A criação de superinteligências demanda
um compromisso sólido com a segurança, a transparência e o alinhamento, garantindo
que o impacto dessas tecnologias seja benéfico e em conformidade com os valores
humanos, além de não colidir com a legislação vigente.
Nick
Bostrom também ganhou notoriedade com seu livro "Superinteligência:
Caminhos, Perigos e Estratégias", no qual aborda, entre outros temas, a
constante preocupação com os riscos associados ao desenvolvimento dessa
superinteligência. Ele alerta que, caso os objetivos de uma superinteligência
não sejam cuidadosamente alinhados com os valores humanos, ela pode representar
um perigo existencial para a humanidade (Brostom, 2016)[19].
O
risco da superinteligência tem afligido diversos estudiosos no campo da IA, que
se alinham às percepções de Brostom acerca das consequências advindas, caso
esse avanço se torne realidade. Acredita-se que a superinteligência, se
alcançada, seja capaz de auxiliar pesquisas científicas de maior complexidade, trazendo
soluções para questões relevantes, por exemplo. Entretanto, ela também poderá
ser capaz de tomar decisões de acordo com suas próprias convicções, ignorando
os comandos de seres humanos e, mais ainda, diante dessa perda de controle, ser
responsável pela eliminação da humanidade.
Assim,
a superinteligência, quando confirmada, colocará em alerta maior a questão da
perda do controle, propiciada pela tomada de decisões em grande escala, afetando,
sobretudo, a questão do alinhamento. Em outras palavras, é possível que a IA
realize a tomada de decisões de acordo com suas próprias convicções, sem avaliar
as peculiaridades de cada situação e seus eventuais danos colaterais, ou seja,
não alinhada com os valores humanos. Desta feita, pequenos erros de
interpretação de uma superinteligência podem ser capazes de causar danos
irreparáveis, gerando uma preocupação globalizada.
2.3. MACHINE LEARNING E DEEP LEARNING
Após discorrer
acerca dos principais tipos de IA, sob o contexto da capacidade, mister
registrar mais outro ponto crucial para se caminhar à linha de chegada do
presente estudo. Trata-se de dois campos da IA de grande relevância, mais
conhecidos como machine learning e deep learning.
Traduzida pela
expressão “aprendizado de máquina”, a machine learning refere-se à
capacidade do sistema de computação de aprender, sem a necessidade de ser
treinado para determinado fim específico, embora também pareça forçoso considerá-la
uma espécie de sistema “autodidata”. Ainda que seu aprendizado não esteja
interligado à prévia programação de tarefas, é necessário o registro de dados e
de algoritmos, a fim de viabilizar uma melhoria de seu desempenho para atingir determinado
objetivo.
Dito por
outras palavras, após “detectar vários padrões que estão presentes em um
determinado conjunto de dados, enviam-se dados iniciais a um algoritmo de Machine
Learning, que executa o treinamento desse modelo para aprender a
identificar os padrões nos dados (Costa, 2024)[20]”.
Nesse
contexto, o aprendizado de máquina possibilita que sistemas computacionais
aprendam e se aprimorem de forma autônoma, a partir do vasto conjunto de dados
a que são expostos. Pode-se afirmar que, a partir dos dados recebidos pelo
sistema, ele irá detectar padrões de modo autônomo, sem a necessidade de
comandos para sua atuação. Em seguida, “a
máquina aprende a classificar e interpretar as informações de maneira autônoma,
aprimorando seu desempenho conforme é exposta a mais dados (Matos, 2025)[21].
Ademais, os inputs
(dados recepcionados) são processados pelos algoritmos de Machine Learning,
gerando outputs (resultados gerados) adaptativos. Ou seja, o sistema detectará
padrões e, com base nestes, sem a necessidade de uma prévia programação, de
forma autônoma e improvisada, a IA tomará decisões, com base em novos dados.
Desta feita, primando-se
por uma resposta mais eficiente, em vez de seguir regras fixas para que seja
cumprida uma determinada tarefa, seu desenvolvimento se dá por meio do
treinamento com dados e algoritmos e, por conseguinte, seu desempenho torna-se
mais refinado.
Sobre isso,
inclusive, importante brevíssima menção acerca do conceito de algoritmo, já que
sua abordagem será complementada posteriormente em outra sequência, de modo
mais aprofundado. Sendo assim, a definição de algoritmo refere-se a uma “sequência
lógica, finita e definida de instruções que devem ser seguidas para resolver um
problema ou executar uma tarefa” (Pereira, 2024)[22].
Assim, é
imprescindível que se compreenda que os algoritmos estão presentes em quase
tudo na sociedade, baseando-se no comportamento de cada indivíduo, em suas
interações virtuais em redes sociais, por exemplo, e em diversas situações, de
modo geral. Se uma pessoa pesquisa hotéis de uma determinada cidade, é possível
que o algoritmo passe a indicar opções variadas de comidas típicas daquele
lugar, ou até opções de passagens aéreas para que desperte nela o desejo consumerista.
De mesma
importância, também cabe definir dados, de modo suscinto, a fim de tornar
compreensível a presente explanação. Desse modo, “dados estruturados são dados
que têm um formato padronizado para facilitar o acesso por pessoas e máquinas.
É o caso das planilhas de Excel, que organizam as informações em tabelas,
linhas e colunas, por exemplo” (Pontifícia Universidade Católica do Paraná, 2023)[23].
Embora não se
tenha a intenção de explorar com afinco expressões que são mais utilizadas no
campo da tecnologia da informação, tornou-se relevante fazer essa breve alusão
ao que se denomina dados, já que auxilia a compreensão do que representa o
aprendizado de máquina.
De modo
resumido, os algoritmos, por sua vez, são compostos por uma sequência lógica de
instruções, com a finalidade de resolver um problema ou cumprir uma determinada
tarefa. Eles possuem “dados de entrada (input), processamento e dados de
saída (output)” (Coelho, s.d.)[24],como
bem definido no exemplo retrocitado das planilhas de Excel.
Por derradeiro,
salta-se à definição de deep learning (DL), que, em sua tradução
refere-se à expressão “aprendizado profundo”. Refere-se a uma subárea no campo
da IA, relacionada à criação de algoritmos que possuem a capacidade de
aprendizado e tomada de decisões, tendo como embasamento grandes volumes de
dados, mediante a utilização de redes neurais artificiais (RNAs).
Em se tratando
da expressão “redes neurais artificiais”, importante também breve adendo para
melhor compreensão. As RNAs, na verdade, são sistemas computacionais que
simulam o funcionamento do cérebro humano, sendo considerados “neurônios
artificiais” que se assemelham aos biológicos. Ademais, elas desempenham um
importante papel na operação da chamada IA generativa (IA gen), ou seja,
“é a inteligência artificial (IA) que pode criar conteúdo original, como
texto, imagens, vídeo, áudio ou código de software, em resposta a um prompt ou
solicitação do usuário (Stricker, Scapicchio, 2024)”[25].
Retornando ao
ponto da deep learning, importante mencionar que elas “funcionam
identificando e codificando os padrões e relacionamentos em grandes quantidades
de dados e, em seguida, usando essas informações para entender as solicitações
ou perguntas de linguagem natural dos usuários (Stricker; Scapicchio, 2024)”[26].
Ao final, após essa análise, é possível entregar novos conteúdos relevantes, em
resposta ao que lhe foi apresentado.
Com efeito, o deep
learning organiza representações complexas em múltiplas camadas, de modo
que expressem conceitos progressivamente mais intricados, a partir de
representações elementares que a embasam.
Essa estrutura codifica uma função matemática que mapeia conjuntos de valores de entrada (inputs) para valores de saída (outputs); redes com maior profundidade (mais camadas) têm apresentado resultados positivos em várias áreas, particularmente em visão computacional e reconhecimento de voz e imagem (Cozmam; Kaufman 2022)[27].
Conforme
apregoado pelo Mestre e Doutor em Engenharia Elétrica, Dr. Oscar Gabriel Filho,
que recebeu o prêmio David A. Wilson 2009 - Excellence in Teaching and
Learning, promovido pela Laureate International Universities, em
Miami, “o que justifica a denominação de Aprendizagem Profunda é a grande
quantidade de camadas intermediárias da rede neural utilizada, o que vai exigir
certas especificidades na configuração da rede para assegurar sua rápida
convergência" (Gabriel Filho, 2023)[28].
Assim, no que
atine às camadas em comento, cumpre ressaltar que estas possibilitam ao modelo a
apreensão de representações dos dados em variados níveis de abstração, sendo
características mais simples ou até padrões de elevada complexidade.
Infere-se que as
redes profundas, enquanto ferramenta avançada de aprendizado de máquina,
guardam analogias notáveis com o funcionamento
do cérebro humano no processamento de informações. Este utiliza uma extensa
rede de neurônios biológicos de forma paralela e distribuída, ao passo que as
redes profundas replicam tal abordagem por meio de uma grande quantidade de
neurônios artificiais em suas camadas ocultas.
A referida
analogia busca aproximar a operação das redes profundas à maneira biológica de
processamento da informação. Sobre essa vertente, inclusive, o Dr. Oscar
Gabriel Filho, mais uma vez, contribui com seus escritos de maneira bastante
elucidativa, oferecendo sua análise sobre o tema:
A concepção das redes profundas se aproxima mais da maneira como o cérebro humano faz para processar os sinais provenientes da rede sensorial humana, ao envolver uma grande quantidade de neurônios biológicos no seu processamento paralelo e distribuído. Assim, essa maneira biológica de operar tenta ser copiada pelas redes profundas, no aspecto do paralelismo pela grande quantidade de neurônios artificiais em cada uma de suas camadas escondidas, e no aspecto da distribuição pela grande quantidade de camadas escondidas (Gabriel Filho, 2023)[29].
À luz das
conceituações previamente delineadas, impõe-se, neste próximo percurso, uma análise
sucinta e distintiva das nuances concernentes à machine learning e à deep
learning, considerando suas particularidades mais relevantes, no tocante ao
escopo do presente ensaio.
Sob um
panorama geral, no que diz respeito às especificidades de cada uma, importante
destacar que a machine learning refere-se a um conjunto de técnicas de
aprendizado automático com dados, sem a necessidade de serem programadas. Ou
seja, seu treinamento consiste na utilização de exemplos que servem para
ajustar os modelos.
A deep
learning, por sua vez, constitui uma subárea da machine learning que
utiliza redes neurais mais profundas, dotada de múltiplas camadas de neurônios
artificiais. Diferentemente da machine learning, a deep learning possui,
em seu ambiente, padrões mais complexos em seus dados, oferecendo resultados
mais precisos e com elevada capacidade de resolução de problemas.
Ademais,
enquanto a machine learning é menos complexa, com poder computacional
baixo, exigindo técnicas menos sofisticadas, como árvores de decisão e
regressão, a deep learning possui habilidades superiores, semelhantes às
do cérebro humano, com maior capacidade de processamento de volumes de
informações, como imagens e linguagem natural.
Alfim, à guisa
de aprofundar a análise e tornar mais compreensíveis os conceitos até aqui
expostos, revela-se oportuno trazer à baila exemplos práticos que ilustram a
aplicabilidade das subáreas em questão.
Em cumprimento
ao proposto alhures, na tentativa de levar o conceito de machine learning à
concretude moderna, pode-se citar os sistemas de recomendação utilizados em
plataformas de streamings de imagem ou de áudio, como a Netflix e o
Spotify. É comum que os usuários, ao acessarem determinado tipo de conteúdo, deparem-se,
posteriormente, com sugestões do mesmo segmento. Os algoritmos, ao registrarem as
predileções dos usuários, passam a lhes ofertar conteúdos de mesmo estilo, uma
vez que observados os seus padrões de consumo de modo individualizado.
Já no tocante
ao deep learning, um exemplo de significativa relevância reside no
reconhecimento facial, utilizando-se redes neurais profundas que identificam
padrões faciais de modo analítico, possibilitando a autenticação de usuários. Tem
como propósito a substituição de senhas e PINs, diante da fragilidade apresentada
no quesito segurança, após o aprimoramento de ações criminosas atinentes a ataques
causados por hackers.
Conquanto o
reconhecimento facial se apresente como uma solução que oferece maior segurança
ao usuário, se comparado à utilização de senhas e PINs, há de se reconhecer a
ocorrência de casos emblemáticos que evidenciam sua falibilidade.
Em outras
palavras, a utilização de reconhecimento facial de modo descuidado, pode
incorrer em equívocos graves, culminando, inclusive, em prisões injustas passíveis
de reparações indenizatórias por erro do Estado. São colocadas em debate a antieticidade,
muitas vezes do Estado, emergindo, em alguns casos, o direito à indenização por
danos morais experimentados pela vítima. Tal temática será explorada em tópico
próprio de modo mais pormenorizado.
Sob a égide de
todo o exposto, cumpre ressaltar que as subáreas da IA, machine learning e
deep learning, desempenham papeis de grande relevância na ambiência algorítmica
em diversos contextos. Contudo, imprescindível destacar que as decisões
automatizadas engendradas pelos algoritmos podem incorporar vieses em sua
essência, levantando questões que poderão afetar a sua eticidade.
Por essa
razão, faz-se necessário um exame mais minucioso acerca dos vieses
discriminatórios, porventura existentes. Além disso, mister a abordagem de fatores
como a opacidade, o alinhamento, o controle e suas implicações éticas e
jurídicas, com vistas à adoção de medidas que promovam a prevenção do impacto
desses “estilhaços” potencialmente prejudiciais, decorrentes do uso inadequado
de algoritmos.
2.4. ALGORITMOS E OS PRINCIPAIS DESAFIOS
2.4.1. Fundamentos e Vieses Discriminatórios
Ultrapassadas
as explanações anteriores, consideradas elementares para a melhor compreensão do
que, de fato, objetiva o presente ensaio, alcança-se o momento oportuno para
esmiuçar acerca do papel dos algoritmos, enquanto ferramenta tecnológica que permeia
o universo jurídico. Tal imbricação entre tecnologia e direito tem suscitado embates
de elevada significância, notadamente, no que toca à ética aplicada aos
algoritmos.
Embora
a conceituação dos algoritmos já tenha sido previamente delineada, faz-se
necessária sua retomada, sob uma perspectiva mais aprofundada, considerando sua
relevância na esfera jurídica.
Para
tanto, os algoritmos referem-se a uma sequência lógica de instruções que devem
ser observadas com a finalidade de resolver determinado problema, ou cumprir
tarefas específicas, assemelhando-se a um roteiro sistemático. Ademais, para
seu melhor desempenho e entrega eficiente de resultados, é imprescindível a observância
de suas diretrizes.
A
Resolução 332/2020 do Conselho Nacional de Justiça (CNJ) que dispõe sobre a
ética, a transparência e a governança na produção e no uso de Inteligência
Artificial no Poder Judiciário, em seu artigo 3.º, I, define algoritmo como “sequência
finita de instruções executadas por um programa de computador, com o objetivo
de processar informações para um fim específico” (Conselho Nacional de Justiça,
2020, p. 3)[30].
Sob
o mesmo contexto, o Blog PUCRS Online em seu artigo “Algoritmos na lei:
automação jurídica” traz importante reflexão acerca da definição de algoritmos
e sua crescente influência no campo jurídico:
Os algoritmos são sequências finitas de instruções bem definidas, destinadas a resolver problemas específicos ou realizar cálculos. Em um contexto jurídico, isso significa que algoritmos podem ser usados para otimizar tarefas que tradicionalmente exigem intervenção humana. A aplicabilidade de algoritmos em ambientes jurídicos se reflete em diversas práticas, como a pesquisa de jurisprudência, a automação de documentos e até mesmo questões de legislação. Os profissionais do direito que compreendem como os algoritmos funcionam conseguem aproveitar essa tecnologia para ganhar vantagem competitiva (Pontifícia Universidade Católica do Rio Grande do Sul, 2025)[31].
Nota-se
que os algoritmos de inteligência artificial estão presentes em vários
segmentos, sendo aplicados em diferentes ramos, seja na saúde, quando realizam
o seu monitoramento através de aplicativos; na automação industrial, em que as
fábricas utilizam máquinas para realizar tarefas específicas, de forma mais
célere e precisa; em recrutamentos de emprego, quando auxiliam na triagem de
candidatos, além de outros. Tais soluções são conhecidas como Tecnologias de
Propósito Geral (TPGs) ou General Purpose Technologies (GPTs), capazes
de gerar elevado impacto em diversos setores.
Por
seu turno, a IA enquadra-se no rol das tecnologias de propósito geral, ao passo
que detém o poder de realizar transformações e fomentar melhorias estruturais
de grande valia em diversos segmentos da tecnologia, os quais, eram antes
considerados resistentes à evolução. É considerada uma GPT revolucionária,
ainda pendente de regulamentações.
Sobre
isso, importante observação da Doutora Dora Kaufman, pesquisadora e professora
da PUC-SP, pós-doutora pela UFRJ e PUC-SP e doutora pela USP, com vasta
experiência em inteligência artificial:
As tecnologias não são todas iguais, algumas adicionam valor incremental à sociedade e outras são disruptivas. Ao reconfigurar a lógica de funcionamento da economia e aportar inéditos modelos de negócio, as disruptivas provocam períodos de reorganização [...]. As Tecnologias de Uso Geral (General Purpose Technologies/GPT) estão nesse último bloco. São tecnologias-chave, moldam toda uma era e reorientam as inovações nos setores de aplicação, como a máquina a vapor, a eletricidade e o computador. A inteligência artificial (IA) é a tecnologia de propósito geral do século XXI (Kauffman, 2021)[32].
A
tecnologia do propósito geral também foi definida sob o contexto da IA por D.J.
Castro, estrategista de marcas e colunista da revista eletrônica Economia SC:
A Inteligência Artificial (IA) é uma tecnologia de propósito geral. Esse termo é atribuído a tecnologias que permeiam todos os aspectos da humanidade e tem impacto global. É um conceito fundamental para compreender a extensão do impacto que a Inteligência Artificial vai ter na humanidade e nos negócios (Castro, 2024)[33].
Além
desse quadro, nota-se que os algoritmos têm alcançado proporções cada vez
maiores, permeando praticamente todos os aspectos do dia a dia da sociedade
moderna. Percebe-se isso, inclusive, em situações cotidianas da vida privada,
como nos casos em que se realiza uma pesquisa em um motor de busca, como o
Google; quando se navega em uma plataforma de streaming para a escolha
de um filme; ou, até mesmo, quando se realiza uma compra online em sites
de e-commerce.
No
primeiro exemplo citado, os motores de busca classificam e organizam as
informações, refinando as preferências do usuário. Se este realiza uma pesquisa
relacionada a tratamentos para emagrecimento, por exemplo, o algoritmo passará
a sugerir produtos relacionados a essa necessidade.
Em
relação ao exemplo das plataformas de streaming, se o usuário assiste a
filmes e séries de determinado gênero, como comédia, por exemplo, o algoritmo
irá sugerir outros filmes de mesmo gênero e classificação, como forma de estar
alinhado às suas preferências.
No
que tange ao comércio eletrônico que, por último, foi citado, o algoritmo pode
analisar o histórico de compras anteriores do usuário, além de cruzar dados de
navegações online e interações em redes sociais, a fim de refinar as
preferências personalizadas do consumidor de modo mais eficiente. Isso,
inclusive, pode impactar positivamente a performance de vendas das
empresas.
No
campo jurídico, os algoritmos também têm apresentado importantes feitos,
contribuindo para a eficiência e celeridade na análise de casos, elaboração de
minutas e, como já mencionado, até mesmo na dosimetria de penas, no âmbito da
justiça criminal. Estima-se uma economia bastante significativa no quesito
tempo para tarefas que, anteriormente, gastava-se horas ou até dias.
A
Defensoria Pública do Estado de São Paulo (DPESP), por exemplo, implementou, em
dezembro de 2024, a utilização da ferramenta de inteligência artificial “Defensor.IA”,
desenvolvida pelo ChatGPT, a fim de otimizar o tempo dispendido em tarefas
rotineiras, como a elaboração de peças processuais, de relatórios processuais prévios
para auxiliar Defensores Públicos em audiências e para depoimentos de
testemunhas, calcular penas com maior precisão e oferecer outras soluções
práticas.
Em
recente entrevista ao Jornal O GLOBO, o Defensor Público que coordena o
referido projeto na área de tecnologia da informação da DPESP, Dr. Douglas Schauerhuber,
realizou a demonstração das referidas tarefas, utilizando prompts previamente
desenvolvidos:
Em questão de segundos, o defensor fez o upload do despacho de um juiz que pedia o cálculo de cumprimento de pena para verificar se o condenado estava elegível para indulto e executou o prompt de uma lista. Após revisar as informações e reduzir o tamanho, a peça estava apta para envio no sistema eletrônico de rotina, que ainda não é integrado à ferramenta de IA. Em outra demonstração, pediu a transcrição de uma audiência de um caso criminal e solicitou ao produto que reunisse as informações sob alguns parâmetros e apontasse inconsistências nos depoimentos. As informações pessoais foram anonimizadas.
No futuro, Schauerhuber vislumbra que todo o procedimento possa ser sugerido ao defensor público de forma automática quando for verificar os seus processos. A ideia também é procurar individualizar os assistentes, adaptando a ferramenta não só às necessidades da Defensoria, como às preferências de cada usuário (Jornal O Globo, 2025)[34].
Isso,
de fato, tem impactado positivamente a estrutura da Defensoria Pública de São
Paulo, considerando que realiza, aproximadamente, 3 milhões de atendimentos por
ano. Esse volume expressivo de
atendimentos reforça a importância do uso responsável de dados dos usuários, em
conformidade com os regramentos vigentes, em especial, a Lei Geral de Proteção
de Dados (LGPD). Quanto a isso, a DPESP cumpre muito bem o seu papel, assegurando
que as informações não sejam utilizadas para treinamento do ChatGPT, de modo
que permaneçam armazenadas em servidor específico e protegidas por
criptografia.
Apesar
das inúmeras vantagens ofertadas pelos algoritmos, de modo geral, considerando
a economia de tempo e a precisão em tarefas automatizadas, em verdade, é
impossível ignorar um desafio emergente que preocupa cada vez mais a sociedade
contemporânea: os vieses algorítmicos.
Apenas
como breve introito do ponto em debate, cumpre esclarecer que a expressão
“viés” tem o sentido de julgamento inconsciente, ou seja, revestido de opinião
tendenciosa, que possui o condão de influenciar a tomada de decisões que
deveriam ser imparciais e neutras. Trata-se de uma característica inerente aos
seres humanos.
Assim,
considerando que os algoritmos se fundamentam em conjunto de dados históricos,
além de configurações sistêmicas predefinidas, ambos inseridos por agentes humanos,
argumenta-se que os vieses que se encontram por trás dos algoritmos são, na
verdade, vieses humanos.
Com
base nessa premissa de que os vieses algorítmicos são influenciados por vieses
humanos, é possível inferir que opiniões tendenciosas podem estar inseridas previamente
nos resultados apresentados pelos algoritmos, uma vez que são baseados em dados
históricos.
Desta
feita, os resultados apresentados pelos sistemas podem conter opiniões
tendenciosas, que refletem situações de discriminação em relação a determinado
grupo de pessoas que, historicamente, já eram consideradas vulneráveis e
marginalizadas. Em outras palavras, os vieses algorítmicos surgem quando
modelos de machine learning apresentam resultados com base em dados
históricos já enviesados.
Sobre
isso, inclusive, é essencial complementar que o grande número de dados que
alimenta os sistemas de machine learning em diversos setores, de forma
variada e acelerada, é caracterizado pelo conceito de big data.
De
acordo com a percepção do Mestre em Gestão da Informação pela UFPR, Douglas
Eduardo Basso, a conceituação de big data se revela da seguinte forma:
Big Data refere-se a dados com maior variedade que chegam a volumes crescentes e com velocidade cada vez maior. Isso é conhecido como os três Vs. Big Data= volume + variedade + velocidade. De forma mais simplificada, podemos dizer que Big Data é um conjunto de dados mais complexo e maior, utilizando uma gama de novas fontes. Esses conjuntos de dados possuem grande volume, algo que softwares tradicionais de processamento de dados simplesmente não conseguem gerenciar. Todavia, esses grandes volumes de dados possuem grande utilidade e podem ser empregados na resolução de problemas de negócios que seriam impossíveis de resolver antes do Big Data (Basso, 2020)[35].
Dito
de outro modo, o conceito de big data é definido como um elevado volume
de dados gerados em grande velocidade por inúmeras fontes, como redes sociais,
cadastros em redes de farmácias, registros médicos, transações bancárias, entre
outros. Ademais, considerando que os dados a serem armazenados servirão de
embasamento para decisões dos algoritmos, é de suma importância que a sua
inserção seja realizada de modo isento de ideologias.
Nesse
giro, percebe-se que o armazenamento de dados que contenham vieses traz
reflexos negativos imensuráveis, potencializando o sofrimento de determinados
grupos da sociedade que já enfrentam desafios na luta pela garantia de seus
direitos, em especial, em razão de orientação sexual, raça, religião.
Pela
inteligência da advogada Drª Mariana Sbaite Gonçalves, especialista em
Privacidade, Proteção de Dados Pessoais, Segurança da Informação, Ética e
Inteligência Artificial:
O viés algorítmico ocorre quando um sistema de IA, ao processar dados, gera resultados que favorecem ou prejudicam certos grupos de forma desproporcional. Em que pese os algoritmos sejam projetados para processar grandes quantidades de dados de maneira objetiva, a realidade é que esses sistemas dependem dos dados que recebem para "aprender (Gonçalves, 2024)[36]
Nessa
conformidade, se um algoritmo for treinado com dados tendenciosos, a entrega de
seus resultados também será marcada por distorções históricas. Mais ainda, suas
decisões e previsões podem não apenas ser perpetuadas, mas também ampliadas,
agravando, sobremaneira, questões delicadas como discriminação e intolerância a
determinados grupos.
No
que concerne às questões atinentes à discriminação algorítmica, é possível
trazer à baila diversos casos emblemáticos de grande repercussão no mundo, mas,
a priori, estes não serão abordados nesta seção, uma vez que reservados
a outro momento, no transcurso desta sequência para melhor performance didática.
Desse
modo, tendo em vista os inúmeros desafios impostos pelos vieses algorítmicos,
emergem diversas questões que demandam soluções estratégicas, como a adoção de
medidas eficazes que sejam capazes de mitigar danos e assegurar a
transparência, ética e imparcialidade nos processos.
A
Escola da Magistratura do Estado do Rio de Janeiro (EMERJ) promoveu, em outubro
de 2024, o encontro “A Revolução da LGPD nas Práticas Organizacionais”. Além de
serem abordadas questões de elevada significância atinente à proteção de dados,
foi levada à debate a preocupação com os vieses algorítmicos no âmbito do Poder
Judiciário.
Conforme,
de forma excelsa, esclarecido pela professora convidada, Drª Jeniffer Gomes da
Silva, Mestre em Direito Civil da Universidade do Estado do Rio de Janeiro
(UERJ):
A utilização da Inteligência Artificial por si só está atrelada a riscos e esses riscos, no contexto do Poder Judiciário, também se relacionam à noção do devido processo legal e também da isonomia em razão justamente de possíveis vieses algorítmicos. Então, esses vieses algorítmicos acabam também podendo repercutir no direito à privacidade e na utilização dos dados pessoais no contexto de treinamento de sistemas das plataformas e ferramentas de inteligência artificial. Além desses riscos, há também a questão de que, por vezes, a inteligência artificial faz sua análise com bases em decisões anteriores e, com base na análise dessas decisões anteriores, ela faz algum tipo de sugestão, de indicação para aquela decisão atual, só que essa sugestão de decisão pode acabar se tornando inadequada, porque há de se analisar se aquela situação é atípica, se aquela norma indicada é ou não ultrapassada. Enfim, tudo isso vai caber ao magistrado na análise do caso concreto (SILVA, 2024)[37].
O
debate acerca dos vieses algorítmicos tem ganhado cada vez mais destaque no
âmbito jurídico. Anteriormente, questões relacionadas a preconceito eram
discutidas exclusivamente em contextos da vida cotidiana, em ambientes sociais
e culturais, sem a influência da tecnologia. Atualmente, numa nova realidade em
que quase tudo que era manual torna-se automatizado, os algoritmos ganham
espaço e, por conseguinte, passam a desempenhar um papel de elevada relevância
sobre questões sensíveis que têm sido alvo de sua própria discriminação.
Como
já mencionado, embora sejam definidos como sequências lógicas, os algoritmos
não são meros reprodutores de dados e é possível identificar vieses
discriminatórios capazes de influenciar decisões automatizadas. Assim, uma interpretação
equivocada de padrões, fora do contexto realístico, pode dar azo a eventos
catastróficos ensejadores de discriminação que, ao final, poderão comprometer a
equidade dos resultados, preterindo determinados grupos.
Ainda
que seja cristalina a necessidade de mitigação dos prejuízos advindos dos
referidos vieses algorítmicos, questiona-se em que circunstância, de fato, os
algoritmos alcançam determinado resultado, para que seja possível traçar uma
rota de fuga capaz de combater a discriminação.
Nesse
sentido, o imbróglio a ser enfrentado segue no sentido de interpretar o caminho
do algoritmo para, alfim, alcançar a linha de chegada destinada aos resultados
que reproduz, a sua “caixa-preta”. Ou
seja, percebe-se que o algoritmo reproduz resultados com base em dados
históricos, mas o que não parece compreensível é como ele alcançou determinado
entendimento, nem quais critérios foram utilizados para sua interpretação.
Com
base nisso, torna-se imprescindível uma análise pormenorizada sobre a
construção e aplicação dos algoritmos para refinar a próxima abordagem. Sob
essa perspectiva, portanto, direciona-se a uma nova esfera de análise: a opacidade
e a imprevisibilidade algorítmicas.
2.4.2. Opacidade e Imprevisibilidade Algorítmicas
O
advento da era digital tem sido amplamente acolhido pela sociedade, uma vez que
inovações disruptivas têm trazido soluções que, antes de sua existência,
demandavam extensos períodos de pesquisa e análise intricada. Os resultados,
por sua vez, nem sempre atendiam às expectativas e, além disso, os gastos eram
exorbitantes durante todas as etapas atinentes a esse processo. Contudo, na
fase atual, esse novo cenário tecnológico tem se destacado pela entrega
eficiente de resultados proporcionada pelos algoritmos.
Certo
é que os resultados obtidos pelos algoritmos têm sido cada vez mais
satisfatórios. Todavia, quanto maior o seu nível de complexidade, com a
aplicação de abordagens como aprendizado de máquina e redes neurais, mais a sua
lógica tende a se tornar mais obscura, sendo quase impossível detectar os
critérios que os levaram a chegar àquela decisão. Esse fenômeno é conhecido
como opacidade algorítmica.
Para
Pedro Maia Bizzotto, “a opacidade algorítmica surge da assimetria entre a alta
precisão dos sistemas atuais – como recomendação de anúncios, reconhecimento
facial e de voz, moderação de conteúdo – e a necessidade de grau satisfatório
de explicação de seu funcionamento (Bizzotto, 2023)”[38].
João
Saldanha, em uma análise relevante, explorou o conceito de opacidade
algorítmica, identificando fatores fundamentais para sua compreensão:
Chamamos de “opacidade algorítmica” a dificuldade ou, em alguns casos, a completa impossibilidade de compreender como determinados algoritmos operam, fazem escolhas ou chegam a conclusões específicas. Isso acontece por diversas razões:
Complexidade Intrínseca: Alguns algoritmos, especialmente aqueles usados em aprendizado profundo e inteligência artificial, têm múltiplas camadas e interações que os tornam intrinsecamente difíceis de decifrar.
Design Intencional: Em muitos casos, a opacidade é intencionalmente incorporada para proteger propriedade intelectual, prevenir manipulações ou simplesmente como uma consequência de otimizações que tornam o código menos “palpável”.
Dinâmica Adaptativa: Alguns algoritmos são projetados para evoluir e adaptar-se com o tempo. Esta evolução constante pode tornar difícil, se não impossível, entender completamente seu comportamento em qualquer momento específico (Saldanha, 2023)[39].
Conforme
contextualização dos referidos especialistas, é possível inferir que a
expressão “opacidade algorítmica” está atrelada à semântica da falta de
transparência algorítmica. Em outras palavras, o algoritmo possui
característica de opacidade quando se torna dificultosa a identificação dos
critérios utilizados por ele para se chegar a um determinado resultado.
Nesse
diapasão, as decisões automatizadas adotadas pelo algoritmo, além de não serem
revestidas de transparência em seus parâmetros, criam uma atmosfera propensa a
condutas antiéticas e à discriminação.
Assim,
a falta de transparência dos algoritmos em suas decisões pode desencadear implicações
preocupantes, dando ensejo a certa injusteza, uma vez que a baixa acurácia na
análise de dados permeia um cenário de discriminação e práticas antiéticas, os chamados
vieses algorítmicos.
Pasquale
ainda demonstrou preocupação com os dados armazenados por empresas. Para ele, “os usuários e consumidores
precisam ter mais clareza sobre as informações pessoais que as empresas têm e
como elas estão sendo usadas. O uso é muito pouco claro porque as corporações
são como caixas-pretas” (Nistal, 2023)[40].
A
expressão “caixa-preta algorítmica” tem sido bastante utilizada por
especialistas que tratam da referida matéria, estando alinhada à ideia de que
os processos internos são pouco transparentes, tornando obscura a justificativa
dos critérios adotados, até mesmo para os próprios desenvolvedores. Isso tem
gerado alguns impasses, já que muitas empresas, criando sua tese de defesa,
argumentam que se trata de “segredo empresarial”, razão pela qual, para eles, é
dispensável a divulgação dos parâmetros utilizados por ela.
Por
seu turno, a questão do segredo empresarial tem sido bastante criticada. Embora
as empresas, em seu protecionismo, defendam que manter a confidencialidade de
modelos de aprendizado profundo e redes neurais proporciona uma vantagem
competitiva perante seus concorrentes, há direitos que, supostamente, podem
estar sendo violados. A adesão a esse tipo de comportamento fere questões de
valor muito mais elevado que meros lucros empresariais.
A
falta de transparência e ética permeada por algumas empresas afetam direitos
fundamentais, criando-se impactos negativos desafiadores, como a discriminação
algorítmica por meio de vieses ocultos.
Outrossim, a questão da opacidade
também ganha seus contornos sobre a imprevisibilidade algorítmica, uma vez que
essas “caixas-pretas” desencadeiam resultados inesperados e afetos a uma gama
de contextos, alimentando vieses que vão de encontro a princípios éticos e
direitos fundamentais.
A referida problematização cria a
necessidade de se adotar uma linha mais enérgica e disposta a impulsionar
práticas regulamentadoras para mitigar os impactos negativos da opacidade e
imprevisibilidade dos algoritmos. Assim, torna-se fundamental, pois, um esforço
maior para combater a insegurança jurídica gerada, a fim de assegurar a
isonomia e o devido processo legal, traçando-se estratégias mais eficientes para
essa finalidade.
Ademais, considerando o
enfrentamento necessário dos desafios impostos pela opacidade e
imprevisibilidade dos algoritmos, destaca-se, ainda, a indispensabilidade da
abordagem do alinhamento e controle algorítmicos, tema que será aprofundado nesta
sequência.
2.4.3. Alinhamento Algorítmico
Nos
últimos tempos, os algoritmos tornaram-se protagonistas de um cenário marcado
pela crescente dependência de suas habilidades, sendo vitais à sociedade, em diversos
domínios de aplicação.
Os
exemplos a seguir insertados refletem de forma cristalina a importância dos
algoritmos para a sociedade contemporânea, que busca, cada vez mais, soluções
tecnológicas capazes de otimizar tarefas, de modo mais eficiente, com vistas à
redução do tempo dispendido em suas atividades.
Além dos
exemplos deliberados em ocasiões anteriores, pode-se citar a execução de
tarefas automatizadas na advocacia, como as realizadas por meio de contratos
inteligentes (smart contracts); na medicina, em que cirurgias robóticas,
através do sistema Da Vinci Surgical System, permitem que cirurgiões
realizem procedimentos de alta complexidade e com maior precisão, utilizando joysticks
para controlar os movimentos do robô; no transporte urbano de alguns países,
como a China e os Estados Unidos, que já é popular serviços como táxi sem
motorista e outros mais.
Noutro
giro, ainda que apresente um avanço tecnológico de grande valia, delineia-se um
campo de discussão em torno da emergente preocupação entre especialistas,
relativa à massiva dependência dos algoritmos e a responsabilidade destes de
assegurar que tais sistemas operem de acordo com princípios éticos, de modo
seguro e alinhado aos objetivos da humanidade.
Nesse contexto,
inaugura-se a problemática atinente ao alinhamento algorítmico, que, na versão inglesa,
denomina-se AI alignment. Embora se trate de um tema que não esteja
sendo muito ventilado pelas mídias sociais, talvez, por razões deliberadas, é
imprescindível um olhar analítico, haja vista os riscos enviesados a que a sociedade
se expõe.
O
alinhamento algorítmico é um subcampo de segurança da inteligência artificial
que pode ser definido como o processo de criação e desenvolvimento dos sistemas
de inteligência artificial, de forma que estejam ajustados conforme os propósitos
e valores éticos estabelecidos por seus idealizadores. Assim, as tarefas
executadas pelo algoritmo tornam-se previsíveis, de modo que as respostas obtidas
pelo usuário estarão em conformidade com os valores atribuídos por seus
criadores.
Aparentemente,
uma percepção rasa e equivocada pode inferir que o alinhamento apresenta apenas
fatores positivos, já que parece aplicar a regulação apropriada, respeitando-se
valores e princípios éticos. Contudo, em
verdade, urge o questionamento: os valores éticos atribuídos pelos algoritmos
são padronizados para toda a sociedade mundial?
Ou seja, cria-se um imbróglio, no sentido de que nem toda a sociedade
possui os mesmos valores, seja por questões de ideologia política, de religião,
de estilo de vida, de educação financeira e de tantas outras.
O Blog
Espaço Ética, criado pelo Professor Clóvis de Barros Filho, trouxe reflexão
semelhante quanto à questão em apreço:
O funcionamento de todos os algoritmos seguem regras parecidas: um conjunto de medidas, cálculos ou operações estabelecidas em um computador com o intuito de atingir um objetivo específico. Levando em consideração variáveis, cenários e possibilidades, ele irá direcionar o usuário ou funcionalidade para o caminho mais adequado, de acordo com a lógica feita pelos profissionais que o desenvolveram. Aqui entra uma primeira questão: o “caminho adequado”, o “jeito certo”, o que deve ou não ser feito, tudo isso é baseado a partir de um sistema de valores determinados por uma pessoa, empresa ou IA. Nada é ao acaso (Barros Filho, 2022)[41].
Nota-se a
diligência do autor em descortinar eventuais vieses subjacentes que,
porventura, estejam imersos em valores subjetivos do programador, de modo a influenciar
a lógica dos algoritmos em relação ao público-alvo.
Pelos
escritos do doutor em Filosofia Política pela Universidade de Oxford, Doutor
Iason Gabriel, subentende-se que um dos objetivos do alinhamento é a adequação
escorreita de suas decisões aos valores morais da humanidade, sendo inevitável um
olhar atento para os desafios a serem enfrentados (Gabriel, 2020)[42].
Para o nobre
especialista, Doutor Iason Gabriel, os desafios do alinhamento são divididos em
duas partes:
A primeira parte é técnica e se concentra em como codificar formalmente valores ou princípios em agentes artificiais para que eles façam de forma confiável o que devem fazer. [...] No entanto, também existem desafios particulares que surgem especificamente para agentes artificiais mais poderosos. Isso inclui como evitar o "hacking de recompensa", em que o agente descobre maneiras engenhosas de atingir seu objetivo ou recompensa, mesmo que sejam diferentes do que foi pretendido, e como avaliar o desempenho de agentes cujas habilidades cognitivas potencialmente excedem significativamente as nossas [...].
A segunda parte da questão do alinhamento de valores é normativa. Ela pergunta quais valores ou princípios, se houver, devemos codificar em agentes artificiais. Aqui é útil traçar uma distinção entre concepções minimalistas e maximalistas de alinhamento de valores. A primeira envolve amarrar a inteligência artificial a algum esquema plausível de valor humano e evitar resultados inseguros. A segunda envolve alinhar a inteligência artificial com o esquema correto ou melhor de valores humanos em uma base social ou global. Embora a visão minimalista comece com a observação sólida de que otimizar exclusivamente para quase qualquer métrica pode criar resultados ruins para os seres humanos, podemos, em última análise, precisar ir além das concepções minimalistas se quisermos produzir IA totalmente alinhada. Isso ocorre porque os sistemas de IA podem ser seguros e confiáveis, mas ainda estão muito longe do que é melhor - ou do que realmente desejamos (Gabriel, 2020) [43].
Em
atenção à primeira parte mencionada pelo Doutor Iason Gabriel, acerca dos
desafios do alinhamento, os mecanismos de “hacking de recompensa”,
também são conhecidos como “bug bounty”. Esse termo refere-se a um
programa utilizado por empresas que oferecem recompensas financeiras para hackers
éticos ou pesquisadores de segurança que identificam e relatam vulnerabilidades
em seus sistemas, softwares ou sites (Solyd, 2024)[44].
Recentemente,
a OpenAI criou um software chamado Universe. Sua finalidade é a de medir
e treinar agentes de IA para conduzirem novos experimentos de RL (Reinforcement
Learning), que, em sua tradução, significa Aprendizado por Reforço.
Este, conforme contextualizado, refere-se a um treinamento voltado para agentes
para tomada de decisões em determinado ambiente, com aplicação de recompensas.
Através do software Universe,
a OpenAI desenvolveu um jogo chamado CoastRunners que utiliza o
mecanismo de recompensa. Seu objetivo é o de terminar rapidamente a corrida de
barco, em detrimento da performance de outros jogadores. Sua pontuação
está atrelada à quantidade de eliminações de alvos que encontrar durante o
percurso.
Embora o jogo em questão pareça
uma divertida atividade recreativa, os pesquisadores notaram que o agente RL,
em vez de focar no percurso completo da corrida de barco, optou pela adoção de
outra estratégia para maximizar sua pontuação. Ele encontra uma lagoa isolada,
onde pode girar em um grande círculo e derrubar seus alvos, assim que eles se
regeneram. Apesar de pegar fogo repetidamente, bater em outros barcos e ir na
direção errada, o agente consegue atingir uma pontuação maior usando essa
estratégia do que seria possível completando o percurso da maneira normal (Clark; Amodei, 2016)[45].
Outro exemplo fascinante
refere-se à famosa história do clipe de papel, que ficou conhecida através de
um experimento chamado “Maximizador de Clipes de Papel”, criado pelo filósofo
Nick Bostrom. Trata-se de uma situação hipotética em que a IA é programada para
potencializar a produção de clipes de papel. Contudo, ignorando princípios
éticos, a IA, ficticiamente, poderia adotar estratégias extremas e não
convencionais, consumindo todos os recursos naturais do planeta para atingir
seu objetivo. Afinal, nessa suposição, o importante seria apresentar um
resultado, independentemente de como se chegou a ele, sem respeito a princípios
éticos (Toolify, 2024)[46].
Desta feita, com base nos exemplos
referentes ao jogo desenvolvido pela OpenAI e o experimento delineado
por Nick Brostom, referente à maximização dos clipes de papel, é possível notar
que a questão do alinhamento desencadeia uma reflexão sobre os perigos de uma
IA avançada, englobando diversos desafios, como os mencionados acima pelo Dr.
Gabriel.
Ou seja, não se trata apenas de
uma questão técnica, mas sim ética e social, devendo-se aplicar o equilíbrio
entre objetivos e impor certas limitações para atingi-los. Tal ponderação pode
mitigar consequências irreparáveis que possam surgir no desempenho das
atribuições conferidas à IA. Ao contrário, seu objetivo central deve ser o
bem-estar global e ético, acima de todos os outros que o coloquem em risco.
Ainda sobre os desafios do
alinhamento de valores, o especialista Dr. Iason Gabriel menciona, na segunda
parte dessa abordagem, que se trata de uma questão normativa a ser destrinchada.
Isto é, questiona-se quais valores ou princípios éticos deverão ser codificados
em agentes artificiais.
O respeitável especialista traz a
distinção entre alinhamentos de valores minimalistas e maximalistas. O primeiro
refere-se ao vínculo da IA a algum valor humano plausível, evitando-se desfechos
imprevisíveis, ao passo que o segundo concentra-se, não apenas na mitigação de
riscos, mas também na conexão com os princípios éticos que norteiam uma
sociedade global, de acordo com os valores ideais de toda a humanidade, sendo
este o que mais se aproxima de um alinhamento eficiente, refletindo mais
segurança e confiança.
Transpondo
para o âmbito da realidade, um exemplo que ilustra o alinhamento minimalista é
o caso dos sistemas de IA utilizados para moderação de conteúdo online. Tais
sistemas visam evitar resultados que reproduzam o preconceito, a disseminação
de discursos de ódio ou das chamadas fakes news.
Nesses casos, embora seja
evidenciada a importância de valores humanos, não parece haver um consenso
quanto a uma visão ideal de valores humanos de modo mais abrangente a todos. Na
política, por exemplo, cada partido possui sua ideologia, razão pela qual
torna-se dificultoso pensar em alinhamento, quando cada um tem seu ponto-de
vista.
Já
o alinhamento maximalista, ora suscitado, pode ser exemplificado com a menção à
proposta de Regulamento de Inteligência Artificial da Unidade Europeia, que
estabelece mais rigidez em suas diretrizes para que seja mitigada a questão dos
riscos advindos da discriminação, bem como a proteção da privacidade e dados do
usuário. Em seu contexto geral, é caracterizada por um alinhamento mais
abrangente a toda sociedade, cuidando para que princípios éticos sejam
respeitados.
Diante da
análise em comento e dos exemplos apresentados, torna-se cristalino que o
desafio do alinhamento se encontra inserido no rol de obstáculos a serem
superados, sendo fundamental mitigar as discriminações algorítmicas.
Por
derradeiro, é indispensável destacar que “um sistema de IA que não esteja
alinhado aos valores humanos e à ética não é adequado para uso público”[47]
(Nanda, 2024), refletindo, pois, na incongruência dessa perspectiva com os
princípios éticos e com a equidade de direitos de uma sociedade justa.
2.4.4. Controle Algorítmico
Após
elucidar acerca dos principais pontos que merecem destaque, no que tange ao
alinhamento algorítmico, deflagra-se a discussão sobre o controle algorítmico.
O assunto que se inaugura possui forte correlação com o anterior, uma vez que o
controle algorítmico deriva, de certa feita, dos princípios e métodos aplicados
ao alinhamento dos algoritmos.
Embora
já tenha sido explorado em seção anterior, é importante lembrar que o
alinhamento algorítmico se refere ao ajustamento de regras impostas ao
algoritmo. Assim, as decisões realizadas por este devem estar em consonância
com valores, propósitos e critérios éticos anteriormente impostos, ou seja, as
respostas que ele entregar devem estar em conformidade com os objetivos que lhe
foram apresentados previamente.
De
outra sorte, o controle algorítmico se destoa do alinhamento, pois guarda
relação com a regulação dos sistemas algorítmicos, com observância a
regramentos específicos que têm o condão de fiscalizar a segurança e a
transparência. Além disso, o controle algorítmico tem por escopo a prevenção de
consequências negativas que possam colocar em xeque princípios éticos, em
detrimento da sociedade.
Para
uma abordagem mais robusta, mister reforçar o conceito de controle algorítmico,
que se ancora em princípios éticos que norteiam a sua aplicação. Nesse sentido,
o controle algorítmico refere-se ao conjunto de práticas que se destinam à
regulamentação e ao monitoramento, sendo capazes de influenciar os algoritmos, com
vistas a garantir que operem de forma isonômica, transparente, vestindo-se de
valores éticos reconhecidos pela sociedade em geral.
O
vertiginoso avanço das tecnologias tornou a sociedade cada vez mais dependente
dos algoritmos, passando a assumir funções que, anteriormente, eram exclusivas
à capacidade humana, trazendo à tona a preocupação com o controle algorítmico.
Afinal, esse cenário de inquietude tornou-se compreensível, frente à espantosa
capacidade da IA de executar com perfeição determinadas tarefas, sobretudo, de
maneira desenfreada e autônoma, por muitas vezes.
Uma
questão que tem sido discutida entre especialistas da área é a ausência de
limites com as habilidades da IA, forjando-se a verossimilhança de suas
criações. Contudo, ainda que a criação de conteúdos convincentes e realistas seja
bem recepcionada por diversas esferas, principalmente, em razão de sua
admirável criatividade, é possível identificar seu impacto negativo.
Para
melhor compreensão, importante trazer alguns pontos prévios de apoio. Sabe-se
que grande parte das criações de IA são alimentadas por volumes de dados
comportamentais extraídos, sem consentimento, de interações humanas,
especialmente em redes sociais como Facebook e Instagram.
Dessa
forma, grandes empresas de tecnologia (Big Techs) como Apple, Google,
Microsoft, Amazon e Meta têm monitorado as preferências do consumidor para criar
estratégias monetárias por meio da datificação. Ou seja, os dados dos usuários são
extraídos sem o seu consentimento explícito e servem de matéria-prima para a
extração de lucros de grandes empresas. Esse fenômeno atende pela alcunha de “Capitalismo
de Vigilância".
A
professora da Universidade de Harvard, Shoshana Zuboff, cunhou o termo “capitalismo
de vigilância” em 2014. Em 2019, ela aprofundou o conceito durante entrevista
para o canal de notícias Harvard Gazette:
Defino capitalismo de vigilância como a reivindicação unilateral da experiência humana privada como matéria-prima gratuita para tradução em dados comportamentais. Esses dados são então computados e empacotados como produtos de previsão e vendidos em mercados de futuros comportamentais — clientes empresariais com interesse comercial em saber o que faremos agora, em breve e no futuro. Foi o Google que primeiro aprendeu a capturar dados comportamentais excedentes, mais do que o necessário para os serviços, e os utilizou para computar produtos de previsão que poderiam vender aos seus clientes empresariais, neste caso, anunciantes (Zuboff, 2019)[48].
É
notório que a utilização de dados dos usuários sem o seu devido consentimento
ressalta o ambiente de hipossuficiência técnica destes, já que o desequilíbrio
de forças entre empresas e consumidores é latente. Sem ferramentas capazes de obstar essa
invasão de privacidade de seus dados pelas Big Techs, os indivíduos têm suas
experiências digitais inseridas em um verdadeiro labirinto sem saída, pelo
menos, a princípio.
Nas
palavras da advogada, Drª Luana Esteche Nunes, especialista em Propriedade
Intelectual:
O controle algorítmico e o desequilíbrio de poder, intensificados pela Inteligência Artificial, limitam a capacidade de escolha e dificultam qualquer oposição efetiva pelo usuário. Da mesma forma, a sofisticação dos sistemas de IA utilizados por grandes empresas deixa o consumidor em uma posição de vulnerabilidade, sem mecanismos eficazes de oposição ou controle sobre como seus dados são usados e interpretados. Esse desequilíbrio de poder faz do consumidor uma mercadoria a ser consumida, seja através da captura de seus dados ou da rentabilização da atenção, onde o consumidor tem pouca ou nenhuma capacidade de resistência frente aos algoritmos que moldam sua experiência digital (Nunes, 2025)[49].
Conforme
explicitado pela Drª Luana Esteche Nunes, grandes corporações, na condição de
verdadeiros controladores de suas plataformas, utilizam a tecnologia de
inteligência artificial para moldar escolhas dos seus usuários. Assim, as
empresas decidem qual conteúdo será sugerido e, implicitamente, vão guiando as
escolhas de seus usuários, de modo tão sutil que, às vezes, nem estes são
capazes de notar.
Nesse
contexto, percebe-se que esse tipo de comportamento das empresas não interfere
apenas em escolhas relacionadas ao entretenimento, como, por exemplo, nos tipos
de música e filmes sugeridos, através das plataformas de mídia. Mais do que
isso, discute-se o impacto negativo causado pela influência de notícias
sugeridas, em conformidade com os interesses dessas grandes corporações.
A
disseminação de notícias falsas – as chamadas fakes news – tem despertado uma
crescente preocupação, em razão da rápida expansão das mídias sociais e seu uso
desenfreado. A desinformação dá azo à manipulação da opinião pública,
potencializando os riscos desse fenômeno para a sociedade, em especial, no
segmento político.
Conforme
já explorado em tópico apartado, os sistemas de inteligência artificial
empregam o aprendizado de máquina (Machine Learning), valendo-se de
dados históricos. Assim, ao identificarem padrões, alcançam a decisão de forma
automatizada. Contudo, os usuários – proprietários desses dados – não têm
acesso aos critérios utilizados pela IA e é essa falta de transparência que
caracteriza as chamadas black boxes (caixas-pretas) já referenciadas
(Oliveira; Belotti, 2024)[50].
A
opacidade algorítmica em questão desencadeia inúmeros desafios éticos, como a dificuldade
de identificação de decisões enviesadas. Ao impedir uma análise clara dos
critérios utilizados pelos algoritmos, a transparência se torna prejudicada.
A
temática em voga chama a atenção das autoridades, no sentido de que a
persistência desse modus operandi por parte das Big Techs, que se
concentra em auferir lucros em detrimento da privacidade de seus usuários, abre
espaço para a imperatividade de regulação. Assim, com o fito de mitigar
eventuais repercussões éticas decorrentes dessa conduta, faz-se necessária a
adoção de estratégias de regulação voltadas para a transparência e
responsabilidade no uso de dados.
O
cenário que se desenha pode tornar-se ainda mais sombrio, caso a previsão de
evolução da inteligência artificial se torne realidade. Isso parece estar
prestes a se consubstanciar com a iminente chegada da IAG.
Conforme
algures abordado, a IAG é classificada como um tipo de “IA forte” e se
caracteriza por ter uma capacidade muito acima da IA que atualmente é
usufruída. Além de possuir facilidade de adaptação a múltiplos contextos, ela é
capaz de executar variadas tarefas de forma improvisada, em uma velocidade
acima da média.
Embora
esteja apenas inserida em linhas de pesquisa, sendo, inclusive abordada em
conteúdos de ficção científica, são peculiaridades como as mencionadas que
acionam o alerta global de emergência para que sejam, urgentemente, tomadas
providências para a regulação da aplicação e desenvolvimento da IA.
Diante
disso, considerando a proximidade de mais esse avanço da tecnologia, é de se
compreender a real necessidade de traçar novas diretrizes para o controle
algorítmico e, por conseguinte, evitando-se um verdadeiro colapso cibernético.
Considerando
o cenário atual de preocupação com a eticidade do avanço da inteligência
artificial, uma vez que robôs têm provado que suas capacidades estão prestes a
atingir graus de perfeição incalculáveis, torna-se apropriada a menção de um
dos grandes mestres da ficção científica, Isaac Asimov.
Asimov,
em sua obra clássica intitulada “Eu, Robô”, criou as famosas “Leis da Robótica”,
utilizando esses parâmetros como ferramenta de combate a conflitos éticos que,
porventura, pudessem surgir diante da relação entre humanos e robôs.
Para
Asimov, as três Leis da Robótica são:
1- Um robô não pode ferir um humano ou permitir que um humano sofra algum mal.
2- Os robôs devem obedecer às ordens dos humanos, exceto nos casos em que essas ordens entrem em conflito com a primeira lei.
3- Um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores. (Negri, Giovanin, 2021)[51].
Impende
consignar que, conquanto as leis em apreço não passem de mera ficção, é mister aludi-las,
uma vez que se alinham ao contexto da presente temática. Nota-se que as
referidas leis são norteadas em princípios basilares referentes à proteção da
humanidade, além da observância de regramentos específicos, a fim de se evitar que
danos sejam causados por robôs.
Reforça-se,
pois, a premente necessidade de regulamentação da IA, que se potencializa perante
a iminente chegada da superinteligência. Quanto a esta, provavelmente, a sua
autonomia de decisão será cada vez mais avançada e a sua evolução desenfreada poderão
suscitar desafios quanto aos riscos à eticidade moral de grande envergadura.
Por
fim, ao examinar a complexidade que envolve os algoritmos, especialmente em
relação ao alinhamento e ao controle algorítmicos, já que caminham no mesmo
sentido, percebe-se a necessidade de avançar mais um passo para abordar as
especificidades da regulação algorítmica.
2.5.
REGULAÇÃO DA INTELIGÊNCIA
ARTIFICIAL
Dando
início a uma nova etapa discursiva, impõe-se a necessidade de examinar os
aspectos gerais sobre a regulação da inteligência artificial, contemplando seus
princípios estruturantes. Após esse transcurso, também serão introduzidos nesta
pauta o panorama legislativo da regulação da IA, tanto sob o contexto internacional
quanto em relação ao cenário jurídico brasileiro.
2.5.1. Aspectos Gerais
A
regulação consiste em peça-chave essencial para garantir o equilíbrio entre o
exercício pleno dos direitos do usuário ao utilizar uma IA e a implementação de
um controle regulatório de modo setorial, como na tecnologia, na saúde, nas
finanças, na justiça e em diversas outras áreas.
Com
a adoção massiva da inteligência artificial, impulsionada pela automatização de
inúmeras tarefas que permeiam a vida cotidiana, viu-se a necessidade de se
estabelecer um arcabouço regulatório, voltado a salvaguardar a eticidade aos usuários.
Embora apresentem semelhanças, os
institutos da regulação da inteligência artificial e o da regulação algorítmica
possuem alguns enfoques distintos que merecem uma brevíssima explanação.
A
regulação da IA consiste em normas e diretrizes amplas aplicadas a diversos setores,
promovendo a transparência, segurança e ética no uso da tecnologia. Seu
objetivo central é assegurar a proteção dos direitos fundamentais e prevenir
práticas abusivas que possam surgir com o uso da IA.
Já a regulação algorítmica possui enfoque mais
restrito, relacionada especificamente ao funcionamento interno dos algoritmos,
monitorando seus vieses e direcionando seus estudos ao alinhamento e ao controle.
Ademais,
é fundamental destacar que o papel da transparência algorítmica é o ponto que
mais tem sido evidenciado quando se trata de regulação dos algoritmos. As
decisões automatizadas necessitam de critérios que eliminem a opacidade,
garantindo padrões éticos, de acordo com a lei.
O
pesquisador do Instituto de Estudos Avançados da USP, Lucas Vilalta, oferece
suas pontuações sobre a relevância da transparência no contexto algorítmico:
A regulação desse ecossistema complexo e das relações entre as instituições, empresas e indivíduos exige que tenhamos acesso às informações e às ações praticadas pelos atores, que os processos que mediam as relações sociais sejam explicáveis e que o compromisso com a justiça e com o dever de não causar dano seja um parâmetro chave do funcionamento institucional e dos sistemas sociotécnicos. Contudo, só é possível avaliar se isso está acontecendo se houver transparência. Sem termos transparência e explicabilidade sobre como decisões automatizadas, sistemas de recomendações, vieses, diagnósticos, geração de textos e imagens, ranqueamentos, entre outros processos, estão sendo produzidos por algoritmos de IA e das plataformas, não é possível incluí-los em um fluxo de responsabilidade e governança que é imprescindível para a vida democrática (Vilalta, 2024)[52].
Superada a distinção entre a
regulação da inteligência artificial e a regulação algorítmica, imperativo
adentrar em uma contextualização mais profunda da referida temática. Desta
feita, importante mais outro desdobramento do assunto: os modelos regulatórios,
que definem critérios sobre o uso da inteligência artificial.
Em
meio às inúmeras notícias veiculadas pelas mídias jornalísticas acerca da
regulação algorítmica, é possível que paire a dúvida se essa normatização diz
respeito a um único modelo ou se existem outros. Contudo, em verdade,
observa-se que não existe apenas um modelo de regulamentação da IA.
Nas
palavras de Doutora Tainá Aguiar Junquilho, professora convidada da PUCRS e Doutora
em Direito, com ênfase em Inteligência Artificial, há três principais modelos
de regulação da IA, a saber:
• Governança/regulação setorial: defende que cada setor que utiliza IA deve desenvolver suas próprias normas, como ocorre no setor de saúde, onde o Ministério da Saúde e a Anvisa regulamentam o uso da IA para atender às necessidades específicas.
• Governança abrangente: busca criar uma estrutura normativa geral aplicável a todas as áreas onde a IA atua. Como exemplo, AI Act da União Europeia.
• Autorregulação regulada: permite que empresas criem diretrizes internas que sejam auditáveis e reconhecidas por uma certificação, uma abordagem que valoriza empresas que demonstram boas práticas e ética em suas operações (Junquilho, 2024)[53].
Com
base nos ensinamentos da referida Doutora Junquilho, torna-se importante um
breve adendo sobre cada modelo de regulamentação para uma abordagem mais sólida
e estruturada do tema central do presente ensaio, conforme subsequentes
escritos.
A- Governança
ou Regulação Setorial:
Esse
tipo de modelo parece bastante vantajoso, considerando que está alinhado às
especificidades de determinada área, sem adotar regras genéricas que que
poderiam não contemplar adequadamente o escopo das questões regulatórias de
modo certeiro.
Além do exemplo dado
pela Drª Junquilho, outro bastante relevante é a regulação no setor financeiro,
em que bancos centrais e órgãos de controle utilizam a inteligência artificial
para realizar, dentre outras atividades, a análise automatizada de crédito de
seus clientes. A referida prática, inclusive, tem gerado grandes polêmicas
relacionadas à discriminação algorítmica por meio de geolocalização para
avaliar riscos financeiros. Aos moradores de bairros de classe média baixa, por
exemplo, tem sido atribuído um score baixo, reforçando-se uma atmosfera
preconceituosa.
B- Governança
Abrangente
Trata-se
de um modelo inverso ao anteriormente abordado. A sua própria literatura o
define, já que é uma espécie de governança que se baseia em uma estrutura
normativa geral a ser aplicada a todas as áreas que utiliza a inteligência
artificial, independentemente de suas peculiaridades.
O
exemplo apresentado pela ilustre professora Doutora Junquilho, sobre a proposta
do AI Act da União Europeia, refere-se a um regulamento baseado em um marco
regulatório unificado para enfrentar desafios éticos na aplicação da
inteligência artificial em todos os setores.
C-
Autorregulação Regulada
Nesse tipo de modelo de
regulação, diferentemente dos anteriormente citados, a governança será
implementada pela própria empresa, que, de forma autônoma, estabelece suas
diretrizes internas sobre o uso da inteligência artificial. Todavia, ainda que
tenham livre arbítrio para elaborar seu regulamento, as normas deverão ser verificadas
mediante regulamentações externas, como a Lei Geral de Proteção de Dados,
aplicada no Brasil, e o Regulamento Geral de Proteção de Dados, da União
Europeia.
O Facebook e o
Instagram, pertencentes à Meta, são exemplos de plataformas que adotam a
autorregulação regulada no uso de inteligência artificial. Nessa espécie de
modelo, por meio de diretrizes próprias, as referidas plataformas desenvolvem
sistemas de governança interna para seguir princípios éticos. Tais empresas
realizam, por exemplo, a moderação de conteúdo de forma automatizada, o
direcionamento de propagandas, bem como o treinamento de IA com dados dos
usuários.
A propósito, cabe
mencionar que o Instituto de Defesa de Consumidores (IDEC) alertou as
autoridades sobre uma possível violação da Meta aos regramentos impostos pela LGPD,
em razão do uso, supostamente, indevido de imagens e textos dos usuários para
treinamento de IA. Irresignada, a empresa alega que, por se tratar de dados públicos,
não há violação de privacidade. Além disso, os usuários têm livre escolha para recusar
a coleta de dados pela empresa (Silva, 2024)[54].
Conclui-se, pois, que
os três principais modelos apresentados ressaltam a importância da regulação. Cada
um, com suas peculiaridades, tem como objetivo comum a proteção de direitos
fundamentais das pessoas, promovendo, pois, o uso responsável da inteligência
artificial.
2.5.2.
Panorama
Legislativo, sob o contexto global
Após o
exame dos aspectos gerais, ora apresentados, inicia-se a abordagem legislativa
da regulação da inteligência artificial, sob uma perspectiva mundial.
A
regulação da IA no cenário global tem sido objeto de debates de grande valia, refletindo
a complexidade de harmonizar os interesses de cada unidade federativa em um regulamento
único. Até o presente, não foram estabelecidas diretrizes padronizadas que
vinculem todos os países, tornando-se dificultoso esse processo. Isso se deve às particularidades políticas,
econômicas e culturais que criam entraves para que haja um alinhamento de
interesses que abarque todas as nações.
A
questão atinente à falta de alinhamento de interesses entre países influenciou,
sobremaneira, o movimento inicial da regulação da IA de modo global. Em razão
de inexistir um consenso normativo entre os países, adotou-se o modelo soft
law, que se baseia na orientação por meio de princípios para o uso da IA,
sem um regulamento propriamente dito e aplicado, conforme a própria
conveniência de seus agentes. Esse modelo diferencia-se do tradicional hard
law, que estabelece regras vinculativas e sujeitas a sanções, em caso de
descumprimento.
Em
maio de 2019, foi adotado o primeiro movimento voltado à regulação, sendo publicados
os Princípios da OCDE (Organização para a Cooperação e Desenvolvimento
Econômico) para IA. Foi referenciado internacionalmente, tendo como escopo os
direitos humanos e os valores democráticos. Em 2024, os referidos princípios
sofreram importante atualização.
Os
Princípios da OCDE “são compostos por cinco princípios baseados em valores e
cinco recomendações que fornecem orientações práticas e flexíveis para
formuladores de políticas e atores da IA” (OCDE, 2024)[55].
Dentre os princípios
éticos que foram instaurados àquela época, destacam-se os da transparência,
não-discriminação, não-maleficência, prestação de contas e privacidade. Todavia,
em que pese serem, até hoje, importantes norteadores da regulação da IA, os
referidos princípios apresentaram certas resistências como medida concreta de
salvaguarda de direitos fundamentais (Silva; Garrote, 2025)[56].
Já as
cinco recomendações atinentes ao primeiro movimento de regulação da IA baseiam-se
em investir em pesquisa e desenvolvimento; promover um ecossistema inclusivo, a
fim de viabilizar a IA; moldar um ambiente de governança; desenvolver
capacidade humana para o novo mercado de trabalho e a cooperação internacional
(OCDE, 2024)[57].
No que
tange aos princípios, insta registrar que houve inúmeros desafios para a
implementação do modelo soft law, uma vez que a ausência de regras
vinculantes, dificultava a sua aplicação prática. Por essa razão, tais
princípios passaram a ser vistos também como um mero rol de recomendações, sem
qualquer força vinculativa.
Avançando-se
agora para o segundo movimento voltado para a regulação da IA de modo global,
importante destacar a figura do respeitável Luciano Floridi, pesquisador sobre
a eticidade da inteligência artificial, além de filósofo da informação da
Universidade de Oxford.
Floridi
foi um dos pesquisadores que impulsionou e estruturou o conceito de AI For
Social Good (AI4SG), também conhecido como a IA para o benefício social,
que marcou o segundo movimento[58] (Pontifícia Universidade Católica do Rio
Grande do Sul, 2024). A AI4SG tem como visão a busca pela aplicação
da inteligência artificial com a finalidade de enfrentamento dos desafios
sociais existentes, em especial, nas áreas de saúde, educação, além de
políticas voltadas ao amplo acesso à internet.
Floridi
destacou, ainda, a importância da adoção de uma governança responsável da IA, com
vistas à promoção do respeito aos direitos humanos da sociedade.
Já o
terceiro movimento da regulação com força vinculante, sendo considerado o mais
importante, foi marcado pela primeira lei mundial a regulamentar a IA, a
chamada AI Act (Ato de Inteligência Artificial) ou, simplesmente, Regulamento
da IA.
O Regulamento da IA foi proposto pela União
Europeia (UE) em abril de 2021 e, após a sua aprovação, entrou em vigor em
agosto de 2024, sendo introduzido de modo uniforme para todos os seus Estados-Membros.
Importante salientar que a UE, ao estruturar
o AI Act, estabeleceu uma classificação por nível de risco, sendo
imperioso mencionar:
Risco mínimo: a maioria dos sistemas de IA, como os filtros de correio eletrônico não solicitado e os jogos de vídeo baseados na IA, não está sujeita a qualquer obrigação ao abrigo do Regulamento Inteligência Artificial, mas as empresas podem adotar voluntariamente códigos de conduta adicionais.
Risco específico em matéria de transparência: os sistemas como os robôs de conversação devem informar claramente os utilizadores de que estão a interagir com uma máquina, ao passo que determinados conteúdos gerados por IA devem ser rotulados como tal.
Risco elevado: os sistemas de IA de risco elevado, como o software médico baseado em IA ou os sistemas de IA utilizados para o recrutamento, devem cumprir requisitos rigorosos, incluindo sistemas de atenuação dos riscos, conjuntos de dados de elevada qualidade, informações claras aos utilizadores, supervisão humana etc.
Risco inaceitável: por exemplo, os sistemas de IA que permitem uma «pontuação social» por parte dos governos ou das empresas são considerados uma clara ameaça para os direitos fundamentais das pessoas e, por conseguinte, são proibidos (COMISSÃO EUROPEIA, 2024)[59].
As referidas classificações trazidas pelo
Regulamento da IA possuem outras especificidades, sendo premente trazê-las a
conhecimento nesta oportunidade. Assim, no que se refere à “IA proibida”,
conforme classificação supramencionada, a legislação prevê exceções para os
casos de defesa, pesquisa e uso pessoal não profissional.
Nesse contexto, a identificação biométrica
poderá ser autorizada em casos de busca de suspeitos. Outro aspecto importante
refere-se ao reconhecimento facial em tempo real, sujeito a uma rigidez
normativa eficiente, já que utilizado para auxílio na localização de vítimas de
crimes e identificação de suspeitos de infrações graves, como terrorismo e tráfico
humano (Rivelli, 2023)[60].
Nota-se que a Justiça Criminal foi bastante
agraciada pelo Regulamento da IA, no que concerne a essas questões, uma vez que
trouxe ferramentas que poderão, inclusive, favorecer investigações e trazer
resultados mais eficientes.
Ultrapassado o exame dos intricados
desdobramentos atinentes à regulação pela União Europeia, cumpre dirigir o
olhar para outros contornos normativos globais que circundam a IA. Assim,
perpassando a ulterior narrativa, adentra-se ao ambiente norte-americano, onde
foi publicado o Blueprint for an AI Bill of Rights (Projeto para
uma Carta de Direitos da IA), publicado em outubro de 2022.
O Blueprint apresentou em seus
regramentos cinco princípios que foram consagrados com base nos direitos civis norte-americanos.
São eles:
- Sistemas seguros e eficazes: as pessoas devem ser protegidas contra sistemas de IA inseguros ou ineficazes.
- Proteções contra discriminação algorítmica: as pessoas não devem enfrentar discriminação por algoritmos, e os sistemas devem ser usados e projetados de maneira equitativa.
- Privacidade de dados: as pessoas devem ser protegidas contra práticas abusivas de dados por meio de proteções integradas” e devem ter agência sobre como os dados sobre elas são usados.
- Aviso e explicação: as pessoas devem saber que um sistema automatizado está sendo usado e entender como e por que isso contribui para resultados que as afetam.
- Alternativas humanas, consideração e fallback: as pessoas devem poder optar por não participar, quando apropriado, e ter acesso a uma pessoa que possa considerar e remediar rapidamente os problemas que elas encontram (Krantz; Jonker, 2023)[61].
Infere-se que os princípios citados pela
regulação norte-americana buscam, não só proteger direitos fundamentais, mas
também insuflar valores democráticos no desenvolvimento e na aplicação da
inteligência artificial. Percebe-se, pois, o cuidado em equilibrar os avanços
tecnológicos e a responsabilidade ética com essa transição.
No contexto chinês, os avanços na
regulamentação da IA foram consolidados de modo mais abrasivo e estratégico. Em
2023, a Administração do Ciberespaço da China implementou diretrizes destinada
aos provedores de IA, com a finalidade da análise de segurança e registro de
algoritmos para influenciar pessoas (Heda, 2023)[62].
Além disso, o governo também incentiva o
desenvolvimento de chips e softwares que, para muitos, se trata de uma forma
de controle estatal, atrelado à inovação tecnológica. Ou seja, trata-se de uma
forma de garantir que o desenvolvimento da IA esteja alinhado aos interesses estatais
e à proteção social.
A UNESCO (United Nations Educational,
Scientific and Cultural Organization) também assumiu importante feito no
tocante à regulação da IA. Em novembro de 2021, aprovou a Recomendação sobre a
Ética da Inteligência Artificial, sendo o primeiro regramento com abrangência
global para o desenvolvimento e utilização da IA, com a adesão de 194
estados-membros da UNESCO (UNESCO, 2022)[63].
Dentre os seus princípios norteadores,
destacam-se o da transparência, equidade, proteção de dados e supervisão humana.
Outra peculiaridade do regulamento da UNESCO
é a garantia de que a IA contribua para a igualdade de gênero, aspecto de
grande relevância diante dos desafios enfrentados, em relação aos vieses
discriminatórios já elucidados no presente estudo.
No mesmo trilho, o Japão adotou o modelo soft
low na regulamentação da IA. Em 2024, presidiu o Grupo dos Sete, tendo
lançado um processo de IA em Hiroshima para elaborar princípios orientadores
internacionais e um código de conduta internacional para IA generativa. Registrou-se
que “cerca de 49 países e regiões aderiram à referida estrutura voluntária,
chamada de Grupo de Amigos do Processo de IA de Hiroshima” (Estadão Conteúdo,
2024)[64].
Diante da análise realizada, percebe-se que,
ainda que cada país tenha adotado um modelo de estratégia de regulação da IA,
seja o da soft law ou da hard law, seus regramentos possuem em
comum a preocupação com a ética. A transparência também parece ser outro fator
norteador que tem impulsionado a regulação global, embora, para alguns, seja um
desafio equilibrá-la com a supervisão estatal.
Por fim, para melhor organização didática,
após a exposição dos pontos mais relevantes acerca do cenário global da
regulação da IA, será realizada uma abordagem em apartado da referida temática no
cenário brasileiro, conforme análise subsequente.
2.5.3. Panorama Legislativo, sob o contexto brasileiro
O
Brasil, assim como diversos outros países, inclusive os abordados na seção
anterior, embora celebre os avanços tecnológicos cada vez mais acelerados,
também reconheceu a necessidade de envidar esforços para a proposta de
regulamentação da inteligência artificial, seguindo as diretrizes legislativas
europeias.
Anteriormente, os
principais indícios voltados para a regulação baseavam-se apenas em princípios
gerais voltados para a eticidade do uso e desenvolvimento da tecnologia.
Todavia, notou-se que seguir parâmetros abstratos, sem uma regulamentação
normativa propriamente dita, não seria o melhor caminho a ser trilhado.
Tornou-se evidente, pois, a necessidade de um marco normativo de regulação mais
estruturado para a adoção de medidas efetivas, sobretudo, em caso de violação aos
direitos humanos.
Enquanto
não se voltavam para a formulação de propostas específicas para a regulamentação
do desenvolvimento e aplicação da IA, outras legislações nortearam a tecnologia,
conforme citadas ulteriormente de modo exemplificativo.
A Lei
de Acesso à Informação foi instituída com a finalidade de garantir a
transparência de informações perante a Administração Pública, com a ressalva
daquelas de caráter sigiloso (Brasil, Lei nº 12.527, 2011)[65]. O Marco Civil da
Internet trouxe inovação ao regulamentar a internet, criando diretrizes sobre a
neutralidade de rede, privacidade, liberdade de expressão e a proteção de dados
pessoais (Brasil, Lei nº 12.965, 2014)[66]. A Lei Geral de Proteção
de Dados inspirada no Regulamento Geral de Proteção de Dados (GDPR) da União
Europeia, alterou o Marco Civil da Internet e buscou proteger direitos
fundamentais como privacidade, transparência e segurança (Brasil, Lei n°
13.709/ 2018)[67].
Percebe-se
que cada uma dessas leis contribuiu, de certa feita, para a construção de um
arcabouço regulatório, ainda que não se tenha adotado regramentos específicos
voltados diretamente para a inteligência artificial.
Contudo,
o Brasil já apresentava sinais de que estava empenhado a aderir a uma regulação
normativa voltada ao desenvolvimento e aplicação da IA. O PL 21/ 2020, por
exemplo, buscava a salvaguarda de direitos fundamentais, além da observância de
princípios relevantes, como o da transparência, todavia não logrou êxito, sendo
arquivado posteriormente (Brasil, Projeto
de Lei nº 21, de 2020)[68].
Já em
2023, mantendo-se a ideia inicial de regulamentação normativa, foi apresentada
nova proposta legislativa para estabelecer o regramento da inteligência
artificial de forma responsável. Assim, surgiu o PL 2.338/ 2023 com a
finalidade de consolidação de princípios de governança e transparência voltados
à regulamentação da IA no Brasil (Brasil, PL 2.338, 2023)[69].
Também
chamado de Marco Regulatório da IA no Brasil, o projeto tem por escopo garantir
o uso ético e responsável da inteligência artificial, além de abordar questões
que têm sido referenciadas em outras nações, como a transparência, os direitos
autorais e a supervisão de sistemas de IA.
Ainda
sobre o referido projeto, importante registrar que a sua aprovação pelo Senado
Federal se deu em dezembro de 2024, todavia encontra-se ainda em análise, tendo
sido encaminhada em 17/03/2025 à Câmara dos Deputados para votação (Brasil, PL
2.338, 2023)[70].
Alfim,
verifica-se que os regulamentos normativos anteriormente abordados já demonstravam
a preocupação com questões relevantes atinentes à inteligência artificial,
ainda que de forma indireta. Com a apresentação do PL 2.338/ 2023, o Brasil
avança na construção de um conjunto normativo voltado ao equilíbrio entre
desenvolvimento tecnológico e eticidade. Se aprovada, oferecerá maior garantia
à aplicação responsável da IA no país.
2.6.
LEADING
CASES RELACIONADOS
A VIESES DISCRIMINATÓRIOS
Ao longo
da exposição, foram abordados diversos aspectos estruturais atinentes à
inteligência artificial, perpassando por conceitos fundamentais para a
compreensão da temática a ser desenvolvida a partir desta sequência. Diante
disso, tornou-se imprescindível discutir questões como o problema do
alinhamento e do controle algorítmico, os reflexos da opacidade nos sistemas de
IA, o impacto das medidas de regulação de modo global e no Brasil, dentre
outros. Cada um dos assuntos tratados até o momento está diretamente
relacionado a casos emblemáticos no âmbito do Direito Penal, reforçando a
importância da abordagem para o enfrentamento dos desafios relacionados aos
vieses discriminatórios que serão analisados adiante.
2.6.1. Caso Wisconsin vs. Loomis
Primeiramente,
antes de esmiuçar sobre o polêmico imbróglio, é importante um breve apontamento
sobre o software que recebeu a alcunha de COMPAS (Correctional Offender
Management Profiling for Alternative Sanctions). Trata-se de um sistema de
avaliação de risco utilizado pela justiça norte-americana, tendo por desiderato
avaliar a previsão de risco de reincidência criminal.
Em
sua análise, o COMPAS avalia o risco do réu, seguindo critérios como o histórico
criminal, a condição socioeconômica e as circunstâncias da prática do delito.
Por conseguinte, é gerada uma estimativa da probabilidade de reincidência.
Ademais,
“o sistema é utilizado para avaliar o risco associado a um réu, auxiliando na
decisão sobre sua possível libertação sob fiança, imposição de pena privativa
de liberdade ou aplicação de medidas alternativas” (Perin, 2024)[71]. Trata-se, pois, de um
mecanismo de busca de dados a serem fornecidos ao Poder Judiciário para que
este defina a sanção a ser aplicada ao caso concreto.
Em
que pese os avanços da tecnologia serem recepcionados de forma muito positiva
no universo jurídico, é fundamental reconhecer os desafios atinentes à
aplicação da inteligência artificial na esfera penal.
Em
2013, um incidente envolvendo o sistema COMPAS, na definição de sentenças na
esfera criminal, obteve um desfecho que causou descontentamento, conforme detalhado
a seguir:
O
caso Wisconsin
vs. Loomis levou a questão até a
Suprema Corte estadunidense, quando Eric Loomis questionou o uso de um programa
de inteligência artificial (o Compas – Correction Offender Management
Profiling for Alternative Sanctions) por parte do Juízo para determinar a
sua condenação a seis anos em regime fechado. A defesa de Loomis queria ter
acesso aos critérios que levaram o robô algorítmico a recomendar sua pena – a
Suprema Corte negou o recurso, assentando tratar-se de segredo industrial o
caminho desenvolvido pelo referido robô (Supremo Tribunal Federal, 2020)[72].
O
segredo industrial citado alhures, refere-se a uma estratégia adotada por
empresas que visam a proteger informações sigilosas concernentes a uma a uma
vantagem competitiva com seus concorrentes. Sua violação, inclusive, pode ser
considerada uma concorrência desleal.
O
Google é um exemplo de empresa que utiliza essa estratégia de segredo
industrial. Recentemente, foi registrado um vazamento de milhares de documentos
internos que revelou detalhes sigilosos sobre o funcionamento do seu algoritmo
(Haas, 2024)[73].
Retornando
à narrativa do caso em apreço, foi realizada em 2016 uma investigação pela ProPublica
atinente ao sistema COMPAS, uma vez que havia indícios de que este estaria
utilizando critérios de discriminação racial. Nesse contexto, observou-se que o
sistema superestimava a probabilidade de reincidência de réus negros e, em
contrapartida, subestimava a de réus brancos (Angwin; Larson; Mattu; Kirchner, 2016)[74].
Um
breve adendo é necessário para melhor compreensão ao que foi versado
anteriormente. A ProPublica refere-se a uma organização jornalística, sem fins lucrativos,
sediada em Nova Iorque. Seu objetivo é investigar eventuais abusos de poder por
parte de governos, relacionados a eventos de interesse público (Wikipédia,
2025)[75].
Na
concepção errônea do COMPAS, réus negros eram considerados pessoas de alto
risco de cometer crimes, ou serem reincidentes na prática do delito. Já os réus
brancos eram classificados como de risco baixo, ainda que reincidentes (Perin,
2024)[76].
No
caso de Loomis, ao proferir a sentença, o juiz aderiu ao COMPAS para fixar a
pena de seis anos de prisão. Irresignada, a defesa argumentou que se tratava de
violação do direito ao devido processo legal, já que o referido software era
deficiente de transparência dos critérios que embasaram a decisão.
O
COMPAS, por sua vez, rebateu as alegações, aduzindo que os referidos critérios
utilizados não poderiam ser divulgados, haja vista que, por se tratar de
segredo industrial, ou Trade Secret, em sua versão, na língua inglesa,
as ferramentas algorítmicas não poderiam ser divulgadas. Defendeu, ainda, que
se trata de propriedade intelectual e não há o que se falar em qualquer tipo de
violação a direitos do réu.
Na
mesma linha, a Suprema Corte alegou que não se tratava de violação de direitos de
Loomis, todavia alertou aos juízes para que houvesse parcimônia ao
utilizar ferramentas algorítmicas para proferir decisões.
O
segredo de empresa tem sido bastante questionado, uma vez que, supostamente, há
a colisão de dois direitos que se contrapõem. Por um lado, o direito da empresa
referente à propriedade intelectual e, por outro, o direito do réu de uma
sentença baseada em critérios transparentes e lógicos, isentos de qualquer
discriminação, seja por raça, religião, condição financeira etc.
Por
fim, reflete-se sobre o impacto dos avanços da tecnologia, sobretudo o uso da
inteligência artificial para decisões judiciais já que, muitas vezes, tratam de
questões sensíveis e passíveis de impasses advindos dos algoritmos. Torna-se
necessário o equilíbrio entre direitos fundamentais e interesses empresariais.
2.6.2. Caso Predpol
Outro software que também tem sido bastante
questionado é o Predpol, um sistema de policiamento preditivo utilizado para
prever locais e horários com maior probabilidade de ocorrência de crimes, com
base em dados históricos.
Utilizado na Pensilvânia, Estados Unidos, o Predpol
tem sido recepcionado de forma bastante positiva, sendo constatada, inclusive,
a redução da criminalidade naquela região. Registros apontaram que o sistema
apresentou excelentes resultados: “em 14 meses, o número de roubos caiu 23%,
apesar da redução do contingente policial nesse período. A chave foi o
algoritmo da PredPol, uma startup californiana que usa a big data para prever o
comportamento da criminalidade” (Elpaís, 2017)[77].
Para o seu cofundador, Jeff Brantingham, o PredPol
não informa a previsão exata da ocorrência de delitos, todavia aponta
locais e horários com maior probabilidade de ocorrência destes, geralmente nas
próximas 10 a 12 horas antes de serem consumados. A metodologia aplicada
considera três fatores: tipo de crime, localização e momento da ocorrência (El
País, 2017)[78].
Seguindo as mesmas críticas que o COMPAS, o PredPol
também foi alvo de questionamentos acerca da ocorrência de discriminação
algorítmica. Embora indique a preocupação com a otimização da força policial,
direcionando-a aos locais de maior incidência de crimes, é possível que sua
aplicação perpetue desigualdades no policiamento.
Em outras palavras, o referido software tem
sido criticado por estar, supostamente, direcionando o policiamento de modo
desproporcional para bairros onde residem pessoas negras, sendo, portanto, mais
um caso apontado por conter vieses algorítmicos.
2.6.3. Caso Randall Reid
Mais um caso de discriminação racial envolvendo
algoritmos foi alvo de polêmicas. O caso ocorreu no final do ano de 2022, no
dia seguinte ao Dia de Ação de Graças, quando um homem negro, chamado Randal
Quran Reid, foi abordado pela polícia estadual da Geórgia, quando pretendia
visitar sua mãe. Ao questionar o motivo de sua prisão, foi informado que,
através de reconhecimento facial, ele foi identificado como suposto autor do
crime de roubo de cartão de crédito utilizado para a compra de bolsas de luxo
no valor de US$ 8.000, em Nova Orleans.
A acusação causou estranheza ao Sr. Reid, uma
vez que, além de não ter roubado um cartão de crédito, ele nunca havia visitado
sequer o Estado da Louisiana, onde é localizada Nova Orleans, razão pela qual
seria impossível que ele tivesse praticado aquele crime. Sua indignação o levou
a processar o gabinete do xerife de Louisiana devido à prisão injusta (Independent,
2023)[79].
O caso gerou preocupação sobre a
confiabilidade das ferramentas de reconhecimento facial quando utilizadas como
única base para efetuar prisões. Reflete, ainda, sobre a necessidade de revisão
humana adequada para confirmar a identidade das pessoas, sempre que houver o
auxílio da tecnologia de inteligência artificial.
Nota-se que cada caso abordado traz um alerta
sobre questões que envolvem viés algorítmico na aplicação da inteligência
artificial no âmbito do Direito Penal.
No caso Loomis, a ausência de transparência
algorítmica se colide com o direito do réu de ter acesso aos critérios
utilizados pela IA para definir sua sentença. De igual modo, no caso PredPol,
relacionado ao policiamento preditivo, percebeu-se a ocorrência de
discriminação algorítmica na segurança pública, já que a polícia se dirigia
mais aos bairros de minorias raciais. Por fim, no caso Randall Reiv, a
inteligência artificial, mais uma vez, atua de modo indesejado, já que, ao
utilizar o reconhecimento facial como única base, sem revisão humana, efetua
uma prisão injusta de um homem negro.
A aplicação de ferramentas de inteligência
artificial na seara criminal, embora ofereçam praticidade e economia de tempo
na automação de tarefas rotineiras, demonstram também que não podem ser
utilizadas de modo exclusivo, sem a interferência humana.
Por derradeiro, conclui-se que é necessário
que a adoção da inteligência artificial, de modo geral, esteja alinhada à
eticidade. Atender às diretrizes impostas pela regulação da IA, promover a
transparência, respeitar direitos fundamentais e agir de modo imparcial são
alguns passos essenciais para garantir o equilíbrio entre a inovação e o
respeito à dignidade humana.
3.
Considerações Finais
Ao
longo desta disquisição, foi possível verificar que a inteligência artificial
tem se apresentado de modo infinitamente evolutivo com o decurso do tempo. Em
contrapartida, cada passo dado tem também invocado desafios incalculáveis
acerca do equilíbrio entre a tecnologia avançada e a salvaguarda de direitos
fundamentais das pessoas.
Percebe-se que a tecnologia vem
ganhando espaço em diversas áreas da vida cotidiana, cumprindo tarefas que,
anteriormente, eram restritas à mente humana. Com a evolução tecnológica, esse
sobressalto ganhou contornos ainda mais positivos, contudo ainda é necessário
parcimônia para que a inteligência artificial não se transforme em um
verdadeiro vilão.
Ainda assim, é notável que a
inteligência artificial tem sido bastante salutar, enquanto vista como ferramenta
auxiliar, capaz de oferecer velocidade no cumprimento de tarefas e de modo
aperfeiçoado. Contudo, é imprescindível que os atos regulatórios sejam, de
fato, eficientes a ponto de exterminar vieses discriminatórios, porventura,
existentes.
Durante o estudo realizado, foi
possível inferir que a questão da transparência algorítmica percorre campos
áridos, em meio aos embates entre interesses corporativos e governamentais. É
preciso descortinar a subjetividade por trás de argumentos que, em vez de oferecerem
soluções, buscam apenas resguardar interesses próprios, como a questão abordada
sobre o “segredo industrial”, em detrimento de direitos fundamentais inerentes
à coletividade.
O problema do alinhamento
algorítmico também é um ponto importante que se destacou no presente ensaio.
Mostrou-se que o desenvolvimento da inteligência artificial precisa garantir meios
eficientes para que suas decisões estejam em conformidade com princípios éticos
e sociais.
Ademais,
um dos desafios do alinhamento refere-se ao fato de que os valores humanos de
cada nação são peculiares aos seus costumes e interesses. Em outras palavras, considerando
que cada país possui suas normas, valores e prioridades distintas, é essencial
que haja uma padronização global dos critérios de alinhamento algorítmico. A
inteligência artificial, ao ser aplicada em diferentes contextos, deve
considerar essas particularidades para evitar conflitos éticos e decisões
enviesadas.
De
igual monta, a questão abordada sobre o controle algorítmico também merece
destaque, uma vez que a supervisão e a regulamentação da inteligência
artificial são fundamentais para assegurar que a sua aplicação ocorra de modo
alinhado à eticidade e à transparência.
Outrossim,
impende mencionar que a automatização de decisões não pode ser aplicada sem a
devida supervisão humana, a fim de se evitar decisões enviesadas, perpetuando
desigualdades embasadas em dados históricos que já não fazem - ou nunca fizeram
- sentido algum no contexto social da humanidade.
Ainda
que cada nação adote um regulamento próprio que esteja alinhado aos seus
interesses, é imprescindível que se busque a padronização no que tange a
aspectos éticos, ainda que suas ideologias sejam diversas.
Não
se pode aceitar uma “anarquia algorítmica”, sem um controle rígido e capaz de
aplicar sanções, em caso de violação a direitos fundamentais da humanidade, em
especial, no que toca à discriminação de minorias, já tão massacradas em sua
história.
Por
fim, a abordagem sobre a discriminação algorítmica, sob o contexto da seara
criminal, reforça a necessidade de uma regulação da inteligência artificial,
adotando-se o modelo hard law, já que caracterizado por regras
vinculativas, passíveis de aplicação de sanção, em caso de insubordinação.
Através
da abordagem atinente aos polêmicos leading cases inseridos no contexto
penal, ressaltou-se a importância da aplicação de medidas regulatórias que
combatam os vieses algorítmicos. O uso de ferramentas por meio de inteligência
artificial, como no caso do reconhecimento facial que resultou na prisão
equivocada de uma pessoa negra inocente, não pode servir de embasamento único.
É necessário que, de forma conjunta, haja supervisão humana para se evitar
decisões errôneas.
Desta feita, o monitoramento
contínuo e auditorias especializadas tornam-se, portanto, imprescindíveis para
garantir que a inteligência artificial seja desenvolvida e aplicada dentro de
padrões éticos e jurídicos adequados.
A adoção da IA, portanto, deve
estar em conformidade com a transparência, a equidade e a responsabilidade, de
modo a minimizar impactos negativos e maximizar os benefícios que essa
tecnologia pode proporcionar.
Ademais, considerando que a
evolução tecnológica caminha de forma cada vez mais acelerada, é necessário que
a sociedade esteja preparada para futuros impactos advindos com a iminente
chegada da superinteligência. Se atualmente o cenário apresenta situações
complexas e conflitantes entre tecnologia e direitos, futuramente, os embates
poderão ser ainda mais intensos.
É necessário que sejam criadas
diretrizes claras que se atenham aos direitos fundamentais, com a adoção de
critérios transparentes, sobretudo, em respeito ao devido processo legal.
Deve-se, portanto, combater práticas discriminatórias por meio de políticas
públicas e frameworks éticos para que os algoritmos sejam desenvolvidos
e usados de maneira justa, transparente e inclusiva.
Alfim,
entende-se que a regulamentação da IA é o instrumento indispensável para
mitigar riscos e promover uma governança algorítmica moldada em princípios
éticos, garantindo transparência, equidade e responsabilidade no
desenvolvimento e aplicação dessas tecnologias. Além disso, a normatização
adequada permite equilibrar inovação e proteção de direitos fundamentais,
fortalecendo a confiança da sociedade no uso da inteligência artificial.
REFERÊNCIAS
A diferença entre machine learning e deep learning. Curitiba: Pontifícia Universidade
Católica do Paraná (PUCPR), 2023.. Disponível em: https://posdigital.pucpr.br/blog/machine-learning-deep-learning.
Acesso em: 3 abr. 2025.
ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER,
Lauren. How We Analyzed the COMPAS Recidivism Algorithm. ProPublica, 23 maio 2016. Disponível em: ProPublica. Acesso em: 28 abr. 2025.
ARPANET. In: Wikipédia, a enciclopédia
livre. Flórida: Wikimedia Foundation, 2025. Disponível em: https://pt.wikipedia.org/wiki/ARPANET Acesso em: 30 mar. 2025.
BALDISSERA,
Olívia. Os 3 tipos de Inteligência Artificial. Curitiba: Pontifícia
Universidade Católica do Paraná.
Disponível em: https://posdigital.pucpr.br/blog/tipos-de-inteligencia-artificial. Acesso em: 29 mar. 2025.
BARBOSA,
Andressa. O que é a superinteligência artificial? São Paulo: Forbes
Brasil, 2023. Disponível em https://forbes.com.br/forbes-tech/2023/06/o-que-e-a-superinteligencia-artificial/. Acesso em: 31 mar. 2025.
BARROS
FILHO, Clóvis de. A ética no uso dos algoritmos. Espaço Ética, 12 jul.
2022. Disponível em: https://espacoetica.com.br/etica-uso-dos-algoritmos/. Acesso em: 18 abr. 2025.
BASSO,
Douglas Eduardo. Big data. Curitiba: Contentus, 2020. E-book.
Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 10 abr. 2025.
BIZZOTTO,
Pedro Maia. Regulação de opacidade algorítmica: a falta de transparência em
decisões automatizadas enquanto problema regulatório. Trabalho de Conclusão
de Curso – FGV DIREITO RIO, sob a orientação do professor(a) Nicolo Zingales,
Rio de Janeiro: Fundação Getúlio Vargas (FGV), 2023.
BOSTROM,
Nick. Superinteligência: caminhos, perigos, estratégias. [S.l.]: Teel
Editorial, 2016. p. 115.
BRASIL.
Lei nº 12.527, de 18 de novembro de 2011. Regula o acesso a informações
públicas. Brasília: Presidência da República, 2011. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2011/lei/l12527.htm. Acesso em: 28 abr. 2025.
BRASIL.
Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias,
direitos e deveres para o uso da Internet no Brasil. Brasília: Presidência
da República, 2014. Disponível em:
https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso
em: 28 abr. 2025.
BRASIL.
Lei nº 13.709, de 14 de agosto de 2018. Dispõe sobre a proteção de dados
pessoais e altera a Lei nº 12.965, de 23 de abril de 2014 (Marco Civil da
Internet). Brasília: Presidência da República, 2018. Disponível em:
https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso
em: 28 abr. 2025.
BRASIL.
Senado Federal. PL 2.338/2023 – Regulamentação da Inteligência Artificial.
Senado Federal, 2024. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/151547. Acesso em: 27 abr. 2025.
BRASIL.
Senado Federal. PL 2.338/2023 – Regulamentação da Inteligência Artificial.
Senado Federal, 2025. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 28 abr. 2025.
CASTRO,
D.J. Os impactos da IA como tecnologia de propósito geral. Economia SC,
2024. Disponível em: https://economiasc.com/2024/04/02/os-impactos-da-ia-como-tecnologia-de-proposito-geral/. Acesso em: 9 abr. 2025.
COELHO,
Taysa. Algoritmo. Portugal: Significados, (s.d). Disponível em: Algoritmo: o que é, definição, exemplos e aplicações -
Significados Acesso em:
04 de abril de 2025.
COMISSÃO EUROPEIA. AI Act enters into force on
August 1, 2024. Bruxelas:
European Commission, 2024. Disponível em:
https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_pt. Acesso em:
27 abr. 2025.
CONSELHO
NACIONAL DE JUSTIÇA (Brasil). Resolução n.º 332, de 21 de agosto de 2020.
Define os parâmetros para o uso de inteligência artificial no Poder Judiciário.
Brasília, DF: CNJ, 2020. Disponível em:
https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 09 abr. 2025.
COSTA,
Mirla; PYRES, Leticia. Direto ao ponto: o que é Machine Learning com
exemplos reais. São Paulo: Alura, 2024.. Disponível em: O que é Machine Learning? | Alura.
Acesso em: 03 abril 2025.
DUARTE,
Roberto Dias. Inteligência Artificial Geral (AGI): Conceitos e Desafios. Belo Horizonte: RDD. Disponível em: https://www.robertodiasduarte.com.br/inteligencia-artificial-geral-agi-conceitos-e-desafios/#Introducao. Acesso em: 31 mar. 2025.
EL PAÍS
BRASIL. O uso da tecnologia no policiamento preditivo. Disponível em:
https://brasil.elpais.com/brasil/2017/03/09/tecnologia/1489078250_691655.html.
Acesso em: 29 abr. 2025.
ESCOLA DA
MAGISTRATURA DO ESTADO DO RIO DE JANEIRO (EMERJ). A utilização da
Inteligência Artificial no contexto do Poder Judiciário: riscos e desafios.
Rio de Janeiro: Escola da Magistratura do Estado do Rio de Janeiro, 2024.
Disponível em: https://emerj.tjrj.jus.br/noticia/2032.
Acesso em: 10 abr. 2025.
ESTADÃO
CONTEÚDO. Japão apresenta código de conduta internacional de regulamentação
de IA. São Paulo: Revista Exame, 2024. Disponível em: https://exame.com/inteligencia-artificial/japao-apresenta-codigo-de-conduta-internacional-de-regulamentacao-de-ia/. Acesso em: 27 abr. 2025.
FILHO,
Oscar Gabriel. Inteligência artificial e aprendizagem de máquina: aspectos
teóricos e aplicações. 1. ed. São Paulo, SP: Blucher, 2023. E-book.
Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 06 abr. 2025.
GABRIEL, Iason. Artificial Intelligence, Values,
and Alignment. Minds and Machines, v. 30, p. 411-437, 2020. Disponível em: Springer. Acesso em: 18
abr. 2025.
GIANNINI,
Alessandro. O que é Manus, a nova inteligência artificial que promete fazer
tudo. São Paulo: Revista Veja, 2025. Disponível em:
https://veja.abril.com.br/tecnologia/o-que-e-manus-a-nova-inteligencia-artificial-que-promete-fazer-tudo/.
Acesso em: 30 abr. 2025.
GONÇALVES, Mariana Sbaite. Viés algorítmico
e discriminação: IA pode amplificar vieses sociais. São Paulo: Migalhas,
2024. Disponível em: https://www.migalhas.com.br/depeso/415125/vies-algoritmico-e-discriminacao-ia-pode-amplificar-vieses-sociais. Acesso em: 13 abr. 2025.
HAAS,
Guilherme. Vazamento revela segredos do algoritmo de busca do Google. Canaltech,
28 maio 2024. Disponível em: https://canaltech.com.br/internet/vazamento-revela-segredos-do-algoritmo-de-busca-do-google-290911/. Acesso em: 28 abr. 2025.
HEDA,
Laura. China avança na regulamentação da inteligência artificial. São
Paulo: CNN Brasil, 2023. Disponível em:
<https://www.cnnbrasil.com.br/tecnologia/china-avanca-na-regulamentacao-da-inteligencia-artificial/>.
Acesso em: 27 abr. 2025.
KAUFMAN,
Dora. Desmistificando a inteligência artificial. 1. ed. São Paulo:
Autêntica, 2022. E-book. Disponível em: https://plataforma.bvirtual.com.br.
Acesso em: 27 mar. 2025.
KAUFMAN,
Dora. Proposta europeia de regulamentação da IA: impressões preliminares.
São Paulo: Época Negócios, 2021. Disponível em: https://epocanegocios.globo.com/colunas/IAgora/noticia/2021/04/proposta-europeia-de-regulamentacao-da-ia-impressoes-preliminares.html. Acesso em: 9
abr. 2025.
KRANTZ, Tom; JONKER, Alexandra. Blueprint for an
AI Bill of Rights. Disponível
em: https://www.ibm.com/br-pt/think/topics/ai-bill-of-rights. 2023. Acesso em:
27 abr. 2025.
LIMA,
Samuel. Defensoria Pública de SP adota IA para agilizar rotina e defende
paridade de armas com escritórios privados. Rio de Janeiro: O Globo,
2025. Disponível em: https://oglobo.globo.com/brasil/noticia/2025/04/11/defensoria-publica-de-sp-adota-ia-para-agilizar-rotina-e-defende-paridade-de-armas-com-escritorios-privados.ghtml. Acesso em: 11 abr. 2025.
LUGER, G.
F. Inteligência artificial. 6. ed. São Paulo: Pearson, 2013. E-book.
Disponível em: https://plataforma.bvirtual.com.br . Acesso em: 23 mar. 2025.
MATOS, Felipe
Figueiredo. O que é a inteligência artificial, o que ela promete e quais são
os seus conflitos. São Paulo: Migalhas de Peso, 2025. Disponível em: https://www.migalhas.com.br/depeso/424078/o-que-e-a-ia-o-que-ela-promete-e-quais-sao-os-seus-conflitos. Acesso em: 22
mar.2025
McCarthy, J., Minsky, M., Rochester, N., Shannon, CE. A
Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.
Disponível em: http://raysolomonoff.com/dartmouth/boxa/dart564props.pdf . Acesso em: 22 mar. 2025.
NANDA,
Arun. Superalignment. Nova Iorque: DataCamp, 2024. Disponível em: https://www.datacamp.com/pt/blog/superalignment. Acesso em: 19 abr. 2025.
NEGRI,
Sergio Marcos Carvalho de Ávila; GIOVANIN, Carolina Fiorini Ramos. Leis da
robótica: da ficção de Isaac Asimov ao debate sobre sistemas de inteligência
artificial Brasília: Revista do Tribunal Regional Federal da Primeira
Região, 2021. Disponível em: https://revista.trf1.jus.br/trf1/article/view/488/355. Acesso em: 21 abr. 2025.
Nick
Bostrom. In: Wikipédia,
a enciclopédia livre. Flórida: Wikimedia Foundation, 2025. Disponível
em: Nick Bostrom – Wikipédia, a enciclopédia
livre. Acesso em: 01
abr. 2025.
NISTAL,
Matheus. Para especialista, algoritmos opacos decidem sobre a vida das
pessoas. São Paulo: Instituto de Estudos Avançados da Universidade de São
Paulo, 2023.
NUNAN,
Vladimir. Inteligência Artificial: Nem Inteligente, Nem Artificial, Segundo
Miguel Nicolelis. Ceará: Eduvem,
2025. Disponível em: https://eduvem.com/inteligencia-artificial-nem-inteligente-nem-artificial-segundo-miguel-nicolelis/ Acesso em 27 mar. 2025.
NUNES,
Luana Esteche. O controle algorítmico e o capitalismo de vigilância.
GEDAI - Grupo de Estudos em Direito Autoral e Industrial da UFPR, 2025.
Disponível em: https://gedai.ufpr.br/controle-algoritmico-e-liberdade-de-escolha-no-capitalismo-de-vigilancia/#:~:text=O%20controle%20algor%C3%ADtmico%20e%20o,qualquer%20oposi%C3%A7%C3%A3o%20efetiva%20pelo%20usu%C3%A1rio. Acesso em: 21 abr. 2025.
O Jogo
da Imitação. In: Wikipédia, a enciclopédia livre. Flórida:
Wikimedia Foundation, 2025. Disponível em: https://pt.wikipedia.org/wiki/O_Jogo_da_Imita%C3%A7%C3%A3o. Acesso em 24 mar. 2025.
O que
é a IA generativa? São
Paulo: IBM Brasil, 2024. Disponível em: https://www.ibm.com/br-pt/think/topics/generative-ai Acesso em: 06 abril 2025.
OLIVEIRA,
Cristina Godoy Bernardo de; BELOTTI, Emily Liene. O que a China revela e
alerta sobre o controle de algoritmos de IA. São Paulo: Migalhas, 2024. Disponível
em: https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-dados/417125/o-que-a-china-revela-e-alerta-sobre-o-controle-de-algoritmos-de-ia. Acesso em: 21
abr. 2025.
OPENAI. Faulty reward functions in the wild.
Califórnia: OpenAI. Disponível
em: https://openai.com/index/faulty-reward-functions/. Acesso em: 18 abr. 2025.
[1] ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO
(OCDE). AI principles. Paris: OCDE, 2024. Disponível em:
https://www.oecd.org/en/topics/ai-principles.html. Acesso em: 27 abr.
2025.
PEREIRA,
Ana Paula. Algoritmo: o que é, como funciona e quais suas aplicações?
Curitiba:TecMundo, 2024. Disponível em: TecMundo. Acesso em: 3 abr. 2025.
PERIN,
Mônica Azevedo Ribeiro. Inteligência Artificial: riscos reais e desafios a
serem desbravados. Jusbrasil, 2025. Disponível em: https://www.jusbrasil.com.br/artigos/inteligencia-artificial-riscos-reais-e-desafios-a-serem-desbravados/2918516603. Acesso em: 28 abr. 2025.
PONTIFÍCIA
UNIVERSIDADE CATÓLICA DO RIO GRANDE DO SUL. Inteligência Artificial, Ética,
Regulação e Proteção de Dados.. In: Aula do Curso de Pós-graduação
em Direito Digital e LGPD. Porto Alegre: Pontifícia Universidade Católica do
Rio Grande do Sul, 2024. E-book. Disponível em: https://l1nq.com/salavirtualpucrs-inteligenciaartificialeregulacao . Acesso em: 23 abr. 2025.
PROPUBLICA. In: Wikipédia, a enciclopédia
livre. Flórida: Wikimedia Foundation, 2025. Disponível em: https://pt.wikipedia.org/wiki/ProPublica. Acesso em: 29 abr. 2025.
PUCRS
Online. Algoritmos na Lei: O Guia Definitivo para Automação Jurídica.
Porto Alegre: Pontifícia Universidade Católica Do Rio Grande Do Sul. Disponível em: https://online.pucrs.br/blog/algoritmos-na-lei-automacao-juridica.
Acesso em: 08 abr. de 2025.
RIGUES,
Rafael. Mãe da internet: conheça a história da ARPANET. São Paulo: Olhar
Digital, 2019. Disponível em: https://olhardigital.com.br/2019/10/24/internet-e-redes-sociais/mae-da-internet-conheca-a-historia-da-arpanet/ . Acesso em: 30 mar. 2025.
RIVELLI,
Fabio. IA Act: um marco na regulação digital do mundo. São
Paulo: Migalhas, 2023. Disponível em:
https://www.migalhas.com.br/amp/coluna/ia-em-movimento/399199/ia-act-um-marco-na-regulacao-digital-do-mundo.
Acesso em: 27 abr. 2025.
SALDANHA,
J. L. Opacidade algorítmica e o sentido da vida, do universo e de tudo mais.
Blog Tripla, 2023. Disponível em: https://blog.tripla.com.br/opacidade-algoritmica/. Acesso em: 15 abr. 2025.
SILVA,
Paula Guedes Fernandes da; GARROTE, Marina Gonçalves. Insuficiência dos
princípios éticos para normatização da inteligência artificial: o antirracismo
e a anti-discriminação como vetores da regulação de IA no Brasil. São
Paulo: Data Privacy Brasil Research, 2025. Disponível em: https://www.dataprivacybr.org/documentos/insuficiencia-dos-principios-eticos-para-normatizacao-da-inteligencia-artificial-o-antirracismo-e-a-anti-discriminacao-como-vetores-da-regulacao-de-ia-no-brasil/. Acesso em: 24 abr. 2025.
SILVA,
Victor Hugo. Instagram e Facebook usam suas fotos e textos para treinar
IA: por que a prática está sendo
questionada? São Paulo: G1, 2024. Disponível em:
https://g1.globo.com/tecnologia/noticia/2024/07/01/instagram-e-facebook-usam-suas-fotos-e-textos-para-treinar-ia-por-que-a-pratica-esta-sendo-questionada.ghtml.
Acesso em: 23 abr. 2025.
SOLYD. Bug
bounty: o que é, como funciona e as principais plataformas. Solyd Blog,
2024. Disponível em: https://blog.solyd.com.br/bug-bounty-o-que-e-como-funciona-e-as-principais-plataformas/. Acesso em: 18 abr. 2025.
SUPREMO TRIBUNAL FEDERAL. Curso a distância: Aplicação da
Inteligência Artificial ao Direito. Brasília: Coordenadoria de
Desenvolvimento de Pessoas, 2020. Disponível em: ead.stf.jus.br. Acesso
restrito com login e senha em 24 mar. 2025.
THE INDEPENDENT. Louisiana
police facial recognition lawsuit. Londres: The Independent. Disponível em:
https://www.independent.co.uk/news/world/americas/crime/louisiana-police-facial-recognition-lawsuit-b2419085.html.
Acesso em: 29 abr. 2025.
TOOLIFY. A
Ascensão do Maximizador de Clipes de Papel: A Ameaça da Superinteligência
Artificial. Toolify, 2024. Disponível em https://www.toolify.ai/pt/ai-news-pt/a-ascenso-do-maximizador-de-clipes-de-papel-a-ameaa-da-superinteligncia-artificial-2352495. Acesso em: 19
abr. 2025.
UNESCO. Recommendation on the Ethics of
Artificial Intelligence. UNESCO,
2022. Disponível em: https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence.
Acesso em: 27 abr. 2025.
VALDATI,
Aline de Brittos. Inteligência artificial - IA. 1. ed. São Paulo:
Contentus, 2020. E-book. Disponível em: https://plataforma.bvirtual.com.br.
Acesso em: 26 mar. 2025.
VILALTA,
Lucas. É possível termos transparência de algoritmos para sistemas de
inteligência artificial? São Paulo: Jornal da USP, 2024. Disponível
em: https://jornal.usp.br/artigos/e-possivel-termos-transparencia-de-algoritmos-para-sistemas-de-inteligencia-artificial/. Acesso em: 22
abr. 2025.
What did john mccarthy define ai as? Tampere: GB Times. Disponível em:
https://gbtimes.com/what-did-john-mccarthy-define-ai-as/ . Acesso em: 22
mar. 2025.
ZUBOFF, Shoshana. Harvard professor says
surveillance capitalism is undermining democracy. Cambridge: Harvard Gazette, 2019.
Disponível em: https://news.harvard.edu/gazette/story/2019/03/harvard-professor-says-surveillance-capitalism-is-undermining-democracy/. Acesso em: 21 abr. 2025.
[1] LUGER, G. F. Inteligência artificial.
6. ed. São Paulo: Pearson, 2013. E-book. Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 23 mar. 2025.
[2] O Jogo da Imitação. In: Wikipédia, a enciclopédia livre. Flórida:
Wikimedia Foundation, 2025. Disponível em: https://pt.wikipedia.org/wiki/O_Jogo_da_Imita%C3%A7%C3%A3o. Acesso em: 24
mar. 2025.
[3] McCarthy, J.,
Minsky, M., Rochester, N., Shannon, CE. A Proposal for the Dartmouth
Summer Research Project on Artificial Intelligence. Disponível em: http://raysolomonoff.com/dartmouth/boxa/dart564props.pdf. Acesso em: 22 mar. 2025.
[4] ARPANET. In: Wikipédia, a
enciclopédia livre. Flórida: Wikimedia Foundation, 2025. Disponível em: https://pt.wikipedia.org/wiki/ARPANET. Acesso em: 30 mar. 2025.
[5] RIGUES, Rafael. Mãe da internet:
conheça a história da ARPANET. São Paulo: Olhar Digital, 2019. Disponível
em: https://olhardigital.com.br/2019/10/24/internet-e-redes-sociais/mae-da-internet-conheca-a-historia-da-arpanet/. Acesso em: 30
mar. 2025.
[6] Ibidem
[7] What did john mccarthy define ai as? Tampere: GB Times. Disponível em: https://gbtimes.com/what-did-john-mccarthy-define-ai-as/. Acesso em: 22 mar. 2025.
[8] VALDATI, Aline de Brittos.
Inteligência artificial - IA. 1. ed. São Paulo: Contentus, 2020. E-book.
Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 26 mar. 2025.
[9] NUNAN, Vladimir. Inteligência
Artificial: Nem Inteligente, Nem Artificial, Segundo Miguel Nicolelis. Ceará: Eduvem, 2025. Disponível em: https://eduvem.com/inteligencia-artificial-nem-inteligente-nem-artificial-segundo-miguel-nicolelis/. Acesso em 27 mar. 2025.
[10] Ibidem.
[11] Ibidem.
[12] KAUFMAN, Dora. Desmistificando a
inteligência artificial. 1. ed. São Paulo: Autêntica, 2022. E-book.
Disponível em: https://plataforma.bvirtual.com.br. Acesso em: 27 mar. 2025.
[13] BALDISSERA, Olívia. Os 3 tipos de
Inteligência Artificial. Curitiba: Pontifícia Universidade Católica do
Paraná. Disponível em: https://posdigital.pucpr.br/blog/tipos-de-inteligencia-artificial. Acesso em: 29 mar. 2025.
[14] Ibidem.
[15] DUARTE, Roberto Dias. Inteligência
Artificial Geral (AGI): Conceitos e Desafios. Belo Horizonte: RDD. Disponível em: https://www.robertodiasduarte.com.br/inteligencia-artificial-geral-agi-conceitos-e-desafios/#Introducao. Acesso em: 31 mar. 2025.
[16] GIANNINI, Alessandro. O que é Manus, a nova
inteligência artificial que promete fazer tudo. São Paulo: Revista Veja,
2025. Disponível em: https://veja.abril.com.br/tecnologia/o-que-e-manus-a-nova-inteligencia-artificial-que-promete-fazer-tudo/.
Acesso em: 30 abr. 2025.
[17] BARBOSA, Andressa. O que é a
superinteligência artificial? São Paulo: Forbes Brasil, 2023. Disponível em
https://forbes.com.br/forbes-tech/2023/06/o-que-e-a-superinteligencia-artificial/. Acesso em: 31 mar. 2025.
[18] Nick Bostrom. In: Wikipédia,
a enciclopédia livre. Flórida: Wikimedia Foundation, 2025. Disponível
em: Nick Bostrom – Wikipédia, a enciclopédia
livre. Acesso em: 01
abr. 2025.
[19] BOSTROM, Nick. Superinteligência:
caminhos, perigos, estratégias. [S.l.]: Teel Editorial, 2016. p. 115.
[20] COSTA, Mirla; PYRES, Leticia. Direto
ao ponto: o que é Machine Learning com exemplos reais. São Paulo: Alura,
2024.. Disponível em: O que é Machine Learning? | Alura. Acesso em: 03 abril 2025.
[21] MATOS, Felipe
Figueiredo. O que é a inteligência artificial, o que ela promete e quais são
os seus conflitos. São Paulo: Migalhas de Peso, 2025. Disponível em: https://www.migalhas.com.br/depeso/424078/o-que-e-a-ia-o-que-ela-promete-e-quais-sao-os-seus-conflitos. Acesso em: 22 mar.2025.
[22] PEREIRA, Ana Paula. Algoritmo:
o que é, como funciona e quais suas aplicações? Curitiba:TecMundo, 2024.
Disponível em: TecMundo. Acesso em: 3 abr. 2025.
[23] A diferença entre machine learning e
deep learning. Curitiba: Pontifícia Universidade Católica do Paraná
(PUCPR), 2023. Disponível em: https://posdigital.pucpr.br/blog/machine-learning-deep-learning.
Acesso em: 3 abr. 2025.
[24] COELHO, Taysa. Algoritmo. Portugal:
Significados, (s.d). Disponível em: Algoritmo: o que é, definição, exemplos e aplicações -
Significados. Acesso em: 04 de abril de 2025.
[25] O que é a IA generativa? São
Paulo: IBM Brasil, 2024. Disponível em: https://www.ibm.com/br-pt/think/topics/generative-ai . Acesso em: 06 abril 2025.
[26] Ibidem.
[27] COZMAN, Fabio Gagliardi; KAUFMAN, Dora.
Viés no aprendizado de máquina em sistemas de inteligência artificial: a
diversidade de origens e os caminhos de mitigação. São Paulo: Revista USP, n.
135, p. 195-210, out./nov./dez. 2022. Disponível em: https://www.revistas.usp.br/revusp/article/download/206235/189877/596954. Acesso em: 06 abr. 2025.
[28] GABRIEL FILHO, Oscar. Inteligência
artificial e aprendizagem de máquina: aspectos teóricos e aplicações.
1. ed. São Paulo, SP: Blucher, 2023. E-book. Disponível em:
https://plataforma.bvirtual.com.br. Acesso em: 06 abr. 2025.
[29] Ibidem.
[30] CONSELHO NACIONAL DE JUSTIÇA (Brasil). Resolução
n.º 332, de 21 de agosto de 2020. Define os parâmetros para o uso de
inteligência artificial no Poder Judiciário. Brasília, DF: CNJ, 2020.
Disponível em: https://atos.cnj.jus.br/atos/detalhar/3429. Acesso em: 09 abr.
2025.
[31] PUCRS Online. Algoritmos na Lei: O
Guia Definitivo para Automação Jurídica. Porto Alegre: Pontifícia
Universidade Católica Do Rio Grande Do Sul.
Disponível em: https://online.pucrs.br/blog/algoritmos-na-lei-automacao-juridica. Acesso em: 08 abr. de 2025.
[32] KAUFMAN, Dora. Proposta europeia de
regulamentação da IA: impressões preliminares. São Paulo: Época Negócios,
2021. Disponível em: https://epocanegocios.globo.com/colunas/IAgora/noticia/2021/04/proposta-europeia-de-regulamentacao-da-ia-impressoes-preliminares.html. Acesso em: 9 abr. 2025.
[33] CASTRO, D.J. Os impactos da IA como
tecnologia de propósito geral. Blumenau: Economia SC, 2024. Disponível em: https://economiasc.com/2024/04/02/os-impactos-da-ia-como-tecnologia-de-proposito-geral/. Acesso em: 9 abr. 2025.
[34] LIMA, Samuel. Defensoria Pública de
SP adota IA para agilizar rotina e defende paridade de armas com escritórios
privados. Rio de Janeiro: O Globo, 2025. Disponível em: https://oglobo.globo.com/brasil/noticia/2025/04/11/defensoria-publica-de-sp-adota-ia-para-agilizar-rotina-e-defende-paridade-de-armas-com-escritorios-privados.ghtml. Acesso em: 11 abr. 2025.
[35] BASSO, Douglas Eduardo. Big
data. Curitiba: Contentus, 2020. E-book. Disponível em: https://plataforma.bvirtual.com.br.
Acesso em: 10 abr. 2025.
[36] GONÇALVES, Mariana
Sbaite. Viés algorítmico e discriminação: IA pode amplificar vieses sociais.
São Paulo: Migalhas, 2024. Disponível em: https://www.migalhas.com.br/depeso/415125/vies-algoritmico-e-discriminacao-ia-pode-amplificar-vieses-sociais. Acesso em: 13 abr. 2025.
[37] ESCOLA DA MAGISTRATURA DO ESTADO DO RIO
DE JANEIRO (EMERJ). A utilização da Inteligência Artificial no contexto do
Poder Judiciário: riscos e desafios. Rio de Janeiro: Escola da Magistratura
do Estado do Rio de Janeiro, 2024. Disponível em: https://emerj.tjrj.jus.br/noticia/2032.
Acesso em: 10 abr. 2025.
[38] BIZZOTTO, Pedro Maia. Regulação de
opacidade algorítmica: a falta de transparência em decisões automatizadas
enquanto problema regulatório. Trabalho de Conclusão de Curso – FGV DIREITO
RIO, sob a orientação do professor(a) Nicolo Zingales, Rio de Janeiro: Fundação
Getúlio Vargas (FGV), 2023.
[39] SALDANHA, J. L. Opacidade
algorítmica e o sentido da vida, do universo e de tudo mais. Blog Tripla,
2023. Disponível em: https://blog.tripla.com.br/opacidade-algoritmica/. Acesso em: 15 abr. 2025.
[40] NISTAL, Matheus. Para
especialista, algoritmos opacos decidem sobre a vida das pessoas. São
Paulo: Instituto de Estudos Avançados da Universidade de São Paulo, 2023.
[41] BARROS FILHO, Clóvis de. A
ética no uso dos algoritmos. São Paulo: Espaço Ética, 2022.
Disponível em: https://espacoetica.com.br/etica-uso-dos-algoritmos/. Acesso
em: 18 abr. 2025.
[42] GABRIEL, Iason.
Artificial Intelligence, Values, and Alignment, v. 30, p. 411-437.
Berlim: Springer, 2020. Disponível
em:
https://www.researchgate.net/publication/345238301_Artificial_Intelligence_Values_and_Alignment.
Acesso em: 18 abr. 2025.
[43] Ibidem.
[44] SOLYD. Bug bounty: o que é, como
funciona e as principais plataformas. São Paulo: Solyd Blog, 2024. Disponível
em: https://blog.solyd.com.br/bug-bounty-o-que-e-como-funciona-e-as-principais-plataformas/. Acesso em: 18 abr. 2025.
[45] CLARK, Jack; AMODEI, Dario. Faulty reward functions in the
wild. Califórnia:
OpenAI, 2016. Disponível em: https://openai.com/index/faulty-reward-functions/. Acesso em: 18 abr. 2025.
[46] TOOLIFY. A Ascensão do Maximizador
de Clipes de Papel: A Ameaça da Superinteligência Artificial. Toolify,
2024. Disponível em https://www.toolify.ai/pt/ai-news-pt/a-ascenso-do-maximizador-de-clipes-de-papel-a-ameaa-da-superinteligncia-artificial-2352495. Acesso em: 19 abr. 2025.
[47] NANDA, Arun. Superalignment. Nova
Iorque: DataCamp, 2024. Disponível em: https://www.datacamp.com/pt/blog/superalignment. Acesso em: 19
abr. 2025.
[48] ZUBOFF,
Shoshana. Harvard professor says surveillance capitalism is undermining
democracy. Cambridge:
Harvard Gazette, 2019. Disponível em: https://news.harvard.edu/gazette/story/2019/03/harvard-professor-says-surveillance-capitalism-is-undermining-democracy/. Acesso em: 21 abr. 2025.
[49] NUNES, Luana
Esteche. O controle algorítmico e o capitalismo de vigilância. Curitiba:
GEDAI - Grupo de Estudos em Direito Autoral e Industrial da UFPR, 2025.
Disponível em: https://gedai.ufpr.br/controle-algoritmico-e-liberdade-de-escolha-no-capitalismo-de-vigilancia/#:~:text=O%20controle%20algor%C3%ADtmico%20e%20o,qualquer%20oposi%C3%A7%C3%A3o%20efetiva%20pelo%20usu%C3%A1rio. Acesso em: 21 abr. 2025.
[50] OLIVEIRA, Cristina Godoy Bernardo de;
BELOTTI, Emily Liene. O que a China revela e alerta sobre o controle de
algoritmos de IA. São Paulo: Migalhas, 2024. Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-dados/417125/o-que-a-china-revela-e-alerta-sobre-o-controle-de-algoritmos-de-ia. Acesso em: 21 abr. 2025.
[51] NEGRI, Sergio Marcos Carvalho de Ávila;
GIOVANIN, Carolina Fiorini Ramos. Leis da robótica: da ficção de Isaac
Asimov ao debate sobre sistemas de inteligência artificial. Brasília: Revista
do Tribunal Regional Federal da Primeira Região, 2021. Disponível em: https://revista.trf1.jus.br/trf1/article/view/488/355. Acesso em: 21 abr. 2025.
[52] VILALTA, Lucas. É possível termos
transparência de algoritmos para sistemas de inteligência artificial? São
Paulo: Jornal da USP, 2024. Disponível em: https://jornal.usp.br/artigos/e-possivel-termos-transparencia-de-algoritmos-para-sistemas-de-inteligencia-artificial/. Acesso em: 22 abr. 2025.
[53] PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO
GRANDE DO SUL. Inteligência Artificial, Ética, Regulação e Proteção de
Dados.. In: Aula do Curso de Pós-graduação em Direito Digital e
LGPD. Porto Alegre: Pontifícia Universidade Católica do Rio Grande do Sul,
2024. E-book. Disponível em: https://l1nq.com/salavirtualpucrs-inteligenciaartificialeregulacao . Acesso em: 23 abr. 2025.
[54] SILVA, Victor Hugo. Instagram e
Facebook usam suas fotos e textos para treinar IA: por que a prática está sendo questionada? São
Paulo: G1, 2024. Disponível em:
https://g1.globo.com/tecnologia/noticia/2024/07/01/instagram-e-facebook-usam-suas-fotos-e-textos-para-treinar-ia-por-que-a-pratica-esta-sendo-questionada.ghtml.
Acesso em: 23 abr. 2025.
[55] ORGANIZAÇÃO PARA A COOPERAÇÃO E
DESENVOLVIMENTO ECONÔMICO (OCDE). AI principles. Paris: OCDE,
2024. Disponível em: https://www.oecd.org/en/topics/ai-principles.html. Acesso
em: 27 abr. 2025.
[56] SILVA, Paula Guedes Fernandes da;
GARROTE, Marina Gonçalves. Insuficiência dos princípios éticos para
normatização da inteligência artificial: o antirracismo e a
anti-discriminação como vetores da regulação de IA no Brasil. São Paulo: Data
Privacy Brasil Research, 2025. Disponível em: https://www.dataprivacybr.org/documentos/insuficiencia-dos-principios-eticos-para-normatizacao-da-inteligencia-artificial-o-antirracismo-e-a-anti-discriminacao-como-vetores-da-regulacao-de-ia-no-brasil/. Acesso em: 24 abr. 2025.
[57] ORGANIZAÇÃO PARA A COOPERAÇÃO E
DESENVOLVIMENTO ECONÔMICO (OCDE), op.cit.
[58] PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO
GRANDE DO SUL, op.cit.
[59] COMISSÃO EUROPEIA. AI Act enters into force on August 1, 2024.
Bruxelas: European
Commission, 2024. Disponível em:
https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_pt. Acesso em:
27 abr. 2025.
[60] RIVELLI, Fabio. IA Act: um marco
na regulação digital do mundo. São Paulo: Migalhas, 2023. Disponível
em:
https://www.migalhas.com.br/amp/coluna/ia-em-movimento/399199/ia-act-um-marco-na-regulacao-digital-do-mundo.
Acesso em: 27 abr. 2025.
[61] KRANTZ, Tom; JONKER, Alexandra. Blueprint for an AI Bill of
Rights. São
Paulo: IBM Brasil, 2023. Disponível em:
https://www.ibm.com/br-pt/think/topics/ai-bill-of-rights. Acesso em: 27 abr.
2025.
[62] HEDA, Laura. China avança na
regulamentação da inteligência artificial. São Paulo: CNN Brasil, 2023.
Disponível em:
https://www.cnnbrasil.com.br/tecnologia/china-avanca-na-regulamentacao-da-inteligencia-artificial/.
Acesso em: 27 abr. 2025.
[63] UNESCO. Recommendation
on the Ethics of Artificial Intelligence. UNESCO, 2022. Disponível em:
https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence.
Acesso em: 27 abr. 2025.
[64] ESTADÃO CONTEÚDO. Japão apresenta
código de conduta internacional de regulamentação de IA. São Paulo: Revista
Exame, 2024. Disponível em: https://exame.com/inteligencia-artificial/japao-apresenta-codigo-de-conduta-internacional-de-regulamentacao-de-ia/. Acesso em: 27 abr. 2025.
[65] BRASIL. Lei nº 12.527, de 18 de
novembro de 2011. Regula o acesso a informações públicas. Brasília: Presidência
da República, 2011. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2011/lei/l12527.htm. Acesso em: 28 abr. 2025.
[66] BRASIL. Lei nº 12.965, de 23 de abril
de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da
Internet no Brasil. Brasília: Presidência da República, 2014. Disponível
em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm.
Acesso em: 28 abr. 2025.
[67] BRASIL. Lei nº 13.709, de 14 de agosto
de 2018. Dispõe sobre a proteção de dados pessoais e altera a Lei nº 12.965,
de 23 de abril de 2014 (Marco Civil da Internet). Brasília: Presidência da
República, 2018. Disponível em:
https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso
em: 28 abr. 2025.
[68] BRASIL. Câmara dos Deputados. Projeto
de Lei nº 21, de 2020. Estabelece fundamentos, princípios e diretrizes para o
desenvolvimento e a aplicação da inteligência artificial no Brasil. Brasília:
Câmara dos Deputados, 2020. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2236340. Acesso em: 27 abr. 2025.
[69] BRASIL. Senado Federal. PL
2.338/2023 – Regulamentação da Inteligência Artificial. Senado Federal,
2024. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/151547. Acesso em: 27 abr. 2025.
[70] Ibidem.
[71] PERIN, Mônica Azevedo Ribeiro. Inteligência
Artificial: riscos reais e desafios a serem desbravados. Jusbrasil, 2025.
Disponível em: https://www.jusbrasil.com.br/artigos/inteligencia-artificial-riscos-reais-e-desafios-a-serem-desbravados/2918516603. Acesso em: 28 abr. 2025.
[72] SUPREMO TRIBUNAL FEDERAL. Curso a distância: Aplicação
da Inteligência Artificial ao Direito. Brasília: Coordenadoria de
Desenvolvimento de Pessoas, 2020. Disponível em: ead.stf.jus.br. Acesso
restrito com login e senha em 24 mar. 2025.
[73] HAAS, Guilherme. Vazamento revela
segredos do algoritmo de busca do Google. Canaltech, 28 maio 2024.
Disponível em: https://canaltech.com.br/internet/vazamento-revela-segredos-do-algoritmo-de-busca-do-google-290911/. Acesso em: 28
abr. 2025.
[74] ANGWIN, Julia;
LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. How We Analyzed the COMPAS
Recidivism Algorithm. Nova
Iorque: ProPublica, 2016. Disponível em: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm . Acesso em: 28 abr. 2025.
[75] PROPUBLICA. In: Wikipédia,
a enciclopédia livre. Flórida: Wikimedia Foundation, 2025. Disponível em: https://pt.wikipedia.org/wiki/ProPublica. Acesso em: 29 abr. 2025.
[76] PERIN, op cit.
[77] EL PAÍS BRASIL. O uso da tecnologia
no policiamento preditivo. Madrid: El País, 2017. Disponível em: https://brasil.elpais.com/brasil/2017/03/09/tecnologia/1489078250_691655.html. Acesso em: 29
abr. 2025.
[78] Ibidem.
[79] THE INDEPENDENT. Louisiana
police facial recognition lawsuit. Londres: The Independent. Disponível em:
https://www.independent.co.uk/news/world/americas/crime/louisiana-police-facial-recognition-lawsuit-b2419085.html.
Acesso em: 29 abr. 2025.


Comentários
Postar um comentário