N.º 36 - dezembro 2024
João Pedroso
FUNÇÕES: Concetualização, Investigação, Redação do rascunho original, Redação — revisão e edição
AFILIAÇÃO: Faculdade de Economia e Centro de Estudos Sociais da Universidade de Coimbra. Av. Dr. Dias da Silva, 165, 3004-512 Coimbra, Portugal
E-mail: jpedroso@fe.uc.pt | ORCID: https://orcid.org/0000-0001-8956-2250
Wanda Capeller
FUNÇÕES: Concetualização, Investigação, Redação do rascunho original, Redação — revisão e edição
AFILIAÇÃO: Science PO Toulouse. 31000 Toulouse, France & Centro de Estudos Sociais da Universidade de Coimbra. 3000-995 Coimbra, Portugal
E-mail: wcapeller@orange.fr | ORCID: https://orcid.org/0000-0003-4421-5487
Andreia Santos
FUNÇÕES: Concetualização, Investigação, Redação do rascunho original, Redação — revisão e edição
AFILIAÇÃO: Investigadora independente. 3030-250 Coimbra, Portugal
E-mail: andreiasant1@hotmail.com | ORCID: https://orcid.org/0000-0003-2569-6991
Resumo: O uso de novas tecnologias e o potencial da digitalização, com o recurso à inteligência artificial (IA), tem demonstrado um grande impacto no direito e na administração da justiça. O recurso à IA e a integração no campo do direito e dos tribunais de lógicas algorítmicas, instrumentais e funcionais, diferentes das racionalidades jurídicas, veio estabelecer uma nova gramática jurídica que modifica o ethos e a atitude dos atores judiciais. É nesta perspetiva de mutação — continuidades, ruturas, oportunidades e riscos — que se analisa o impacto da IA em dois campos: o ontológico-ético-jurídico e o da democracia, Estado de Direito e direitos fundamentais. No primeiro, observa-se como a racionalidade algorítmica da IA desafia a lógica simbólica do direito e da justiça e os seus princípios éticos. No segundo, destaca-se o seu efeito sobre os princípios e pilares democráticos assente na ótica dos direitos fundamentais, nas suas dimensões de “direitos, liberdades e garantias” e “dos direitos sociais e económicos”, isto é, numa lógica de análise que questiona como a IA interfere no funcionamento do Estado de Direito e da soberania política como, também, mantém ou intensifica, nas sociedades, as desigualdades socioeconómicas. Daqui resulta um contributo para a construção de uma Sociologia Política do Direito, Justiça e IA que permita compreender a emergência destes novos campos de tensão, onde se combinam novas racionalidades e temporalidades, contribuindo para o fortalecimento dos princípios de um Estado de Direito Democrático.
Palavras-chave: inteligência artificial, Estado de Direito democrático, Sociologia Política do Direito, Justiça e IA.
Abstract: The use of new technologies and the potential of digitalization, with the application of artificial intelligence (AI), has shown a great impact on law and the administration of justice. The use of AI and the integration of algorithmic, instrumental, and functional logics — distinct from legal rationalities — into in the field law and in courts has established a new legal grammar that modifies the ethos and attitude of judicial actors. It is from this perspective of transformation — continuities, ruptures, opportunities, and risks — that this article analyses the impact of AI in two domains: the ontological-ethical-legal domain; and the domain of democracy, the rule of law and fundamental rights. In the first, it is observed how the algorithmic rationality of AI challenges the symbolic logic of law and justice as well as its ethical principles. In the second domain, its effects on the democratic principles and pillars is emphasized, focusing on fundamental rights, in their dimensions of “rights, freedoms and guarantees” and “social and economic rights”, questioning how AI interferes with the functioning of the rule of law and political sovereignty while also maintaining or intensifying socioeconomic inequalities in societies. This results in a contribution to the construction of a Political Sociology of Law, Justice and AI enabling an understanding of the emergence of these new fields of tension, where new rationalities and temporalities combine, thereby contributing to the strengthening of the principles of a Democratic Rule of Law.
Keywords: artificial intelligence, democratic rule of law, Political Sociology of Law, Justice and AI.
Introdução
O uso de novas tecnologias, o avanço da digitalização e o recurso à inteligência artificial (IA)[1] tem, no presente momento, uma especial relevância sócio-política-jurídica nas mutações do direito e da administração justiça. Com a chegada da “era da inteligência artificial” novas problemáticas e questões vieram inquietar as ciências sociais do direito e da justiça que procuram apreender as continuidades e descontinuidades instauradas neste campo de saber-ação. As racionalidades das tecnologias ampliadas de modo disruptivo pela IA estão a alterar as lógicas tradicionais de comunicação e ação social, tais como as lógicas comunicativas (com a abolição das fronteiras entre o presencial e o virtual); as lógicas do agir ontológico e social (com o surgimento de outras formas de sociabilidade e relacionamentos humanos); as lógicas institucionais (que levam a relações sociais objetivantes e dessubjetivantes); e, especificamente, as lógicas judiciais (que confrontam as lógicas cognitivas instrumentais com as lógicas cognitivas ético-morais).
Do ponto de vista epistemológico, apesar da pressão sofrida pela intensa evolução da IA, a sociologia do direito e da justiça continua sob a epistemologia dominante centrada no gap entre o “law in books” e o “law in action”, as lacunas legais, o direito que existe e a emergência do direito, que deverá existir, e sua relação com a sociedade. De fora desta análise ficam as dimensões substantivas da ética, da responsabilidade, e das tensões, contradições e paradoxos que emergem da nova dialética entre IA, direito e administração da justiça.
Assim, a nossa proposta pretende construir uma epistemologia sem fronteiras, assinalando os diversos “campos de tensão” onde se cruzam racionalidades instrumentais (interesses pragmáticos, quantitativos, e lógicas comerciais) com as racionalidades dos valores, da humanidade, da democracia e do Estado de Direito. Nesta transição paradigmática situa-se a Sociologia Política do Direito, Justiça e IA, para a qual este artigo pretende ser um contributo. O desenvolvimento desta teoria crítica das relações da IA, com o direito e a justiça, busca explorar as novas potencialidades conceptuais da sociologia de viés construtivista (Giddens, 1984), reconsiderando os conceitos quando incluídos no cenário tecnológico, de dispositivos estruturantes, de confiança, de espaço público, de campo, de habitus, de dualidade estrutural, de cognitivismo judicial virtual prático, de modos de produção de direito, de linhas abissais, etc.
É sob a perspetiva da mutação — ruturas e continuidades, potencialidades e riscos — que se analisa, neste artigo, o impacto da IA no direito e na administração da justiça, a partir das tensões que se estabelecem, em dois campos: o ontológico-ético-jurídico; e o da democracia, do Estado de Direito e dos direitos fundamentais. Estes campos de tensão não são homogéneos e devem ser observados nas suas fragmentações, desigualdades e conflitos internos e externos, bem como na sua interpenetração e análise de uma mesma realidade social. E, ainda, nas suas diferentes temporalidades e funcionalidades, na qual se refletem as tensões transescalares inerentes à geopolítica da produção e de poder da IA, nos EUA e na China, bem como, em eventual contraponto, a emergência da sua regulação na União Europeia (UE). Neste artigo não nos detemos numa análise da difusão global e multidimensional da IA centrada nos objetivos estratégicos da revolução algorítmica e na sua capacidade concorrencial nos espaços (reais e virtuais) da economia e política mundial. Optamos por considerar as escalas locais, analisando o Direito e a Justiça como elementos co-constitutivos da ação do Estado e da Sociedade, confrontados com a emergência de tensões, contradições e paradoxos inerentes às dialéticas das suas relações com a IA.
No campo de análise ontológico-ético-jurídico observa-se como a racionalidade algorítmica da IA desafia a lógica simbólica do direito e da justiça e os seus princípios éticos, constituindo uma nova gramática jurídica e judicial que modifica o ethos e a atitude dos atores judiciais. As novas tensões e paradoxos que surgem desta interação do direito e da justiça com a IA, contrapõem: ética vs. algoritmização; racionalidades instrumentais vs. racionalidades de valores; ordem jurídica vs. ordem tecnológica; funcionalização vs. simbolização do direito e da justiça.
No segundo campo de análise destaca-se o efeito da IA sobre os pilares democráticos, assente tanto sob a ótica dos direitos fundamentais, seja na dimensão liberal dos direitos, liberdades e garantias, seja na dimensão dos direitos sociais e económicos. Observa-se, assim, como a IA, por um lado, está a interferir no exercício da soberania política e no funcionamento da democracia e do Estado de Direito, e, por outro, pode reproduzir, ou acentuar, as desigualdades socioeconómicas. Salientamos entre estas tensões: escolha democrática vs. desinformação; liberdade vs. controlo social; privacidade vs. vigilância; igualdade vs. discriminação; acessibilidade vs. desigualdade social; democracia de alta deferência vs. democracia de baixa deferência.
A construção de uma Sociologia Política do Direito, Justiça e IA, como a que propomos, permite aprofundar o conhecimento sócio-político-jurídico sobre os referidos campos de tensão, onde se combinam as novas racionalidades e temporalidades, e intervir, de uma forma informada, designadamente na reflexão promovida pelo Conselho da Europa e pela União Europeia sobre a necessidade da regulação política, ética e jurídica da IA.
IA e Justiça em mutação — continuidades, racionalidades, ruturas, potencialidades e riscos
O direito e a administração da justiça têm estado sujeitos a uma transformação acelerada, pelo que os estudos sobre a política pública e as reformas da administração da justiça, nas últimas décadas, têm focado inevitavelmente a questão da inovação tecnológica (Pedroso, 2002, 2006). Desde o final do século XX, as novas tecnologias de informação e comunicação apresentam um enorme potencial de transformação do sistema judicial, tanto na administração e gestão da justiça, na transformação do exercício das profissões jurídicas, como na democratização do acesso ao direito e à justiça (Santos, 2005).
O recurso dos Tribunais às tecnologias de informação remonta aos anos 1980 e 1990 (Fabri & Contini, 2001). Trata-se, portanto, de um processo contínuo, o qual, num primeiro momento, assentou sobre os sistemas de gestão processual, gestão documental e de apoio às atividades administrativas (Reiling, 2009). Depois, evoluiu para sítios da internet, aperfeiçoamento das estatísticas, e substituição dos autos físicos pelo processo eletrónico (Reiling, 2009). Atualmente, a mudança assenta sobre o potencial da digitalização, a qual está a ser consideravelmente ampliada pelos avanços da IA. Logo, o funcionamento dos Tribunais, enquanto organizações que recebem e produzem um grande volume de informação, será alvo de uma enorme transformação face ao trabalho que têm de realizar (Reiling, 2020).
A IA permitiu a melhoria da prestação de serviços da administração da justiça (Contini, 2020; Wallace, 2017), bem como mensurações sofisticadas sobre a sua efetividade (Reiling, 2009). E, possibilitou importantes avanços na redução da morosidade, na mitigação do congestionamento judicial, no incremento do acesso à justiça e na promoção da integridade do sistema judicial (Donoghue, 2017). O seu impacto na gestão judicial e ampliação do acesso à justiça tem operado uma transformação da organização e gestão nos Tribunais através da reengenharia de procedimentos e processos de trabalho, modificando a natureza do trabalho, reconfigurando as profissões jurídicas e a prestação do serviço público de Justiça (Pedroso, 2021; Sourdin, 2018).
A recente crise sanitária despontada pela pandemia da covid-19, em 2020, serviu como catalisador do uso da IA, com os tribunais a verem-se forçados a prestar os seus serviços quase exclusivamente online. A título de exemplo, a resolução alternativa de litígios online — “Online Dispute Resolution” (ODR) — veio facilitar o acesso ao direito e à justiça, criando uma interface com base em ferramentas de IA para auxiliar e orientar os utilizadores durante o processo (Thompson, 2015).
As ferramentas de IA podem, assim, ser utilizadas no sistema de justiça com diversas finalidades na área da gestão judicial (triagem de processos; transcrição de voz para textos com contexto; geração semiautomática de peças; entre outras), acesso ao direito e à justiça (resolução de disputas online, disponibilização de informação em diferentes plataformas, etc.), auxílio à decisão judicial (busca de jurisprudência avançada, agrupamento por similaridade de jurisprudência, etc.) e na segurança pública e investigação criminal (câmaras de vigilância, novos meios de obtenção de prova, etc.).
A par dos seus benefícios, a IA coloca, também, novos desafios à esfera da administração da justiça. O direito, a cultura e a racionalidade jurídica dos valores, dos princípios orientadores e de uma ética do sentido da justiça estão a ser confrontadas com as racionalidades instrumentais, práticas e binárias da IA (Capeller & Bruch, 2020). Num primeiro momento, a tecnologia foi encarada como “apoio”, rapidamente se alterou para “tecnologia de substituição”, dando lugar à “tecnologia disruptiva”, mudando a forma como os juízes trabalham. Daí resulta uma forma diferente de administração da justiça, em particular, onde os processos se alteram significativamente e a análise preditiva pode mesmo reformular o papel da litigação (cf. Sourdin, 2018).
As profissões jurídicas estão inevitavelmente em mutação, dado que convivem num contexto de contínuas inovações tecnológicas, com recurso à IA, exigindo constante atualização e aprendizagem sobre ferramentas, plataformas e softwares (Andrade et al., 2020). A transformação das profissões jurídicas depara-se com o efeito da IA na alienação do direito enquanto “processo da litigação”, passando para o domínio dos técnicos especialistas (Re & Solow-Niederman, 2019). A IA ao oferecer eficiência e uma aparente imparcialidade, transforma a litigação em “justiça codificada”, isto é, um paradigma que favorece a padronização ao invés da discricionariedade (Re & Solow-Niederman, 2019). Nesta área cinzenta entre o direito e a técnica/ciência, tanto os advogados como os juízes, para além do conhecimento jurídico, terão de adicionar uma competência técnica, o que coloca também questões quanto à formação jurídica e seu conteúdo (Deeks, 2019; Lupo, 2019).
No que diz respeito aos juízes, a sua função é complexa, englobando a interação com as pessoas, a resolução de disputas e a sua função adjudicativa. A influência da IA na mutação das suas funções deve ser abordada com a máxima atenção (Sourdin, 2018), pois interfere na aplicação do direito sob a forma das decisões judiciais (Contini, 2020; Reiling, 2020).
Também certos procedimentos, como o ODR, podem resultar numa instrumentalização dos juízes humanos através do desincentivo à litigação. E o mesmo acontece com os advogados, dado que a IA na administração da justiça — destinada a reduzir o tempo, os custos e a complexidade dos procedimentos legais — reduz a necessidade de os litigantes recorrerem a um advogado (Susskind, 2017).
Recentemente, e na ótica do acesso, o direito e a justiça têm sido fortemente atingidos pelas novas tecnologias de modelização da linguagem, tal como o ChatGPT. Criado para otimizar o diálogo humano-máquina, este sistema constitui uma poderosa ferramenta que surpreende pela sua naturalidade, apresentando, segundo alguns, vantagens (rapidez e versatilidade na obtenção de respostas) e desvantagens (problemas de lógica, problemas de conhecimento e de limitação nas respostas)[2]. Os sistemas Justice apps, já há muito utilizados, dão lugar a novas linguagens e práticas judiciais baseadas em aplicativos web para uso em telemóveis que, ao prestar serviços legais podem produzir efeitos negativos na sua interpretação. Se, por um lado, o uso desses serviços democratiza o acesso ao direito, podem, por outro lado, desvalorizar simbolicamente as instituições jurídicas. Para além disso, estamos diante de um novo paradoxo: maior acessibilidade aos serviços jurídicos, menor igualdade perante a justiça. Se a e-justiça serve à promoção do acesso aos sistemas judiciais, virtualmente instituindo uma democratização por baixo da justiça, ela não impede a permanência de desigualdades através de uma “divisão digital”, entre pessoas que têm acesso a computadores e internet, e aquelas que não dispõem desses dispositivos técnicos para aceder aos serviços jurídicos (Sourdin et al., 2021).
É sob a ótica destas mutações que se impõe, assim, o estudo das tensões da relação entre IA, Direito e Justiça — como variáveis independentes e dependentes — nos campos de análise ontológico-ético-jurídico e da democracia, do Estado de Direito e dos direitos fundamentais, bem como da emergência, capacidade e vontade regulatória da IA, pela ética e pelo direito.
O campo ontológico-ético-jurídico
A referida análise das mutações, em curso, na administração da Justiça permite-nos concluir que o impacto da tecnologia algorítmica no campo jurídico pode acirrar os efeitos de apriorização, de neutralização e de universalização (Bourdieu, 1989; Capeller, 2021): o primeiro sendo inerente às próprias lógicas do funcionamento deste campo devido à natureza performativa da linguagem jurídica; o segundo resulta da predominância das formas de construção passiva, determinantes da impessoalidade da enunciação normativa; e o terceiro decorre da intemporalidade das regras do direito. É justamente a (re)afirmação desses efeitos que nos conduziu a revisitar a problemática weberiana das diferentes racionalidades que constituem o direito e determinam os horizontes do sentido da justiça.
Se, em geral, os profissionais liberais do direito veem com bons olhos novas técnicas com base na IA, não se deve ignorar que estas novas formas de cognição e prática jurídico-judiciais podem levar à desumanização da justiça. Acresce, que o trabalho judicial virtual e a extrema funcionalização do exercício do poder judicial leva ao aniquilamento da função simbólica clássica da justiça, à desumanização do processo de análise e decisão, ao aumento das probabilidades de erro e ao prejuízo da partilha de informação.
A racionalidade algorítmica da IA desafia, portanto, a lógica simbólica do direito e da justiça e os seus princípios éticos. Inevitavelmente, a par com as suas potencialidades, o recurso a novas tecnologias como a IA, traz consigo riscos associados como sejam os preconceitos sociais e aumento da assimetria de informação entre os produtores de dados e os que detêm esses mesmos dados (Larsson, 2019). A questão de fundo é que a desumanização dos processos jurídicos pode conduzir à violação das normas éticas e do direito.
A questão ética diz, assim, respeito à empregabilidade de algoritmos no sector da justiça, e coloca-nos, sobretudo, quatro questões: i) a transparência processual; ii) os riscos de discriminação; iii) a independência dos juízes, e; iv) a accountability dos sistemas, as quais se encontram intrinsecamente relacionadas.
Quanto à i) transparência processual, esta refere-se à opacidade dos algoritmos (“black box”), relacionada com a transparência dos dados. A denominação de “caixa negra” advém do facto do processo efetuado não tornar clara a forma como os resultados foram alcançados através da programação com algoritmos (Wisser, 2019).
Muitas vezes, a arquitetura dos sistemas de IA não permite conhecer, nem mesmo aos programadores que os criaram, o processo de operação dos dados subjacente à interpretação que fazem e como chegam ao produto/decisão final. Ora, os sistemas de IA devem ser explicáveis, interpretáveis e transparentes. E o mesmo se pode dizer acerca da seleção dos próprios dados, cuja escolha pode interferir no processo de análise de modo negativo (cf. Nunes & Marques, 2018). Ao receber os inputs, resultado das escolhas feitas pelo programador, os algoritmos fazem operações que são desconhecidas do seu programador, uma vez que são utilizadas regras, informações e análises probabilísticas, para além da capacidade humana de compreensão, ou seja, existem “pontos cegos” dos algoritmos que não devem ser desconsiderados quando se está diante da resposta apresentada (Brito & Fernandes, 2020).
Aliada à questão da transparência, surgem os ii) “vieses algorítmicos”, isto é, os riscos associados à reprodução de discriminações inculcadas nos dados por parte do próprio programador, realçando a necessidade de parâmetros éticos e legais (Re & Solow-Niederman, 2019; Završnik, 2020).
A IA reflete as opções éticas daqueles que a programam e alimentam o banco de dados, e que servem de base aos resultados ou decisões. Tal significa que não existe neutralidade nas bases de dados e nos algoritmos, uma vez que os seus criadores transferem os seus próprios valores para os algoritmos e para o machine learning.
A IA dá origem a uma forma de “justiça preditiva”, através da “definição de perfis pessoais discriminadores”. Por um lado, a predição consiste no uso de dados anteriores, algoritmos estatísticos e técnicas de machine learning para identificar a probabilidade de resultados futuros (Godefroy et al., 2019). Por outro lado, o uso da IA em programas na área criminal, com a utilização de algoritmos para traçar o perfil dos indivíduos alegadamente delinquentes — como o programa COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), nos Estados Unidos, e o programa HART (Harm Assessment Risk Tool), no Reino Unido — é criticado devido às limitações da metodologia utilizada, pois constituem uma abordagem estatística de uma amostra de dados enviesada, que conduz a um resultado de discriminação negativa de certos indivíduos e grupos (Reiling, 2020).
Segundo Završnik (2020, p. 575), os princípios da igualdade e discriminação estão em questão com o “over-policing” derivado de programas de “justiça preditiva”. A polícia patrulha áreas com maior taxa de crimes, o que por sua vez amplia a necessidade de policiamento de áreas já policiadas. No mesmo sentido, as decisões com base nos sistemas de IA colidem com direitos fundamentais, como a presunção de inocência. A nova linguagem da matemática define novas categorias como “pessoa de interesse”, e redireciona as atividades das instituições que aplicam o direito para indivíduos ainda não considerados “suspeitos” pelas normas do processo penal.
Assim, numa possibilidade de “justiça disruptiva”, a IA permite, no futuro, que os algoritmos substituam os humanos (juízes) nas decisões judiciais, o que questiona a independência do “Poder Judicial”, a transparência na elaboração das decisões e a quantidade de informação e dos dados processados poder conduzir a resultados discriminatórios (Sourdin, 2017). Tal está diretamente relacionado com a iii) independência dos juízes e os potenciais problemas com a deferência computorizada automática quanto às decisões, uma vez que as decisões modeladas pela IA podem parecer desproporcionalmente mais neutras, objetivas e rigorosas, daquilo que realmente são. Os juízes podem, portanto, decidir com base numa falsa precisão e aparente fundamentação, falhando ao não considerar os limites do próprio modelo, as incertezas envolvidas e as decisões subjetivas que contribuíram para criação do modelo (Surden, 2019).
Segundo Francesco Contini (2020, p. 13), a expressão “justiça preditiva” é enganadoramente perigosa. Tais sistemas fazem previsões ou prognósticos, mas estão longe de elaborar decisões judiciais. As decisões judiciais exigem, como padrão mínimo, fundamentação baseada na avaliação dos factos relevantes e do direito aplicável. Na prática, os sistemas de IA só fazem correlações estatísticas entre os dados. Em seguida, tais informações são resumidas e entregues ao juiz para dar “suporte” às suas decisões. A decisão permanece com o juiz, mas pode ser difícil para o juiz resistir a essas sugestões “desinteressadas” e “baseadas na ciência”.
As “sugestões” de sistemas inescrutáveis tornam-se influências indevidas na tomada de decisões judiciais, afetando a independência do poder judicial (Contini, 2020). As dinâmicas entre a aplicação do direito e as novas tecnologias, com recurso à IA, substituem já o juiz no processo, uma vez que, por exemplo, com as plataformas de justiça eletrónica, quem cria, desenvolve ou controla o software são os intérpretes do direito processual. A transformação digital está a colocar em risco a discricionariedade judicial, a independência e, em última análise, o julgamento justo, podendo tornar-se uma questão institucional e constitucional (Contini & Reiling, 2022).
Subjacentes a todas estas questões, acresce o tema da iv) accountability, cujo tema convoca a temática sobre a segurança dos sistemas de IA e a forma como se assumem como tal (Martins, 2021). Ettekoven e Prins (2018) assinalam as questões do uso de dados pessoais existentes no sistema judiciário — no que diz respeito à privacidade e proteção de dados pessoais — a propriedade dos algoritmos e, ainda, a segurança da informação e integridade de dados e sistemas. O problema estende-se, ainda, não só ao conteúdo do litígio que envolve divergência na aplicação do direito fundamental, mas também às próprias formalidades do julgamento. Há consistentes debates sobre os limites criados pela IA de acesso ao contraditório, à ampla defesa, e ao recurso, sobretudo, na esfera criminal (Martins, 2021).
O campo da democracia, do Estado de Direito e dos direitos fundamentais
O desenvolvimento da IA está também a questionar, para além da ética e do direito, os valores democráticos, colocando em risco a livre escolha e formação de opinião, as liberdades individuais e perpetuando as desigualdades sociais. Neste tópico discute-se o seu impacto através da ótica dos direitos fundamentais, nas suas dimensões dos “direitos, liberdades e garantias”, e “dos direitos sociais, económicos e culturais”, destacando alguns dos principais desafios colocados à democracia e aos seus princípios.
Ótica dos direitos fundamentais — Estado de Direito, desinformação e vigilância
A IA e os seus algoritmos influenciam a democracia de forma direta e indireta. De uma forma sinótica, podem identificar-se as seguintes principais áreas nas quais a IA desestabiliza o sistema democrático: desinformação e manipulação de dados; influência do poder financeiro e político na economia de dados; perda de privacidade; tecnologia persuasiva e dependência das redes sociais; erosão dos direitos civis através de vieses algorítmicos; vigilância em massa e reforço do autoritarismo; automação na competitividade relativa ao funcionamento da democracia (cf. Körner, 2019). No ponto anterior já analisámos a questão dos vieses algorítmicos. Optaremos, agora, por refletir sobre os temas da desinformação e manipulação de dados, privacidade e vigilância.
Quanto à desinformação, o recurso à IA tornou-se bastante presente pela sua capacidade de interferir na integridade das eleições democráticas, seja através da desinformação, como da manipulação de dados, ambas com o objetivo de influenciar a opinião pública e desacreditar os candidatos políticos em relação ao seu opositor, o que contribui para a erosão da legitimidade democrática e dos procedimentos democráticos. Os instrumentos de IA utilizados são os “social bots” e os “deep fakes”. Os “bots” são agentes das redes sociais usados para amplificar opiniões através da automatização de certas comunicações[3]. Consequentemente influenciam eleições e criam divisões entre os cidadãos, pois a automatização do seu modo de comunicação transforma-se num meio eficaz de promover a desinformação (cf. Thiel, 2022). Os “deep fakes”, são falsificações que beneficiam diretamente das técnicas de IA no campo do processamento de imagem e áudio, o que torna mais fácil e barato alterar material audiovisual de forma convincente e rápida, com o objetivo de destruírem a reputação de opositores políticos com imagens falsas. E, embora, a questão das falsificações esteja, desde sempre, presente na história da política, a novidade com as técnicas de IA é a redistribuição deste poder de manipulação a muitos mais atores, tornando difícil comprovar tais técnicas e, assim, corroendo a confiança em todos os tipos de comunicação (Thiel, 2022).
Para além disso, existe a expansão do “microtargeting” (um alvo especificamente direcionado) político online assente em análise de enormes quantidades de dados e técnicas de reconhecimento de padrões. Os algoritmos determinam cada vez mais quais as informações que recebemos, o que vemos e quais os problemas que consideramos importantes. Desse modo, também se controla o pensamento político e a intenção de voto (Wecker, 2022)[4].
Os media digitais reforçam esta tendência — Facebook, Twitter, Youtube — acabando por criar algoritmos que causam confusão, ignorância, preconceito e caos, criando uma espécie de “não inteligência artificial” (Risse, 2022, p. 8). Em causa está a qualidade da democracia, pelo que estamos perante uma “democracia de baixa deferência”. Os líderes tradicionais na política não são mais tratados com deferência, mas ignorados ou identificados como alvos de desconfiança (cf. Cohen & Fung, 2021).
Esta ameaça às formas tradicionais de democracia torna-se, ainda, mais preocupante, com os novos modelos de IA generativa (Goldstein et al., 2023). Os modelos de linguagem de IA podem facilitar e ampliar a produção e distribuição de notícias falsas e de desinformação, que podem ser impossíveis de distinguir de informações factuais, aumentando os riscos para a democracia, a coesão social e a confiança pública nas instituições, sem que as ferramentas de deteção e verificação de factos consigam mitigar significativamente estes riscos (Organização para a Cooperação e Desenvolvimento Económico, OCDE, 2023).
O que também realça o facto destas tecnologias de IA serem controladas por empresas privadas de tecnologia multimilionárias, as denominadas “big tech”, como sejam a Google, a Meta e a OpenAI, em conexão com a Microsoft. Estas empresas decidem, sem controlo democrático, como nos envolvemos com as suas IA e que tipo de acesso temos, orientando e moldando estas tecnologias de acordo com seus interesses corporativos, não levando em consideração, naturalmente, o normal funcionamento da democracia.
As novas tecnologias amplificadas pela IA possibilitam tanto a perda de privacidade, como a vigilância em massa das populações. A proliferação da economia dos dados, o fácil acesso a smartphones e a conteúdo gratuito tornou “normal” o comportamento online, independente da origem financeira, étnica, religiosa e política das pessoas, enquanto se estabeleceu uma cultura de negociação e troca de informações pessoais, cujos “cookies” — ferramentas de rastreamento e logins sociais — facilitam o microtargeting com base em perfis de personalidade e comportamento (Körner, 2019).
As questões principais quanto à privacidade assentam sobre os direitos do utilizador e à proteção dos seus dados pessoais, e, ainda, de um ponto de vista político, na regulação do perigo da concentração de dados em apenas algumas empresas, o que lhes permite o acesso ao conhecimento do pensamento, opiniões e comportamentos dos cidadãos.
A IA com as tecnologias de reconhecimento facial, de voz e de movimento, em concertação com a proliferação de inúmeras câmaras de vídeo em espaços públicos deu um grande impulso às tecnologias de vigilância (Körner, 2019). Estas ferramentas de vigilância, com a finalidade de reforçar a segurança individual, conduzem a um efeito perverso da IA, favorecendo tendências totalitárias através do controlo social, da vigilância e da falta de privacidade (Pedroso et al., 2023). A IA fomentou a capacidade das tecnologias de vigilância, de que é exemplo o sistema de social scoring — utilizado para prever a ação dos indivíduos com base no acesso aos seus dados pessoais —, tornando-se num instrumento político de cariz autocrático, cuja aplicação colide com os princípios de um Estado de Direito democrático (Körner, 2019; Risse, 2022).
Ótica dos direitos sociais e económicos — ainda e sempre as desigualdades socioeconómicas
No que diz respeito à IA e aos direitos sociais e económicos, importa referir que a “tecnologia é uma questão de justiça e um produto de relações socio-técnicas amplas (…) [pelo que] o uso de sistemas automatizados é o resultado de escolhas humanas sobre políticas, prioridades e normas culturais” (Niklas, 2019, p. 3).
Já T. H. Marshall escrevia que os direitos sociais se encontram ligados à dimensão social da cidadania, referindo-se ao acesso a serviços públicos como a educação, saúde, bem-estar e pensões, bem como a várias questões relacionadas com o trabalho, como salários justos, férias pagas, direito de formar sindicatos ou direito à greve.
Os direitos sociais e, em especial, os direitos dos trabalhadores estão ausentes do mainstream do debate da relação entre IA e direitos fundamentais (Niklas, 2022b). A este propósito, o relatório da Human Rights Watch (HRW, 2021) relata a forma como a decisão algorítmica está a transformar a administração e concessão de benefícios sociais e outras medidas de proteção social na Europa. A sua análise toma por base o facto do apoio à segurança social em toda a Europa ser cada vez mais administrado por algoritmos alimentados por IA, que são utilizados pelos governos para alocar benefícios sociais, fornecer apoio ao emprego e controlar o acesso a uma variedade de serviços sociais. Acontece que em muitos países da Europa (Irlanda, França, Holanda, Polónia e Reino Unido), esta tecnologia é discriminatória, negligenciando as desigualdades sociais, as falhas e os vieses existentes nas sociedades e nas políticas públicas de proteção dos direitos dos cidadãos — como a exclusão digital, os cortes nos benefícios sociais e a discriminação no mercado de trabalho — e que moldam o design de sistemas automatizados, acabando por ser incorporadas nos próprios sistemas (cf. HRW, 2021; Skelton, 2021).
Jedrzej Niklas e Lina Dencik (2021) argumentam que os direitos sociais são relativamente silenciados no debate sobre a IA. As políticas de regulação centram-se na regulação de riscos e na alocação de recursos para a inovação, favorecendo questões procedimentais e orçamentais ao invés de, por exemplo, refletir sobre a natureza do trabalho ou sustentabilidade dos serviços públicos. Na regulamentação, em curso, parece existir uma prioridade atribuída aos direitos fundamentais em termos da privacidade individual, não discriminação e garantias processuais relativas ao consentimento e à transparência, desconsiderando o impacto da IA nos direitos sociais e económicos, como o direito ao trabalho, segurança social, saúde ou educação (Niklas & Dencik, 2021).
Um outro tema central nesta reflexão é o “futuro do trabalho”. Recentemente, o inquérito Future of Jobs (World Economic Forum [WEF], 2023), elaborado pelo World Economic Forum refere que a tecnologia e a digitalização serão o motor para a criação de 69 milhões de postos de trabalho, até 2027, mas simultaneamente serão eliminados 83 milhões de emprego, pelo que o resultado será uma diminuição líquida de 2% do emprego atual. Contudo, o questionamento sobre o futuro do trabalho devido às novas tecnologias e automatização apresenta diversas dimensões. Uma delas é o possível
aumento da polarização e segmentação do mercado de trabalho através do aumento da divisão entre os trabalhadores altamente qualificados e os poucos qualificados, estando os primeiros melhor posicionados para tirar proveito das vantagens da IA, na medida em que esta poderá complementar o seu trabalho. (Moreira & Dray, 2021, p. 62)
No próprio ambiente de trabalho, a IA poderá alterar o próprio conteúdo e desempenho do trabalho, a interação profissional no local de trabalho, interferindo nos critérios de avaliação e monitoriação da produtividade e de eficiência laborais (cf. Moreira & Dray, 2021).
Este último aspeto, e embora não seja uma questão recente, a IA tem realçado os efeitos da monitorização e vigilância sobre os trabalhadores, cujas novas tecnologias vieram criar novas formas de controlo e poder, acirrando a vulnerabilidade dos trabalhadores face aos empregadores (De Stefano, 2019; Niklas, 2022a). Para além disso, a algoritmização da gestão laboral tem evidenciado formas de discriminação no acesso ao emprego, nomeadamente com os:
background employment checks, através do qual empresas especializadas se dedicam a selecionar e excluir candidatos a emprego com base em diferentes fatores distintivos, que não estão diretamente relacionados com o tipo de atividade a prestar e que se prendem com aspetos da vida privada do candidato ou com as suas características pessoais, sociais e culturais, como sejam o domicílio, a etnia, os gostos, o perfil financeiro, a religião, o cadastro criminal, ou a orientação sexual. (Moreira & Dray, 2021, p. 61)
Esta nova algoritmização da gestão do trabalho estende-se não somente aos processos de decisão sobre a contratação, como também sobre os salários, os horários de trabalho e a performance laboral. Estas novas ferramentas digitais estão a conduzir à criação de “trabalhadores quantificados” (cf. Niklas, 2022b). Um caso ilustrativo são os trabalhadores de plataformas digitais como a Uber, onde são os algoritmos que definem as orientações laborais. Para além disso, as plataformas criam desafios acrescidos sobre a forma de organização coletiva dos trabalhadores e outros direitos laborais, seja pela indeterminação do seu estatuto — se são trabalhadores independentes ou por conta de outrem — seja pela falta de regulação e de legislação laboral (Costa et al., 2022).
Ainda quanto à questão do trabalho, dos direitos sociais e IA, um aspeto ainda pouco visível está relacionado com a extração de dados para alimentar, ensinar e programar o machine learning, dado que “a IA aprende encontrando padrões em enormes quantidades de dados, mas primeiro esses dados precisam ser classificados e marcados por pessoas, uma vasta força de trabalho escondida atrás das máquinas” (Dzieza, 2023, para. 1). Trata-se de um processo essencial da criação de IA designado por “rotulagem” que faz parte do estágio de pré-processamento para desenvolver um modelo de machine learning, e que requer a reunião e identificação de uma grande quantidade de “dados brutos” (ou seja, imagens, arquivos de texto, vídeos), com o menor custo possível de modo a treinar o modelo[5]. Os fornecedores de dados recorrem ao outsourcing do trabalho através de empresas privadas, com sede no Nepal e no Quénia[6]. É um tipo de trabalho muito sigiloso, em que os trabalhadores não podem divulgar a ninguém o seu trabalho, sendo uma atividade bastante instável. Os “rotuladores” passam muitas horas a ler as instruções, a concluir formações/treino não remunerados, muitas vezes apenas para fazer poucas tarefas e depois encerrar o projeto. A designada “linha de montagem” pode ser constantemente reconfigurada, procurando estabelecer-se onde haja a combinação ideal de habilitações, largura de banda/internet e salários (Dzieza, 2023)[7].
Apesar de desempenharem um papel fundamental na criação do modelo de IA através da rotulagem dos dados, as condições precárias destes trabalhadores evidenciam os esforços da IA para esconder a dependência desta grande força de trabalho nos ganhos de eficiência da tecnologia (Perrigo, 2023). A narrativa de desenvolvimento da IA oculta a forma como os dados que alimentam os diferentes modelos são apropriados, agregados e vendidos, bem como a forma como eles são armazenados, rotulados e analisados, aliando um discurso de progresso com base no futuro, a formas de exploração do passado que persistem e ganham novos contornos nos tempos atuais (cf. Jung, 2023).
A emergência de um quadro regulatório: da identificação das tensões ao AI ACT
No contexto das tensões identificadas nos campos da IA analisados — ontológico-ético-jurídico; e o da democracia, do Estado de Direito e dos direitos fundamentais — emerge, em instâncias do espaço europeu, como o Conselho da Europa e a União Europeia, a produção de diversos documentos normativos e orientadores de soft law, com o sentido de garantir no desenvolvimento e uso da IA, a segurança e os direitos fundamentais dos cidadãos. A este propósito o Conselho da Europa, publicou designadamente através do Comité Ad Hoc de Inteligência Artificial (CAHAI) A legal framework for AI systems (CAHAI, 2021) e o draft da primeira convenção sobre IA “Zero Draft” [Framework] Convention on Artificial Intelligence, Human Rights, Democracy and the Rule of Law (Conselho da Europa, 2023). E, a Comissão da União Europeia publicou o White Paper on Artificial Intelligence: a European approach to excellence and trust (Comissão Europeia, 2020). Em comum, pretendem estabelecer um quadro regulatório de standards em que os sistemas de IA sejam seguros e respeitem os direitos fundamentais.
Neste sentido, a Comissão da União Europeia apresentou em abril de 2021 The AI ACT[8], considerada a primeira iniciativa regulatória global e abrangente, com o objetivo de se constituir, após o seu processo de aprovação, num instrumento de hard law vinculativo para todas as pessoas e entidades públicas e privadas produtoras ou usuárias de IA no espaço dos 27 Estados da União Europeia.
A proposta segue uma abordagem do risco, com a categorização de 4 níveis de risco: inaceitável, alto risco, risco limitado e risco mínimo. As normas do AI ACT visam “promover a adoção de uma IA centrada no ser humano e fiável, bem como proteger a saúde, a segurança, os direitos fundamentais e a democracia dos efeitos nocivos da IA” (Parlamento Europeu, 2023, para. 1). O Parlamento Europeu assumiu a sua posição a 14 de junho de 2023, ficando estabelecido que serão proibidos os:
sistemas de identificação biométrica à distância em tempo real em espaços acessíveis ao público; sistemas de identificação biométrica à distância em diferido, com a única exceção para a repressão de crimes graves por autoridades responsáveis pela aplicação da lei e apenas após autorização judicial; sistemas de categorização biométrica que utilizem características sensíveis (por exemplo, género, raça, etnia, estatuto de cidadania, religião, orientação política); sistemas de policiamento preditivo (baseados na definição de perfis, localização ou comportamento criminoso passado); sistemas de reconhecimento de emoções na aplicação da lei, na gestão das fronteiras, no local de trabalho e nos estabelecimentos de ensino; e remoção não direcionada de imagens faciais da Internet ou de filmagens de videovigilância (circuito fechado) para criar bases de dados de reconhecimento facial (violação dos direitos humanos e do direito à privacidade). (Parlamento Europeu, 2023, para. 3)
Quanto aos sistemas de alto risco, onde se incluem os sistemas de IA utilizados na administração da justiça, a proposta aprovada identifica os “sistemas de IA que prejudicam significativamente a saúde, a segurança e os direitos fundamentais das pessoas ou o ambiente” (Parlamento Europeu, 2023, para. 4), no qual foram adicionados os “sistemas de IA utilizados para influenciar os eleitores e o resultado das eleições e os sistemas de recomendação utilizados pelas plataformas de redes sociais (com mais de 45 milhões de utilizadores)” (Parlamento Europeu, 2023, para. 4). No mesmo comunicado do Parlamento Europeu (2023) pode ler-se que:
sistemas de IA generativa que têm por base tais modelos, como o ChatGPT, terão de cumprir os requisitos de transparência (revelando que os conteúdos foram gerados por IA, o que ajudará a distinguir as técnicas de manipulação de imagens — também conhecidas como deepfake — das imagens reais) e assegurar salvaguardas contra a produção de conteúdos ilegais. (para. 5)
Neste processo de regulação, o direito do AI ACT vai, necessariamente, ser ao mesmo tempo variável independente e dependente na relação entre IA, Direito e Justiça, e integrar-se nos campos de tensão analisados neste artigo, o que constitui toda uma agenda de investigação futura. Assim, abre-se aos estudos sociojurídicos, nesta perspetiva de uma sociologia política do direito, da justiça e da IA, um grande campo de investigação sobre os processos políticos, sociais e jurídicos da produção, do uso e da regulação da IA. Os estudos da produção da IA e da sua regulação têm de analisar uma nova reconfiguração do poder de controle da transparência e da explicabilidade dos algoritmos, em que instâncias internacionais e os Estados não sejam dominados por atores não eleitos (como as big tech). No que se refere aos estudos sociojurídicos sobre o uso da IA e da sua regulação tem de ter necessariamente como objeto as suas virtualidades e as suas perversidades sobre a democracia, o Estado de Direito e os direitos fundamentais dos cidadãos, bem como o seu impacto sobre as desigualdades socioeconómicas seja na distribuição de rendimento, no acesso ao mercado de trabalho ou ao direito e à justiça.
Conclusão
Uma sociologia da IA exige um entendimento sociológico “dos dados” (Joyce et al., 2021, p. 3) pelo que a nossa proposta de construção de uma epistemologia sem fronteiras, identifica os diversos “campos de tensão” que emergem da nova dialética entre IA, direito e administração da justiça, onde se cruzam racionalidades instrumentais com as racionalidades dos valores, da democracia e do Estado de Direito. A construção de uma Sociologia Política do Direito, Justiça e IA, como a que propomos, permite aprofundar, como referimos, o conhecimento sócio-político-jurídico sobre os referidos campos de tensão. Assim, com base nos tópicos aqui analisados — mutação da justiça; campo ontológico-ético-jurídico; democracia, Estado de Direito e direitos fundamentais; emergência da regulação jurídica — nos quais a relação e o efeito da IA é ponto comum, assinalam-se, em conclusão, três temas essenciais.
O primeiro, é o de que a IA é composta de processos disruptores para o direito e para a administração da justiça, que podem ser interpretados pelo conhecimento sociojurídico. A abordagem sociológica do direito é um processo em aberto que “permanece como uma perspetiva onde a pluralidade e conflitualidade paradigmática continuam a inspirar, de modos diferenciados, aquilo que, afinal de contas, é o mais importante: a interpretação sociojurídica da realidade social” (Ferreira, 2019, p. 36). Assim,
uma sociologia política do direito, justiça e IA, (_) deve ser capaz de repensar o direito e a justiça face às transformações impostas, neste caso, pelas novas tecnologias que utilizam a IA, com base numa abordagem crítica da política, do direito e da Justiça. (Pedroso et al., 2023, p. 247)
O que nos conduz ao segundo tema, ou seja, a interpretação de um processo político e social que, em última análise, evidencia que a IA pressupõe não somente uma questão de design tecnológico, mas, principalmente, sobre questões de poder e de ordem social (cf. Joyce et al., 2021). Os efeitos promovidos pela sua aplicação realçam a forma como os dados humanos que a alimentam são socializados e politizados, estando inevitavelmente relacionados com desigualdades estruturais (cf. Joyce et al., 2021). Daí a “necessidade de uma agenda científica para repensar a mutação dos conceitos que usamos, quando projetados na esfera algorítmica” (Pedroso et al., 2023, p. 247).
E desta forma, como terceiro tema conclusivo, a IA deve ser produzida e usada através de processos transparentes, explicáveis e não discriminatórios, de modo a salvaguardar os princípios da democracia e o respeito pelos direitos fundamentais sem “riscos inaceitáveis” ou “altos riscos” como os que identificámos no texto. Assim, das tensões analisadas emerge, na União Europeia, uma regulação de soft law e, agora de hard Law da IA, através do AI ACT, de proibição e regulação desses riscos.
Parece estar em construção um consenso de que a regulação da IA deve ser orientada no sentido de proteger os cidadãos e as estruturas democráticas num “espaço público saudável”, considerando a IA como um bem público e, assim, reforçar, e não ameaçar, os princípios democráticos (Schneier et al., 2023; Simons & Frankel, 2023). Os conteúdos gerados pelo machine learning, como também pelas novas IA generativas, devem ser submetidos, na sua produção e uso, a um conjunto de princípios políticos, éticos e jurídicos regulados na esfera pública por entidades com legitimidade democrática, não delegando essas funções a reguladores tecnocráticos das big tech (cf. Simons & Frankel, 2023).
Deste modo, a nossa reflexão pretende contribuir para a defesa das sociedades democráticas, com menos desinformação, uma administração da justiça acessível e o reforço dos direitos fundamentais, sejam os direitos, liberdades e garantias, no respeito pela igualdade e privacidade dos humanos, sejam os direitos sociais, económicos e culturais, de modo a termos uma sociedade com menos desigualdades socioeconómicas e mais justiça social.
Referências
AI ACT, Artificial Intelligence Act. (2024). Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024, que cria regras harmonizadas em matéria de inteligência artificial e que altera os Regulamentos (CE) n.° 300/2008, (UE) n.° 167/2013, (UE) n.° 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (Regulamento da Inteligência Artificial) (Texto relevante para efeitos do EEE). Jornal Oficial da União Europeia.
Andrade, M. D., Rosa, B. C., & Pinto, E. R. G. C. (2020). Legal tech: analytics, inteligência artificial e as novas perspectivas para a prática da advocacia privada. Revista Direito GV, 16(1), e1951.
Bourdieu, P. (1989). O poder simbólico. Bertrand Brasil.
Brito, T., & Fernandes, R. (2020). Inteligência Artificial e a Crise do Poder Judiciário: Linhas Introdutórias sobre a Experiência Norte-Americana, Brasileira e sua Aplicação no Direito Brasileiro. Revista Acadêmica da Faculdade de Direito do Recife, 91(2), 84-107.
CAHAI, Ad hoc Committee on Artificial Intelligence. (2021). Possible elements of a legal framework on artificial intelligence, based on the Council of Europe’s standards on human rights, democracy and the rule of law. Conselho da Europa.
Capeller, W. (2021). O capitalismo da violência. Por uma sociologia política dos não direitos. Crítica Jurídica Nueva Época, (3), 55-74.
Capeller, W., & Bruch, T. (2020). Technè e Dikè: Justiça algorítmica e mutações das racionalidades jurídicas. In O. Villas Boas Filho (Org.), Os estudos sociojurídicos e os dilemas da administração da justiça: desafios atuais do Poder Judiciário (pp. 272-293). Eseni Editora.
Cohen, J., & Fung, A. (2021). Democracy and the Digital Public Sphere. In L. Bernholz, H. Landemore, & R. Reich (Eds.), Digital Technology and Democratic Theory (pp. 23-61). University of Chicago Press.
Comissão Europeia. (2020). White Paper on Artificial Intelligence: a European approach to excellence and trust.
Conselho da Europa. (2023). “Zero Draft” [Framework] Convention on Artificial Intelligence, Human Rights, Democracy and the Rule of Law.
Contini, F. (2020). Artificial Intelligence and the Transformation of Humans, Law and Technology Interactions in Judicial Proceedings. Law, Technology and Humans, 2(1), 4-18.
Contini, F., & Reiling, D. (2022). Double normalization: When procedural law is made digital. Oñati Socio-Legal Series, 12(3), 654-688.
Costa, H., Soeiro, J., & Filho, V. (2022). Sentidos, regulações e práticas de plataformização do trabalho em Portugal. Revista Crítica de Ciências Sociais, (129), 85-110.
De Stefano, V. (2019). Introduction: Automation, Artificial Intelligence, and Labour Protection. Comparative Labor Law & Policy Journal, 41(1), 1-12.
Deeks, A. (2019). The judicial demand for explainable artificial intelligence. Columbia Law Review, 119(7), 1829-1850.
Donoghue, J. (2017). The Rise of Digital Justice: Courtroom Technology, Public Participation and Access to Justice. The Modern Law Review, 80, 995-1025.
Dzieza, J. (2023, 29 de junho). O exército (sub-)humano que alimenta a IA. OUTRASPALAVRAS. https://outraspalavras.net/tecnologiaemdisputa/exercito-sub-humano-que-alimenta-a-ia/
Ettekoven, B., & Prins, C. (2018). Data analysis, artificial intelligence and the judiciary system. In V. Mak, E. Tjong Tjin Tai, & A. Berlee (Eds.), Research handbook in data science and law (pp. 425-447). Edward Elgar Publishing.
Fabri, M., & Contini, F. (2001). Justice and Technology in Europe: How ICT is changing the judicial business. Kluwer Law International.
Ferreira, A. C. (2019). Sociologia do Direito: uma abordagem sociopolítica. Vida Económica.
FRA, European Union Agency for Fundamental Rights. (2022). Bias in algorithms — Artificial intelligence and discrimination (Report). Publications Office of the European Union.
Giddens, A. (1984). La constitution de la société. PUF.
Godefroy, L., Lebaron, F., & Lévy-Vehel, J. (2019). Comment le numérique transforme le droit et la justice vers de nouveaux usages et un bouleversement de la prise de décision — Anticiper les évolutions pour les accompagner et les maîtriser. GIP — Mission de recherche Droit et Justice
Goldstein, J. A., Sastry, G., Musser, M., DiResta, R., Gentzel, M., & Sedova, K (2023). Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations. ArXiv, 2301.04246. https://arxiv.org/abs/2301.04246
HRW, Human Rights Watch. (2021). Q&A: How the EU’s Flawed Artificial Intelligence Regulation Endangers the Social Safety Net.
Joyce, K., Smith-Doerr, L., Alegria, S., Bell, S., Cruz, T., Hoffman, S. G., Noble, S. U., & Shestakofsky, B. (2021). Toward a Sociology of Artificial Intelligence: A Call for Research on Inequalities and Structural Change. Socius: Sociological Research for a Dynamic World. 7, 1-11.
Jung, M. (2023, 10 de fevereiro). Digital capitalism is a mine not a cloud. TNI — Transnational Institute. https://www.tni.org/en/article/digital-capitalism-is-a-mine-not-a-cloud
Körner, K. (2019). Digital politics — AI, big data and the future of democracy. Deutsche Bank Research
Larsson, S. (2019). The Socio-Legal Relevance of Artificial Intelligence. Revue Droit et Société, 103(3), 573-593.
Lupo, G. (2019). Regulating (Artificial) Intelligence in Justice: How Normative Frameworks Protect Citizens from the Risks Related to AI Use in the Judiciary. European Quarterly of Political Attitudes and Mentalities, 8(2), 75-96.
Martins, J. (2021). Dilemas éticos e jurídicos do uso da inteligência artificial na prática jurídica. RJLB, (4), 919-952.
Moreira, T. C., & Dray, G. (Coords.) (2021). Livro Verde sobre o Futuro do Trabalho. Gabinete de Estratégia e Planeamento do Ministério do Trabalho, Solidariedade e Segurança Social (MTSSS/GEP); Instituto do Emprego e Formação Profissional, I.P. (IEFP, I.P).
Niklas, J. (2019). Conceptualising socio-economic rights in the discussion on Artificial Intelligence. SSRN, 3569780. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3569780
Niklas, J. (2022a). Social rights and data technologies: looking for connections. Working Paper, Cardiff University: Data justice Lab, 1-24.
Niklas, J. (2022b, 3 de outubro). We need to talk about social rights in AI policy. LSE — The London School of Economics and Political Science. https://blogs.lse.ac.uk/medialse/2022/10/03/we-need-to-talk-about-social-rights-in-ai-policy/
Niklas, J., & Dencik, L. (2021). What rights matter? Examining the place of social rights in the EU’s artificial intelligence policy debate. Internet Policy Review, 10(3), 1-29.
Nunes, D., & Marques, A. (2018). Inteligência artificial e direito processual: vieses algoritmos e os riscos de atribuição de função decisória às máquinas. Revista de Processo, 43(285), 421-447.
OCDE, Organização para a Cooperação e Desenvolvimento Económico. (2023). AI language models: technological, socio-economic and policy considerations. OECD Digital Economy Papers, (352), 1-52.
Parlamento Europeu. (2020, 4 de setembro). O que é a inteligência artificial e como funciona? https://www.europarl.europa.eu/topics/pt/article/20200827STO85804/o-que-e-a-inteligencia-artificial-e-como-funciona
Parlamento Europeu. (2023, 14 de junho). Parlamento negoceia primeiras regras para inteligência artificial mais segura [Comunicado de imprensa]. https://www.europarl.europa.eu/news/pt/press-room/20230609IPR96212/parlamento-negoceia-primeiras-regras-para-inteligencia-artificial-mais-segura
Pedroso, J. (2002). Percurso(s) da(s) reforma(s) da administração da justiça — uma nova relação entre o judicial e o não judicial. Oficina do CES, (171), 1-43.
Pedroso, J. (2006). A justiça em Portugal entre a(s) crise(s) e a(s) oportunidade(s) — Contributo para a construção de um novo paradigma de política pública de justiça. Scientia Iuridica, 55(306), 263-302.
Pedroso, J. (2021). Pandemia e Tribunais — neutralização, ausência e metamorfose digital. In Á. Garrido, & H. A. Costa (Orgs.), Um vírus que nos (re)une: reflexões da FEUC (pp. 179-184). Vida Económica.
Pedroso, J., Capeller, W., & Santos, A. (2023). Os efeitos perversos da inteligência artificial: A democracia, o estado de direito e a distribuição de desigualdades e poder no mundo. Confluências — Revista Interdisciplinar de Sociologia e Direito, 25(3), 230-253.
Perrigo, B. (2023, 18 de janeiro). Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic. TIME. https://time.com/6247678/openai-chatgpt-kenya-workers/
Re, R., & Solow-Niederman, A. (2019). Developing Artificially Intelligent Justice. Stanford Technology Law Review, 22(2), 242-289.
Reiling, D. (2009). Technology for Justice How Information Technology Can Support Judicial Reform. Leiden University Press
Reiling, D. (2020). Courts and Artificial Intelligence. International Journal for Court Administration, 11(2), 1-10.
Risse, M. (2022). Artificial Intelligence and the Past, Present, and Future of Democracy. In S. Voeneky, P. Kellmeyer, O. Mueller, & W. Burgard (Eds.), The Cambridge Handbook of Responsible Artificial Intelligence: Interdisciplinary Perspectives (pp. 85-103). Cambridge University Press.
Santos, B. S. (2005). Os tribunais e as novas tecnologias de comunicação e de informação. Sociologias, (13), 82-109.
Schneier, B., Farrell, H., & Sanders, N. (2023, 21 de abril). How Artificial Intelligence Can Aid Democracy. SLATE. https://slate.com/technology/2023/04/ai-public-option.html
Simons, J., & Frankel, E. (2023, 21 de fevereiro). Why democracy belongs in artificial intelligence. Princeton University Press. https://press.princeton.edu/ideas/why-democracy-belongs-in-artificial-intelligence
Skelton, S. K. (2021, 10 de novembro). EU artificial intelligence regulation risks undermining social safety net. ComputerWeekly.com. https://www.computerweekly.com/news/252509326/EU-AI-regulation-risks-undermining-social-safety-net
Sourdin, T. (2017). Justice in the age of technology: ‘The rise of machines is upon us’. Precedent, (139), 4-9.
Sourdin, T. (2018). Judge v Robot? Artificial Intelligence and Judicial Decision-Making. UNSW Law Journal, 41(4), 1114-1132.
Sourdin, T., Meredith, J., & Li, B. (2021). Digital Technology and Justice: Justice Apps. Routledge
Surden, H. (2019). Artificial Intelligence and Law: An Overview. Georgia State University Law Review, 35(4), 1305-1337.
Susskind, R. (2017). Tomorrow lawyers: an introduction to your future. Oxford University.
Thiel, T. (2022, 6 de janeiro). Artificial Intelligence and Democracy. Heinrich Böll Stiftung. https://il.boell.org/en/2022/01/06/artificial-intelligence-and-democracy
Thompson, D. (2015). Creating New Pathways to Justice Using Simple Artificial Intelligence and Online Dispute Resolution. International Journal of Online Dispute Resolution, 1(2), 4-53.
Wallace, A. (2017). From the Editor: The impact of technology on courts. International Journal for Court Administration, 8(2), 1.
Wecker, K. (2022, 20 de junho). Inteligência artificial e democracia direta podem conviver?. SWI. https://www.swissinfo.ch/por/intelig%C3%AAncia-artificial-e-democracia-direta-podem-conviver-/47577828
WEF, World Economic Forum. (2023). Future of Jobs Report 2023 — Insight Report.
Wisser, L. (2019). Pandora’s Algorithmic Black Box: The Challenges of Using Algorithmic Risk Assessments in Sentencing. Georgetown Law — American Criminal Law Review, 56(4), 1811-1832.
Završnik, A. (2020). Criminal justice, artificial intelligence systems, and human rights. ERA Forum — Academy of European Law, 20, 567-583.
Data de submissão: 15/07/2023 | Data de aceitação: 08/07/2024
Notas
Por decisão pessoal, a autora do texto escreve segundo o novo acordo ortográfico
[1] Segundo o Parlamento Europeu, a IA “é a capacidade de uma máquina para reproduzir competências semelhantes às humanas como é o caso do raciocínio, a aprendizagem, o planeamento e a criatividade” (cf. Parlamento Europeu, 2020, para. 1). Grande parte do que é discutido como IA refere-se ao aumento da automação de tarefas através do uso de machine learning (aprendizagem da máquina usando algoritmos para analisar grandes volumes de dados, aprender com os insights e tomar decisões) e tomada de decisão automatizada (European Union Agency for Fundamental Rights [FRA], 2022).
[2] Trata-se de uma IA de LLM (Large Language Model) que armazena textos de várias fontes documentais (livros, internet, enciclopédias, fóruns, redes sociais) podendo responder, em poucos segundos, sobre temas de todas as áreas do conhecimento.
[3] A este propósito, as eleições de 2016 nos Estados Unidos e o referendo sobre o Brexit no Reino Unido, trouxeram para debate o seu papel no desfecho destes acontecimentos.
[4] A este propósito refira-se o caso das eleições americanas, cuja extração de milhões de dados privados do Facebook por parte da empresa Cambridge Analytica foram utilizados para favorecer o candidato presidencial Donald Trump (Wecker, 2022).
[5] O artigo parte de uma pesquisa com base em entrevistas a rotuladores de todo o mundo. Um dos entrevistados trabalhava para uma empresa chamada Remotasks do Quénia, a qual é uma subsidiária voltada para trabalhadores de uma empresa chamada Scale AI, fornecedor multibilionário do Silicon Valley. Modelos de linguagem, como o ChatGPT da OpenAI centraram-se nos trabalhos destas plataformas.
[6] Existem discrepâncias de salário em relação a outros países, por exemplo, esses trabalhadores nos EUA recebem entre 10 e 25 dólares por hora, enquanto no Quénia, recebem entre 1 e 3 dólares por hora.
[7] Também a revista Time publicou recentemente um artigo, onde refere esta mesma dinâmica de precarização do trabalho. A propósito do ChatGPT, e com o objetivo de o tornar menos tóxico, a OpenAI contratou trabalhadores em regime de outsourcing do Quénia, com o salário de menos 2 dólares por hora (cf. Perrigo, 2023).
[8] O texto foi apresentado em 2021, mas a sua versão final é de 2024 (cf. Artificial Intelligence Act [AI ACT], 2024).
Autores: João Pedroso, Wanda Capeller, Andreia Santos