A Associação dos Oficiais de Justiça (Abojeris) realizou, nos dias 22 e 23 de março, o I Encontro dos Oficiais de Justiça do TJRS com o tema “O uso de IA e seus riscos para a Justiça”.
:: 'Para não se correr riscos com IA é preciso acabar com o capitalismo', defende Ricardo Antunes ::
O evento ocorre no Hotel Intercity Canoas com a presença de 250 oficiais de cerca de 80 comarcas, além de especialistas em tecnologia da informação, direito, ciências sociais, entre outros.
O sociólogo, doutor em Ciência Política, especialista em tecnologia da informação, sociedade da informação e cidadania digital Sérgio Amadeu foi um dos palestrantes e concedeu entrevista ao Brasil de Fato RS.
Sérgio disse que colocou alguns desafios no encontro, porque o que em geral se chama de inteligência artificial, aquela realmente existente, é um tipo de tecnologia baseada em extração de padrões de dados.
“Esses dados são organizados e eles servem a agilizar uma série de condutas e processos do Poder Judiciário. Então, de fato, se você tem vários textos e você quer fazer um resumo, você usa um modelo de linguagem natural, como o GPT, e você tem uma vantagem. Por quê? Porque você faz com muita velocidade, agilidade, processos que podem ser automatizados”, esclarece.
Mas ele aponta os problemas disso. “O problema é que, primeiro, cada vez mais você fica refém de grandes oligopólios digitais, de grandes empresas que criam esses modelos. Logo, a solução é o Poder Judiciário entender que ele tá com esse risco e ele precisa armazenar e tratar os dados como insumos fundamentais para atividade de defesa da justiça, portanto, tratar os dados dentro do Estado.”
Sérgio também mostrou a importância de infraestruturas digitais soberanas, “para que também você o tempo todo esteja analisando como esses sistemas automatizados estão funcionando, porque apesar do nome inteligente, eles não são inteligentes, eles são extratores de padrões, classificadores”.
Segundo ele, eles podem gerar um termo, por exemplo, que a gente usa como “alucinações estatísticas”. “Eles na verdade podem gerar vários erros, equívocos, e mais do que isso, quando você usa base de dados antigas para trabalhar, você pode estar reproduzindo para o futuro o preconceito que está embutido nas decisões que estão nessas bases de dados, você pode estar reproduzindo o viés.”
O sociólogo questiona “quem é responsável por esse sistema? Que efeitos eles estão gerando? Até que ponto eles estão sendo efetivamente justos e corretos?”
Ele aponta que decisões judiciais feitas por juízes humanos, por sistemas automatizados, elas tiveram que ser revistas, elas têm muitas falhas. “Porque, na verdade, nós estamos falando de sistemas de extração de padrões, de classificação com alto poder computacional. Nós estamos falando da velha estatística com alto poder computacional. Nós estamos falando de sistemas que são gigantescos hoje, e que é preocupante quando você diz que vai usar um sistema que você não sabe como funciona e que vai usar um modelo feito por uma empresa como a OpenAI para tomar decisões ou fazer determinadas ações em um poder judiciário aqui. Isso é meio preocupante.”
Sérgio citou o exemplo do Poder Judiciário americano, que usa muito sistemas automatizados, mas não chegou ainda a tomar decisões judiciais. “Quem toma decisão é o juiz. Só que eles automatizaram a definição da pena. Quanto tempo cada réu vai ter, uma vez que está condenado. E se percebeu que o sistema que chama Compass, que eles usam, é altamente enviesado. Por quê? Porque como ele se baseia em decisões anteriores, entre outras coisas, entre outras bases de dados, eles privilegiam dar penas maiores para os negros do que para os brancos. Isso foi constatado.”
E isso, relata, teve vários problemas porque tinha gente de baixa periculosidade negra que ficou com penas elevadas e brancos de alta periculosidade que tiveram penas reduzidas pelo sistema.
“É uma rede neural artificial que tem camadas ocultas. Eles não conseguem explicar. Será que é possível usar uma rede neural artificial que tem camadas ocultas que você conhece os dados de entrada e os dados de saída, mas você não sabe quais os cálculos que foram feitos? Então, se você não sabe como aquilo foi feito, não pode ser usado no setor público. Simples assim.”
Sobre como está se dando esse debate da inteligência artificial no país, Sérgio avalia que ele está começando. O governo está organizando a Conferência Nacional de Ciência e Tecnologia, principalmente o Ministério da Ciência, Tecnologia e Inovação, e na Universidade Federal do ABC, acontece essa semana a Conferência Temática de Inteligência Artificial.
:: ChatGPT: entenda como funciona a inteligência artificial do momento - e os riscos que ela traz ::
“Existem muitos debates sobre inteligência artificial ocorrendo em vários lugares. Eu acho que ele começou a ser debatido, mas a gente ainda está, vamos dizer assim, refém de uma visão muito espetacular, muito ficcional da inteligência artificial. A própria Estratégia Brasileira de Inteligência Artificial, que foi lançada em 2018, ela é muito falha, ela parece que tá falando da Noruega, dos Estados Unidos, ela não discute os problemas concretos.”
Na sua avaliação, a própria lei que vai regulamentar a inteligência artificial, você podia trocar o nome Brasil por Austrália, que dá na mesma. “Como se a inteligência artificial fosse neutra, acima das situações concretas do país, da ausência de infraestruturas, de tecnologias próprias. Então a gente precisa avançar muito nesse debate.”
Sérgio salientou que, no movimento sindical, era o primeiro lugar que tinha sido convidado a falar sobre o tema. “É a primeira associação sindical que está fazendo um encontro onde a inteligência artificial está colocada no centro do encontro, com grande destaque.”
Edição: Marcelo Ferreira