Senado Federal Senado Federal
Inteligência artificial exige transparência e estudo de impactos, dizem especialistas
A Comissão de Juristas que elabora anteprojeto para o marco regulatório da inteligência artificial (CJSUBIA) promoveu nesta quinta-feira (12) uma s...
12/05/2022 19h55
Por: Nathaly Guimarães Fonte: Agência Senado
Edilson Rodrigues/Agência Senado

A Comissão de Juristas que elabora anteprojeto para o marco regulatório da inteligência artificial (CJSUBIA) promoveu nesta quinta-feira (12) uma série de audiências públicas para discutir o impacto da IA na formulação de políticas públicas. Para os especialistas ouvidos, a legislação do setor terá que levar em consideração os riscos de vieses discriminatórios que possam contaminar sistemas automatizados.

Nos paineis realizados pela manhã, pesquisadores ligados à área de direitos humanos e causas sociais alertaram para o fato de que ferramentas tecnológicas não são neutras ou autônomas. Desenvolvidas dentro de contextos socioeconômicos e políticos estabelecidos, elas podem reproduzir relações de poder desiguais ou até práticas discriminatórias.

À tarde, a questão foi ilustrada por Bianca Kremer, professora de direito digital no Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP). Ela também integra a Coding Rights, organização não-governamental (ONG) que atua na promoção de direitos humanos na área tecnológica.

Continua após a publicidade

Segundo Kremer, uma pesquisa realizada junto ao setor público brasileiro identificou 23 ministérios e agências federais que já usam, mesmo que em fase de testes, sistemas de inteligência artificial e machine learning para executar suas funções.

— São entes públicos que fazem uso desses sistemas sem a presença de um panorama regulatório em vigor, sem aferição de riscos e pouco ou nada se sabe se eles têm análise de impactos de danos possíveis — criticou a professora.

Continua após a publicidade

Para dar uma ideia da dimensão dos desafios nessa área, ela citou o exemplo de um projeto executado na província de Salta, na Argentina, em parceria com a Microsoft. Um sistema usado pelo governo local prometia identificar as crianças com maior risco de engravidarem na adolescência, para que fossem atendidas com políticas públicas específicas. Segundo Kremer, os parâmetros usados pelo sistema (etnia, local de moradia, número de pessoas na mesma casa) perpetuavam a estigmatização de mulheres pobres, levando a resultados “superdimensionados” e erros estatísticos “grosseiros”. 

Em outro painel de audiências do dia, os palestrantes falaram sobre os desafios para aprimorar a confiabilidade dos parâmetros de sistemas de IA. Os convidados comentaram que a área tem aplicações muito amplas em vários níveis da tecnologia e está em constante evolução. Mesmo assim, ela não é uma “caixa-preta” e já há ferramentas avançadas para que os programadores compreendam melhor seus modelos. O passo fundamental é traduzir isso para os usuários.

Renato Leite Monteiro, que trabalha com privacidade e produção de dados no Twitter, afirmou que o chamado “direito à explicação” já é possível no Brasil, a partir da Lei Geral de Produção de Dados. No entanto, segundo ele, esse direito deve ser ponderado junto a direitos de terceiros, como o sigilo comercial e a garantia da propriedade intelectual.

Continua após a publicidade

— Queremos ajudar as pessoas a entender como as decisões algorítmicas são tomadas e nos responsabilizar publicamente. A nossa experiência recente sugere que, embora investir na melhoria da equidade dos modelos e fazer investimentos na explicabilidade seja importante, as aplicações mais impactantes de uma aprendizagem de máquina responsáveis podem vir da própria alteração do produto e do serviço, da abordagem ou da experiência das pessoas.

Ele relatou que, em 2020, usuários do Twitter perceberam que o programa usado para o recorte automático de imagens não era capaz de identificar e centralizar rostos de pessoas negras. Monteiro explicou que a empresa produziu e publicou uma avaliação que concluía que havia enviesamento no algoritmo, e optou por não usar mais o programa.