21°C 23°C
Palmas, TO

Especialistas defendem proteção de dados processados por inteligência artificial

A comissão de juristas que analisa os projetos de lei sobre inteligência artificial (IA) retomou nesta sexta-feira (10) o seminário internacional c...

10/06/2022 às 13h40
Por: Nathaly Guimarães Fonte: Agência Senado
Compartilhe:
Seminário é promovido de forma remota por comissão de juristas que elabora proposta sobre regulação da IA - Roque de Sá/Agência Senado
Seminário é promovido de forma remota por comissão de juristas que elabora proposta sobre regulação da IA - Roque de Sá/Agência Senado

A comissão de juristas que analisa os projetos de lei sobre inteligência artificial (IA) retomou nesta sexta-feira (10) o seminário internacional com a participação de especialistas na área. Durante a manhã, eles analisaram os temas de proteção de dados e técnicas regulatórias baseadas em risco. Os painéis sobre mercados e sistemas de responsabilização, previstos para começar às 14h, serão transmitidos pelo canal da TV Senado no YouTube. O seminário foi iniciado na quinta (9).

O debate sobre proteção de dados e regulação de IA começou com a apresentação de Gabriela Zanfir, representante do Future of Privacy Forum (Estados Unidos). Para ela, o processamento automatizado de dados pessoais deve ser desenvolvido “para servir à raça humana”.

— O que isso quer dizer? A meta da proteção de dados é garantir que a informação relacionada ao indivíduo seja coletada e utilizada a partir de meios automatizados e algorítmicos de tal forma que todos os seus demais direitos fundamentais sejam protegidos. Precisamos proteger esses dados pessoais. Mesmo que decisões automatizadas atuem em larga escala, é preciso assegurar que essas decisões sejam tomadas de forma justa. Que as liberdades pessoais sejam protegidas, como o direito a privacidade, segurança, não discriminação e liberdade de reunião — afirmou.

Professor da Universidade Politécnica de Turim (Itália), Alessandro Mantelero destacou a importância de uma abordagem de proteção de dados baseada em riscos. Ele afirmou que ferramentas de coleta e processamento de informações pessoais não podem sobrepor o interesse econômico aos direitos individuais.

— A avaliação de risco significa que você precisa avaliar o risco antes que ele ocorra. É preciso desenvolver uma inteligência artificial que seja orientada e motivada pelos direitos humanos. O interesse meramente econômico não pode prevalecer sobre a proteção de dados pessoais. É um tipo de hierarquia entre os interesses. Não quer dizer que você não pode fazer negócios ou não pode ter proteção de interesses econômicos. Mas o foco deve ser os direitos humanos — argumentou.

A advogada Teki Akuetteh Falconer, da Africa Digital Rights’ Hub (Gana), alertou para uma série de “lacunas e questões éticas” que precisam ser consideradas no desenvolvimento de ferramentas de IA. Ela defendeu a atuação conjunta de especialistas de várias áreas para que direitos individuais sejam assegurados.

— Talvez haja lacunas com relação a direitos econômicos e com relação a discriminação também, o que nos demanda a construção de estruturas. É preciso trazer engenheiros e especialistas em privacidade e em direitos humanos. Vamos precisar trazer os especialistas de inteligência artificial, de forma a sermos capazes de construir uma estrutura dedicada para lidar com os desafios neste momento. Precisamos compreender o ecossistema dentro de nossa jurisdição — disse.

O debate contou ainda com a participação de Robin Wetherill, representante da Comissão Federal de Comércio dos Estados Unidos. Ela sublinhou que o avanço da tecnologia observado nas últimas décadas precisa ser acompanhado de medidas de moderação que protejam consumidores e crianças, por exemplo.

— Desenvolvemos recomendações para que os desenvolvedores tenham em mente a segurança de proteção de dados para determinar quando manter e quando se livrar de uma informação. É preciso considerar a sensibilidade da informação na hora de se desenvolver produtos de reconhecimento facial e serviços relacionados, por exemplo. O relatório recomenda que sinais digitais que utilizam reconhecimento facial não devem ser aplicados em locais onde crianças de reúnem. Eles não podem coletar dados faciais de crianças — mencionou.

Técnicas regulatórias

O painel sobre técnicas regulatórias e abordagem baseada em risco começou com a apresentação de Eike Graf, representante da Comissão Europeia. Ele defendeu que a legislação aplicada sobre direitos fundamentais seja estendida à gestão de dados por meio de inteligência artificial.

— Se já existem algumas regras, devemos trazer adendos a elas. Regras trabalhistas e leis do consumidor são relevantes para a utilização em sistemas de inteligência artificial. O uso de um sistema de IA está sujeito a direitos e obrigações. Se houver algum problema na utilização de tecnologias, deve-se evitar a prática, se necessário. Os direitos que temos para proteger os direitos fundamentais obviamente continuam a ser aplicados em diversas outras instâncias. A questão é onde devemos, devido à opacidade ou à complexidade, fazer um esforço extra para manter os direitos que já estão dispostos, assim como propor deveres extras — sugeriu.

Para Pam Dixon, fundadora do World Privacy Forum, o mundo assiste a uma aceleração em temas como inteligência artificial e machine learning — campo da engenharia que estuda o aprendizado automático de certas rotinas por máquinas e computadores. Ela defendeu um sistema regulatório específico para dar conta desse novo cenário.

— O mundo diante de nós é outro, totalmente diferente de dez anos atrás. Ao pensarmos sobre regulações para esses sistemas, pensamos que são sistemas visíveis para nós. Porém, cada vez mais estamos indo em direção a um mundo em que eles não serão apenas invisíveis. Eles serão como os encanamentos das casas: você sabe que está lá e você consegue ligar a torneira. Mas você não vai necessariamente conseguir ver os canos. Estamos seguindo rapidamente para isso. Quando isso acontecer, será necessário um controle regulatório distinto — afirmou.

O seminário contou ainda com a participação de Courtney Lang, representante do Conselho Industrial de Tecnologia e Informação (ITI) com sede nos Estados Unidos. Ela defendeu que os critérios usados para a definição de situação de risco no processamento de dados pessoais por meio de inteligência artificial sejam definidos em conjunto por governos e empresas de tecnologia.

— Os riscos precisam ser mitigados para o uso específico da IA. Isso ajudará a evitar resultados indesejados. Devemos trabalhar com acionistas e olhar quais seriam os maiores riscos para aplicação dessas regulamentações. Seria, claro, papel do governo estabelecer essas regras, mas também dos acionistas, que devem decidir o que seria um sistema de alto risco em inteligência artificial — afirmou.

A comissão temporária de juristas foi criada no Senado por ato do presidente da Casa, senador Rodrigo Pacheco. Formado por 18 especialistas, o colegiado tem até agosto para sugerir uma minuta de substitutivo para reunir os Projetos de Lei (PLs) 5.051/2019, 21/2020 e 872/2021. As matérias estabelecem princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil.

* O conteúdo de cada comentário é de responsabilidade de quem realizá-lo. Nos reservamos ao direito de reprovar ou eliminar comentários em desacordo com o propósito do site ou que contenham palavras ofensivas.
Palmas, TO
22°
Tempo nublado

Mín. 21° Máx. 23°

23° Sensação
0km/h Vento
94% Umidade
100% (23.5mm) Chance de chuva
05h40 Nascer do sol
06h15 Pôr do sol
Sáb 33° 21°
Dom 35° 23°
Seg 35° 22°
Ter 29° 22°
Qua 35° 22°
Atualizado às 05h04
Economia
Dólar
R$ 5,79 -0,04%
Euro
R$ 6,10 +0,06%
Peso Argentino
R$ 0,01 -0,46%
Bitcoin
R$ 546,642,62 +1,22%
Ibovespa
127,791,60 pts 0.05%
Publicidade