Inteligência artificial: usuário deve compreender funcionamento de processos automatizados

Inteligência artificial
Inteligência artificial – imagem Gerd Altmann – Pixabay

A Comissão de juristas e especialistas em tecnologia, inclusão digital e regulação que está ajudando o Senado a produzir o marco regulatório da Inteligência Artificial faz nesta quarta-feira uma reunião de avaliação das audiências públicas realizadas desde 30 de março, quando foi instalada. Na semana passada, encerrou-se a quarta rodada de audiências para a discussão de conceitos, modelos de regulação e impactos da IA divididas em quatro eixos: conceitos, compreensão e classificação de inteligência artificial; impactos da inteligência artificial; direitos e deveres; accountability, governança e fiscalização.

Em um dos 12 paineis, o que aborda direitos e deveres envolvendo a IA, transparência, explicabilidade, direito à intervenção humana e correção de vieses, os participantes defenderam que a legislação precisa garantir o direito do usuário de compreender o funcionamento da automatização e de contestar decisões tendenciosas no tratamento de dados.

Leia também:

Fundador e professor da Data Privacy Brasil além de representante do Twitter, Renato Leite Monteiro, defendeu o direito à explicabilidade: “O objetivo da explicabilidade é capacitar e empoderar as pessoas e não sobrecarregá-las com informações que não compreendem ou utilizam. Muito menos, publicizar códigos e linhas de programação que são protegidos por instrumentos elementares do Direito. Portanto, faz-se necessário identificar um equilíbrio entre a divulgação de informações, com a proteção de propriedade intelectual, manutenção dos segredos comerciais envolvidos e a garantia de segurança dos agentes que poderão utilizar as informações.”

Enquanto a explicabilidade é o direito do usuário ter uma explicação sobre como funciona o tratamento de dados, a correção de vieses diz respeito à necessidade de mitigar efeitos nocivos causados por decisões automatizadas manipuladas. Para o professor da Universidade Federal de Viçosa, Diego Machado, as normas devem garantir que pessoas impactadas negativamente por uma decisão automatizada possam contestá-la.

“A recomendação da OCDE, no princípio da transparência e explicabilidade, é que esses sistemas de inteligência artificial devem possibilitar que as pessoas impactadas de forma adversa, de forma negativa, possam se opor, contestar esses resultados. Esse é um termo bastante amplo em termos computacionais, pode ser uma recomendação, pode ser uma predição, pode ser uma decisão”, afirma Machado. 

Citando um mapeamento segundo o qual o setor público brasileiro usa automatização para implantação de políticas públicas, a advogada e professora de Direito Digital do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP) e representante da Coding Rights, Bianca Kremer demonstra preocupação: “Os resultados iniciais consolidados em outubro de 2021 indicam que a maioria dos entes do setor público brasileiro já declarou testar ou utilizar algum tipo de inteligência artificial. Queremos, realmente, certas tecnologias de inteligência artificial no setor público? Quem são os atores interessados nos diferentes usos de tecnologias de inteligência artificial no setor público e que usos são esses? Há pessoas afetadas negativamente por essas tecnologias? Caso positivo, quem são e qual a extensão de violação dos direitos em jogo?”

Já Bruno Miragem, advogado e representante do Instituto Brasileiro de Política e Direito do Consumidor, Brasilcon, observa que o marco legal da Inteligência Artifical deve estar em harmonia com outras normas existentes, como o Marco Civil da Internet, a Lei Geral de Proteção de Dados (LGPD) e o Código de Defesa do Consumidor. Ele adverte que a automação pode prejudicar consumidores, como a recusa indevida de contratação de seguro a partir de informações do cliente que a seguradora possui.

Presidida pelo ministro do Superior Tribunal de Justiça (STJ) Villas Bôas Cueva, e relatada pela jurista Laura Schertel Mendes, professora de direito civil, a comissão tem até 30 de julho para concluir suas atividades. Após as discussões nas audiências públicas, os senadores vão elaborar substitutivo para os Projetos de Lei 5.051/2019, 21/2020 e 872/2021 – que têm como objetivos estabelecer princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil.

Até 10 de junho, a Comissão vai receber sugestões externas dentro dos eixos temáticos. As contribuições devem ser enviadas para o e-mail cjsubia@senado.leg.br ou para o Protocolo do Senado Federal (Ala Senador Alexandre Costa, Sala 15, subsolo).

Até o início de agosto, o colegiado deve elaborar um anteprojeto de marco regulatório para a inteligência artificial. O relator das propostas elaboradas pelos juristas será o senador Eduardo Gomes (MDB-TO).

Fonte: Agência Senado e STJ

Veja também

Não perca as notícias de geoinformação