Modelos Jurídicos de IA: Notícias Falsas, Deep Fakes e suas Implicações

Kim Doo-sik, CEO do Instituto Tech & Trade, escreveu artigo para a Kores JoongAng Dayli falando sobre os desafios da Inteligência Artificial, incluindo os riscos sociais causados que incluem notícias falsas, deep fakes, discriminação, violação de privacidade e perda de empregos. Notícias falsas e deep fakes, em particular, podem destruir a confiança entre os membros da sociedade e ameaçar o sistema democrático baseado em eleições justas. Faltam menos de 10 meses para as eleições presidenciais dos Estados Unidos em 5 de novembro — e menos de três meses para as eleições parlamentares de 10 de abril na Coreia —, as agências de aplicação da lei de ambos os lados estão em alerta contra a possibilidade de notícias falsas e deep fakes abalarem a sociedade.

No filme “O Exterminador do Futuro”, Skynet — um sistema de computador altamente avançado com inteligência artificial — busca desesperadamente aniquilar a humanidade. A IA pode sair do controle humano para fazer isso? Alguns cientistas afirmam que uma IA super destrutiva e totalmente além do controle humano não pode aparecer, mas muitos desenvolvedores de IA confessam que, em muitos casos, não conseguem prever a capacidade criativa que a IA baseada em modelos de linguagem de grande porte pode acabar tendo. Os desenvolvedores concordam que não têm a tecnologia para compreender totalmente ou controlar a função interna da IA. Isso significa que estamos indo para a destruição?

Gostou desta notícia? Clique aqui e receba na hora pelo WhatsApp

Leia mais:

TSE deve aprovar regras para uso da inteligência artificial na eleição
IBGE, Unicamp e UFG desenvolverão Inteligência Artificial aplicada às políticas públicas
QGPT Agent: OpenAI lança plugin de inteligência artificial para QGIS

“Decreto Executivo sobre o Desenvolvimento Seguro, Seguro e Confiável da Inteligência Artificial”, promulgado pelo presidente dos Estados Unidos, Joe Biden, em 30 de outubro, acomoda todos os riscos relacionados à IA que foram levantados e garante que mais de dez departamentos e agências analisem os riscos da IA como parte de seu trabalho e elaborem respostas eficazes. Para o Quadro de Gerenciamento de Riscos de IA do Instituto Nacional de Padrões e Tecnologia (NIST), em particular, Biden exigiu que ele avalie os perigos da IA e apresente os procedimentos e padrões para verificar a confiabilidade da IA dentro de 270 dias. Em um desenvolvimento notável, o presidente também ordenou que os desenvolvedores de “modelos de fundação de uso duplo” — ou modelos de IA que podem ser usados para segurança militar, segurança econômica ou fins de saúde pública — conduzam “testes de red-team”, ou “testes estruturados para encontrar falhas no sistema”.

A ordem executiva dos EUA para proteger a segurança nacional contra riscos de IA contrasta com o AI Act da UE, que prioriza a proteção dos direitos individuais, e com o decreto de IA da China, que protege o socialismo. Mas, basicamente, não há grande diferença, já que eles exigem que instituições governamentais ou desenvolvedores de IA avaliem e verifiquem os perigos da IA. Em resumo, classificar os riscos da IA primeiro e estabelecer os padrões e procedimentos necessários para avaliar a confiabilidade dos sistemas de IA é o ABC das regulamentações da IA.

A disputa pela hegemonia EUA-China na área de IA determinará o futuro da economia global de IA. Como a IA constitui um caso clássico de tecnologia de “uso duplo”, ela está destinada a estar no centro da guerra pela hegemonia tecnológica. Apesar da veemente resistência da Nvidia e de outros fabricantes de chips dos EUA, o governo dos EUA impôs em outubro uma proibição colossal à exportação de equipamentos necessários para produzir chips de ponta — e uma proibição total de chips de IA. A ordem executiva de AI de Biden também restringiu o acesso das empresas de IA chinesas aos provedores de serviços em nuvem dos EUA para aprendizado de máquina.

Para ler o artigo no original, clique aqui.

Veja também

Não perca as notícias de geoinformação