Notícias

Tecnologia

Senador lê relatório de projeto para regular IA com garantia de direitos autorais e trava contra indução de comportamento


Texto tramita na Comissão Temporária de Inteligência Artificial do Senado. Segundo o presidente da comissão, senador Carlos Viana (Podemos-MG), o projeto deve ser votado na próxima terça-feira. Imagem gerada por inteligência artificial.
Banco de imagem gerado por IA
O senador Eduardo Gomes (PL-TO) leu, nesta quarta-feira (28) a quarta versão de seu relatório sobre o projeto que vai regulamentar o uso de inteligência artificial (IA) no Brasil.
O texto tramita na Comissão Temporária de Inteligência Artificial do Senado. Segundo o presidente da comissão, senador Carlos Viana (Podemos-MG), o projeto deve ser votado na próxima terça-feira (3).
A proposta serve para definir os limites e as permissões para o uso da tecnologia, que vai desde uma busca no Google ou a redação de um artigo no ChatGPT até a captura de fugitivos da Justiça.
Caso aprovado na comissão, o texto ainda terá de passar pelos plenários do Senado e da Câmara, e ser sancionado pelo presidente Lula, para virar lei.
Proibições
O relatório estabelece condutas proibidas para as plataformas responsáveis por IA. Entre elas, estão:
🚫 técnicas subliminares para induzir o comportamento do usuário ou de grupos de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;
🚫 exploração de vulnerabilidades dos usuários;
🚫 avaliação, por parte do governo, de cidadão, por meio de seu comportamento social e personalidade, na hora de oferecer serviços e políticas públicas;
🚫 sistema que produza ou dissemine material de abuso e exploração sexual de crianças e adolescentes;
🚫 tecnologia que considere ficha criminal e traços de personalidade para supor e prever risco de cometimento de crime ou reincidência;
🚫 utilização da IA como armas autônomas, que selecionam alvos e atacam sem a intervenção humana.
O uso de identificação biométrica à distância, em tempo real, em espaços públicos será permitido apenas para captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão. O uso para colher provas em inquéritos policiais também será permitido apenas com autorização judicial e quando não houver outros meios.
Direitos autorais
O texto assegura os direitos autorais de empresas jornalísticas, escritores e artistas. Pelo projeto, as big techs, como Google e Microsoft, precisariam de autorização do autor para usar conteúdos protegidos na hora de gerar respostas.
De acordo com a proposta, as empresas que desenvolvem e aplicam IA teriam de pagar uma remuneração aos autores para poder ter as produções disponíveis em seus bancos de dados.
O texto estabelece que o cálculo da remuneração “considere os princípios da razoabilidade e da proporcionalidade e elementos relevantes, tais como a complexidade do sistema de IA desenvolvido, o porte do agente de IA, o ciclo de realização econômica dos sistemas de IA, o grau de utilização dos conteúdos, o valor relativo da obra ao longo do tempo e os efeitos concorrenciais dos resultados em relação aos conteúdos originais utilizados”.
Sanções
O relator manteve uma das propostas vindas de Pacheco, que possibilita a aplicação de multa de até R$ 50 milhões ou 2% do faturamento, em caso de pessoa jurídica, para cada violação cometida pelas empresas de tecnologia.
Outras sanções previstas são:
▶️ suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA
▶️ proibição de tratamento de determinadas bases de dados
▶️ proibição ou restrição para participar de regime de sandbox regulatório por até cinco anos
Procedimentos de alto risco
O texto determina atividades de inteligência artificial consideradas de alto risco. Apesar de vedar o sistema de prever crimes com base nos traços físicos e de personalidade, o texto libera o uso de IA, por autoridades, para avaliar a credibilidade de provas da investigação e de repressão de infrações. Segundo o texto, o objetivo seria “prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares”.
Também fica autorizado, desde que classificado como de alto risco, o reconhecimento de emoções. Neste caso, fica excluído sistema de autentificação biométrica para confirmar uma pessoa específica, singular.
Entre os procedimentos de alto risco estão:
▶️ gestão da imigração e controle de fronteiras para avaliar o ingresso de pessoa ou grupo de pessoas em território nacional;
▶️ aplicações na área da saúde para auxiliar diagnósticos e procedimentos médicos, quando houver risco relevante à integridade física e mental das pessoas;
▶️ controles de trânsito, redes de abastecimento de água e eletricidade;
▶️ informações para acesso de estudantes a cursos técnicos e universidade;
▶️ critérios de acesso à concessão de benefícios, como revisão de cadastros no Bolsa Família ou até apuração de fraudes em atestados do INSS;
▶️ recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho.
Sistema de regulação
O projeto cria um órgão para fiscalizar o uso de IA no Brasil, o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Segundo o texto, o sistema será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD).
Caberá ao SIA regulamentar as inteligências artificiais de alto risco que, por exemplo, impactem negativamente no exercício de direitos e liberdades dos usuários.
O texto prevê ainda a possibilidade de empresas de IA se associarem para criar uma espécie de agência privada para a autorregulação do sistema. De acordo com o texto, a autorregulação poderá estabelecer critérios técnicos dos sistemas para questões como:
▶️ compartilhamento de experiências sobre o uso de inteligência artificial;
▶️ definição contextual de estruturas de governança;
▶️ atuação da autoridade competente e demais agências e autoridades do SIA para emprego de medida cautelar; e
▶️ canal de recebimento de informações relevantes sobre riscos do uso de inteligência artificial por seus associados ou qualquer interessado

​