A proposta serve para definir tanto os limites quanto às permissões para o uso da tecnologia. A ferramenta tem várias aplicações cotidianas, como em pesquisas em páginas de busca, redação e ajustes em textos ou uso de assistentes em redes sociais que respondem a perguntas e criam imagens a pedido.
O texto aborda ainda outros usos, como a realização de serviços de infraestrutura – controle de trânsito e abastecimento de água e energia, por exemplo – e segurança, no caso de identificação de padrões comportamentais e prevenção de crimes.
O projeto foi apresentado em 2023 pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), e é uma das pautas que o senador trabalhou para aprovar antes do fim do seu mandato na Presidência, que se encerra em fevereiro. A matéria foi relatada por Eduardo Gomes (PL-TO).
As novas regras não vão valer para o uso privado- quando a pessoa usa para o próprio consumo-, para fins de defesa nacional nem para testes de sistemas de IA que ainda não entraram no mercado. O foco da matéria é o uso comercial da tecnologia.
Pelo projeto, sistemas de inteligência artificial deverão ser identificados com um símbolo para que usuários saibam que estão interagindo com uma ferramenta inumana. Um rótulo único poderá ser criado.
Ferramentas de IA generativa, que criam novos conteúdos baseados em vídeos, imagens e vozes de pessoas reais, terão de disponibilizar acesso aos conteúdos originais.
Alto risco
As big techs ou gigantes da tecnologia – Google, Microsoft e Meta – ficaram de fora da classificação de atividades de “alto risco”, que sofrem mais restrições.
O texto permite, portanto, a identificação biométrica à distância, em tempo real, em locais públicos, para captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão. Ainda autoriza o uso da tecnologia para contribuir com investigações, desde que com autorização da Justiça, e buscar vítimas de crimes e pessoas desaparecidas.
Entidades, como a Coalizão Direitos na Rede, alertam sobre o potencial “discriminatório” da tecnologia que atinge principalmente a população negra.
Pelo texto aprovado, o reconhecimento facial para colher provas e auxiliar prisões fica permitido, mas com restrições do uso em tempo real.
Entraram nesse grupo de “alto risco”, no âmbito da segurança pública:
– Identificação biométrica para reconhecimento de emoções, desde que não seja para confirmar uma pessoa específica;
– Pesquisa, por polícias, em bancos de dados para identificar padrões e perfis comportamentais que auxiliem na investigação de crimes;
– Avaliação de provas, com objetivo de prever crimes ou a “recorrência” de infrações com base na “definição de perfis” de pessoas específicas.
Em outras áreas, serão consideradas de alto risco, entre outras:
– Controle de trânsito e abastecimento de água e energia;
– Avaliação e classificação de chamadas prioritárias em serviços essenciais, como bombeiros e SAMU;
– Auxílio em diagnósticos e procedimentos médicos;
– Tomada de decisão na seleção de estudantes em vestibulares.
Neste caso, de sistemas de IA de alto risco, as decisões virão, preferencialmente, após supervisão humana, para minimizar riscos para direitos e liberdades de grupos que possam ser afetados.
Mas haverá exceções. “A supervisão humana não será exigida caso sua implementação seja comprovadamente impossível ou implique esforço desproporcional, hipóteses em que o agente do sistema de IA de alto risco implementará medidas alternativas eficazes”, diz o texto.
Direito Autoral
Artistas estiveram nesta terça no Senado em reunião com Pacheco e o relator do texto, Eduardo Gomes. Participaram o ator Paulo Betti; os cantores Otto, Paula Lima, Marina Sena e Paula Fernandes; e a produtora Paula Lavigne.
O grupo veio pedir a manutenção do direito autoral na proposta, o que garante aos autores das obras uma remuneração, caso sejam usadas pelas plataformas. Isso ocorreu. O projeto passou com esse ponto.
O Senado aprovou as seguintes garantias no tema:
– A big tech precisará informar, ainda no treinamento do sistema de IA, quais conteúdos protegidos por direitos autorais foram usados;
– O autor da obra, se preferir, poderá proibir o uso do conteúdo;
– O órgão regulador da IA no país vai criar um ambiente experimental para que as empresas de tecnologia possam negociar o valor dos pagamentos que serão feitos aos reais autores das obras usadas;
– O dono da obra poderá negociar e liberar o conteúdo de forma direta ou coletiva, se unindo a outros autores numa associação de titulares de diretos conexos, por exemplo. O cálculo dessa remuneração precisa considerar: o poder econômico da empresa de tecnologia, a frequência e quantidade de uso do conteúdo protegido e até efeitos de concorrência entre o material gerado por IA e a obra original;
– Fica autorizado o uso, mesmo de conteúdos protegidos, no caso de pesquisa e desenvolvimento de sistema de IA por organizações e instituições de pesquisa, jornalismo, museus, arquivos, bibliotecas e educacionais. Neste cenário, a atividade não pode concorrer com a venda da obra original e nem ter “fins comerciais”.
O direito autoral é uma cláusula pétrea- permanente, que não pode ser mudada- da Constituição.
A legislação específica sobre direitos autorais, de 1998, já diz que o autor precisa autorizar o uso da sua obra, inclusive para tecnologias “que venham a ser inventadas”.
De acordo com a norma, o titular, se a obra for ilegalmente reproduzida, pode solicitar “a apreensão dos exemplares reproduzidos ou a suspensão da divulgação, sem prejuízo da indenização cabível”.
O Código Penal também pune, com reclusão de 2 a 4 anos e multa reprodução total ou parcial da obra, sem autorização, com intuito de lucro.
O Poder Executivo poderá criar o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), para fiscalizar e detalhar as novas regras.
O diretor do Instituto de Tecnologia e Sociedade do Rio, o advogado Ronaldo Lemos, entende que o projeto pode abrir brecha para que esta regra da remuneração retroaja. Isso quer dizer que autores de obras que já foram usadas para treinar programas de IA, mesmo antes de o texto virar lei, poderão solicitar o pagamento.
Ele explica que criar esse ambiente de negociação (sandbox regulatório) entre autores das obras e empresas de IA é uma novidade brasileira, que pode ser positiva. Mas, de acordo com ele, difícil será medir em valores o impacto da concorrência direta entre um conteúdo original e um conteúdo manipulado.
“Nenhum país adota ainda sandboxes como os descritos no projeto brasileiro. A ideia de vincular a remuneração à concorrência entre a obra original e o conteúdo gerado por IA é interessante, mas traz complexidade: como medir o impacto e determinar o valor justo? Isso dependerá de critérios claros e mecanismos robustos de mediação”, afirma o especialista.
“Na Europa, a regulamentação exige transparência e prevê exceções para pesquisa científica, mas não resolve completamente a remuneração dos criadores. É um tema ainda em aberto. Já o Japão adota uma postura mais flexível, permitindo o uso de obras protegidas no treinamento de IA sem necessidade de autorização, desde que não haja prejuízo à exploração comercial da obra”, complementa.
Segundo Lemos, a proposta não foi desenhada originalmente para regular big techs, que foram inseridas depois. Por conta disso, “questões como concentração de mercado e controle de plataformas exigiriam marcos que são diferentes da regulação específica da IA”.
Punições
A companhia que descumprir as regras poderá ser punida de forma administrativa, além da responsabilização civil, no Judiciário, por danos a terceiros.
Poderá ser aplicada multa de até R$ 50 milhões — ou 2% do faturamento – para cada violação cometida pelas empresas de tecnologia.
Outras sanções previstas são:
– Suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA;
– Proibição de tratamento de determinadas bases de dados; e
– Proibição ou restrição para participar de regime de sandbox regulatório por até cinco anos.
FONTE: Folha Max