top of page
  • Foto do escritorCEASP

A regulamentação da IA no Brasil

O que prevê o PL 2338

Robô com máscara humana
Foto de Possessed Photography na Unsplash

É fato que a pauta sobre inteligência artificial (IA) tem incentivado discussões sobre sua regulamentação no mundo inteiro; aqui no Brasil, os principais projetos de lei elaborados sobre a regulamentação da IA são os 5051/2019, 21/2020 e 872/2021.


O PL 21/2020, aprovado em regime de urgência na Câmara dos Deputados, foi considerado simplista e generalista. A rapidez na aprovação resultou em falta de debate público e aprofundamento no tema e reconhecimento das reais implicações na prática.


Por conta disso, em fevereiro de 2022 o Senado criou uma Comissão de Juristas para elaborar uma minuta de substitutivo. Essa comissão publicou um relatório final sobre o tema em dezembro do mesmo ano, que se transformou no PL 2338/2023 – chamado Marco Legal da Inteligência Artificial.


O Marco Legal da IA se baseou em riscos e direitos, com obrigações mais rígidas para agentes/operações com grau mais elevado de risco, próximo ao formato utilizado na União Europeia. O novo texto estabelece que pessoas afetadas por sistemas de IA possuem diversos direitos, tais como informação prévia sobre as suas interações com esses sistemas, explicação sobre decisões ou recomendações tomadas por sistemas de IA, direito à contestação de decisões ou recomendações que produzam efeitos jurídicos ou impactos significativos nos interesses das pessoas afetadas, participação humana nas decisões tomadas a partir da IA, correção de vieses discriminatórios, ilegais ou abusivos, e direito à privacidade e proteção de dados pessoais.


O PL 2338 proíbe a implantação de sistemas que incluam técnicas subliminares que possam induzir as pessoas a se comportarem de forma prejudicial ou perigosa à saúde e à segurança, ou que explorem vulnerabilidades de grupos específicos. Também está proibido o uso pelo poder público para classificar ou ranquear pessoas. O reconhecimento facial em vias públicas deve ser analisado com cuidado, considerando-se em especial, questões de racismo algorítmico.


Todo sistema de IA deve ser avaliado para indicação do grau de risco; vale reforçar que o Marco Legal da IA ainda não definiu quem será a autoridade competente responsável pela análise e reclassificação das avaliações.


O projeto considera de alto risco os sistemas de IA usados para finalidades como segurança de infraestrutura, educação, formação profissional, recrutamento e avaliações, prioridade em emergências, aplicações na área da saúde, investigação criminal, segurança pública, sistemas biométricos e controle de fronteiras – áreas consideradas sensíveis. Especialmente nestes casos, a PL prevê obrigatoriedade de avaliação do impacto algorítmico feito por profissional técnico competente e independente do desenvolvedor do sistema.


Apesar do Marco Legal da IA ser uma grande evolução em relação aos projetos iniciais, a pauta ainda deve receber melhorias pós consultas públicas. Também é importante que seja estabelecido quem será a autoridade competente por regular a matéria, de forma a viabilizar a aplicação do PL tão logo entre em vigor.



Nota do CEASP:

A Inteligência Artificial é um tema de forte debate internacional e que não é entendido em sua totalidade. Uma coisa, no entanto, já é sentida: na influência que tem nas relações de trabalho e emprego, especialmente as pautadas em uso de mão-de-obra massiva e de menor complexidade, trabalhos com pouco agregado intelectual e automatizáveis eletronicamente. Por isso precisamos estabelecer bons parâmetros de seu uso e na defesa do trabalho humano como índice de manutenção da dignidade da vida sustentável em sociedade, que tem no trabalho do homem um esteio e um direito fundamental.

6 visualizações0 comentário
bottom of page