O relatório aprovado pela comissão especial excluiu os algoritmos de redes sociais das atividades de risco alto, incluindo serviços das big techs como Meta e Microsoft. Ou seja, os serviços destas empresas sofrerão menos restrições caso o projeto seja aprovado.
Quanto à fiscalização, busca assegurar transparência no uso de dados pessoais garantindo que os indivíduos possam optar pela exclusão das informações. Cidadãos prejudicados poderão recorrer à Justiça para obter explicações sobre decisões automatizadas.
O texto aprovado indica que infringir a legislação será ível de multa, que varia conforme cada caso e poderá chegar a até R$ 50 milhões. Entre as sanções para quem descumprir as regras está a perda do direito de realizar testes com a IA no país, o que resulta na ilegalidade da operação da ferramenta no Brasil.
Sobre o uso de dados para o treinamento das IAs, o projeto indica que a Lei de Geral de Proteção de Dados (LGPD) deve ser seguida. Os desenvolvedores devem esclarecer aos usuários as informações utilizadas, sua finalidade e receber o consentimento.
Entre as áreas de alto risco estão controle de trânsito, abastecimento de água e energia, classificação de chamadas prioritárias em serviços de urgência como bombeiros e Serviço de Atendimento Móvel de Urgência (Samu), diagnóstico e procedimentos médicos e seleção de estudantes em vestibulares.
O projeto prevê o reconhecimento biométrico à distância em locais públicos, para mapear emoções e perfis comportamentais a fim de evitar crimes. A ferramenta não poderá, no entanto, operar para gerar provas em inquéritos policiais, por exemplo.
O governo deverá criar programas de letramento digital e capacitação profissional em IA, além de inserir o tema no ensino público. Medidas para apoiar trabalhadores impactados pela tecnologia também são previstas, sem detalhamento de prazos.