Pacheco e Lira buscam concluir a tramitação do projeto que regula a tecnologia, prevendo responsabilidade de empresas por danos a terceiros e fiscalização do regramento para proteger grupos vulneráveis.
A inteligência artificial (IA) é um tema cada vez mais relevante no Brasil, e a comissão do Senado criada para analisar propostas de regulamentação da IA aprovou um projeto que estabelece regras para o uso dessa tecnologia no país. Esse é um passo importante para garantir que a IA seja utilizada de forma responsável e ética.
O projeto, relatado e costurado pelo senador Eduardo Gomes (PL-TO), é uma ferramenta importante para regular o uso da inteligência artificial no Brasil. A tecnologia de IA é uma ferramenta poderosa que pode ser usada para melhorar a vida das pessoas, mas também pode ter consequências negativas se não for utilizada de forma responsável. É fundamental que os sistemas de IA sejam projetados e implementados de forma a respeitar os direitos e a privacidade dos cidadãos. O projeto seguirá para votação no plenário principal da Casa, o que deve ocorrer na próxima terça (10).
Regulação da Inteligência Artificial no Brasil
A expectativa do presidente do Senado, Rodrigo Pacheco (PSD-MG), era de que o projeto de regulação da Inteligência Artificial (IA) fosse votado ainda nesta quinta-feira. No entanto, segundo lideranças partidárias da Casa, não houve acordo para a análise. O texto chegou a ser incluído na pauta do plenário, mas senadores manifestaram oposição à análise, citando a baixa presença física de parlamentares e o desconhecimento do texto, que havia sido aprovado há poucos minutos pela comissão.
Sem acordo, o plenário do Senado aprovou somente um requerimento que dá urgência à discussão do projeto. Pacheco e o presidente da Câmara, Arthur Lira (PP-AL), definiram a regulação da IA como uma das prioridades do Congresso neste ano. Para se tornar lei, o texto precisará ser aprovado pelo plenário do Senado e, depois, pelo conjunto dos deputados federais. Se não sofrer mudanças durante a passagem pela Câmara, a proposta seguirá para a sanção do presidente Luiz Inácio Lula da Silva (PT).
Desenvolvimento e Exploração de Sistemas de IA
O projeto estabelece balizas para o desenvolvimento e para a exploração de sistemas de Inteligência Artificial. Além disso, abre caminho para que as empresas respondam na Justiça por eventuais danos causados pela IA a terceiros. São definidas pela proposta, ainda, possíveis violações e punições aos responsáveis pela tecnologia, que tem se espalhado em diferentes formatos e aplicações nos últimos anos.
Segundo o texto, a fiscalização deste regramento caberá ao Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será criado a partir da eventual sanção da proposta. O SIA será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD). A proposta determina que a IA deverá seguir princípios, como a proteção de grupos vulneráveis e da democracia e a integridade da informação disponibilizada pela ferramenta.
Proteção de Grupos Vulneráveis e Direitos Autorais
Também deverão ser adotados mecanismos contra discriminação e ferramentas de supervisão humana. Pelo projeto, sistemas de Inteligência Artificial deverão ser identificados com um símbolo. Essa medida servirá para que usuários saibam que estão interagindo com uma ferramenta inumana. O texto assegura, ainda, direitos autorais aos conteúdos de terceiros utilizados para abastecer bancos de dados de aplicações de IA.
Pelo projeto, as desenvolvedoras de IA terão de remunerar os autores pelo uso de suas obras. As regras para a exploração da Inteligência Artificial no país serão baseadas no grau de risco do sistema. A avaliação levará em conta potenciais danos da tecnologia aos direitos fundamentais individuais e sociais.
Riscos e Classificação de Sistemas de IA
Durante a análise do projeto, o relator acolheu sugestões de mudanças — bem-recebidas pelas big techs, ou gigantes de tecnologia — para excluir ‘exigências excessivas’ na classificação dos riscos. No nível de alto risco, por exemplo, estarão as ferramentas utilizadas em dispositivos de segurança e infraestrutura, e no recrutamento de pessoas. Para os sistemas nessa categoria, deverá haver supervisão humana para ‘prevenir ou minimizar’ danos.
Fonte: © G1 – Tecnologia
Comentários sobre este artigo