Por Pedro Capello* — A recente revogação, pelo governo norte-americano, de um decreto do ex-presidente Joe Biden — que visava garantir o uso seguro, protegido e confiável da IA nos EUA — representa uma mudança substancial na política do país, ao extinguir, em nível federal, o arcabouço regulatório que Biden havia implementado para coordenar o setor de inteligência artificial. Na prática, as empresas que atuam com IA podem agora enfrentar um cenário de incerteza regulatória, dado o risco de surgirem padrões díspares tanto em âmbito estadual quanto internacional.
Sem um direcionamento federal unificado, diferentes estados e órgãos reguladores estrangeiros poderão estabelecer exigências diversas, ampliando a complexidade do compliance para organizações que desenvolvem e aplicam IA. Além disso, a falta de diretrizes uniformes pode gerar lacunas na governança de dados, aumentando o risco de vieses, falhas de segurança cibernética e uso indevido de informações sensíveis.
Não obstante, empresas que adotarem padrões internos mais elevados de ética e segurança de dados, ou aquelas sediadas em países como o Brasil — que já possuem ou estão implementando legislações abrangentes para regulamentar o uso e o desenvolvimento de sistemas de IA —, podem enfrentar desvantagens competitivas em relação àquelas que seguirem critérios menos rigorosos.
No âmbito nacional, em 10 de dezembro de 2024, o Congresso Nacional aprovou o PL 2338/23 (“PL”), que estabelece normas gerais para o desenvolvimento e o uso ético e responsável da IA. Em contraste com a recente revogação da ordem executiva de Joe Biden nos EUA, essa legislação reforça a centralidade da pessoa humana e a proteção de direitos fundamentais como pilares da governança, além de introduzir a figura do Sistema Nacional de Regulação e Governança de Inteligência Artificial (“SIA”).
O PL tem como objetivo definir diretrizes para a implementação de sistemas de IA seguros e confiáveis, alinhados ao respeito à privacidade, à inclusão e à não discriminação. A proposta também prevê a classificação de sistemas de alto risco e medidas como avaliações de impacto algorítmico, além de exigir transparência nos processos decisórios automatizados e naqueles empregados no funcionamento de infraestruturas críticas, como o controle de trânsito e redes de abastecimento de água e eletricidade.
Diante de um cenário de rápidas transformações globais e inovações disruptivas — já evidenciado nos últimos anos pela disseminação de ferramentas de IA —, a decisão do novo governo dos Estados Unidos e a recente aprovação do PL no Brasil revelam caminhos contrastantes na abordagem regulatória da tecnologia. Enquanto o Brasil busca estabelecer um arcabouço sólido que equilibre inovação tecnológica e proteção de direitos fundamentais, a revogação da regulamentação norte-americana reabre o debate sobre a relação entre liberdade regulatória e os riscos éticos e sociais associados ao desenvolvimento da IA.
Esses movimentos ressaltam a importância de refletir sobre as prioridades que cada país define em relação à inteligência artificial: como promover avanços tecnológicos sem comprometer valores éticos e democráticos? A resposta a essa pergunta moldará o impacto da IA em nossas sociedades e os desafios que teremos de enfrentar no futuro.
*Advogado no DSA Advogados – Donelli, Nicolai e Zenid Advogados