A Casa Branca introduziu uma proposta de estrutura de política de IA destinada à consideração do Congresso, com o objetivo de limitar a legislação de IA a nível estadual, mantendo uma estrutura de supervisão federal centralizada através de agências existentes.
A proposta está enraizada numa ordem executiva assinada em dezembro pelo Presidente Donald Trump, que procurou restringir os estados de regular independentemente a inteligência artificial. A estrutura aborda uma ampla gama de questões, incluindo infraestrutura de dados, riscos algorítmicos e fraude relacionada com IA.
Espera-se que a política influencie a trajetória mais ampla da liderança dos EUA em inteligência artificial, um setor cada vez mais integrado na atividade económica, mercados de trabalho e sistemas de informação. Ao mesmo tempo, a rápida implementação de tecnologias de IA continua a levantar preocupações em torno da segurança, responsabilidade e uso indevido, à medida que as empresas aceleram a adoção.
A administração delineou seis prioridades fundamentais para os legisladores, com o objetivo de equilibrar o avanço tecnológico com a confiança pública e a consistência regulatória. Estas incluem expandir ferramentas de supervisão parental para ambientes digitais infantis, simplificar processos de licenciamento para o desenvolvimento de centros de dados e fortalecer mecanismos de aplicação contra fraudes impulsionadas por IA.
A estrutura também propõe uma abordagem regulatória à propriedade intelectual que permite que sistemas de IA sejam treinados em dados do mundo real, mantendo proteções para criadores de conteúdo. Apela ainda a restrições sobre a influência governamental sobre fornecedores de tecnologia, incluindo a prevenção de qualquer coerção que obrigaria plataformas a alterar ou restringir conteúdo com base em considerações políticas ou ideológicas.
A administração recomenda que a supervisão de IA seja distribuída por reguladores específicos do setor, em vez de centralizada sob uma única autoridade federal, ao mesmo tempo que encoraja a preempção de leis estaduais que regem o desenvolvimento de modelos de IA. Isto reflete um esforço para padronizar a supervisão e reduzir a fragmentação entre jurisdições.
Os sistemas de IA já estão a operar com regulamentação abrangente relativamente limitada, apesar do seu papel crescente em áreas como saúde, comunicações e serviços públicos. Em resposta, vários estados promulgaram leis direcionadas abordando riscos como deepfakes, viés algorítmico e discriminação no emprego.
Os defensores da abordagem federal argumentam que um mosaico de regulamentações estaduais poderia dificultar a inovação e reduzir a competitividade dos Estados Unidos na corrida global de IA, particularmente em comparação com a China. No entanto, os críticos alertam que restringir a ação a nível estadual pode reduzir vias de responsabilização e limitar salvaguardas contra potenciais danos.
Preocupações foram levantadas por observadores da indústria e especialistas em políticas que argumentam que a estrutura não aborda suficientemente a responsabilidade ou a proteção do consumidor. Outros traçaram paralelos com debates anteriores sobre a regulamentação das redes sociais, sugerindo que a proposta carece de mecanismos de aplicação detalhados.
Ao mesmo tempo, os apoiantes da redução da fragmentação regulatória acolheram a iniciativa, descrevendo-a como um passo em direção a normas nacionais mais claras e regras mais previsíveis para programadores e investidores. A administração indicou que continuará a trabalhar com o Congresso para refinar a estrutura em legislação formal, embora o progresso legislativo permaneça incerto antes das próximas eleições.
A publicação A Casa Branca Lança Plano de Política de IA para o Congresso Centralizar a Supervisão Federal e Limitar Leis Estaduais apareceu primeiro em Metaverse Post.


