• Conheça nosso jeito de fazer contabilidade

    Lorem ipsum dolor sit amet, consectetur adipiscing elit. Vestibulum sit amet maximus nisl. Aliquam eu metus elit. Suspendisse euismod efficitur augue sit amet varius. Nam euismod consectetur dolor et pellentesque. Ut scelerisque auctor nisl ac lacinia. Sed dictum tincidunt nunc, et rhoncus elit

    Entenda como fazemos...

Notícia

Se a lei de IA entrasse em vigor hoje, sua empresa estaria pronta?

Com a regulação ganhando forma, o desafio das empresas passa a ser mapear, controlar e responder pelo uso de IA já em operação

Enquanto o debate regulatório avança, a inteligência artificial já opera dentro das empresas, muitas vezes sem controle, sem rastreabilidade e sem supervisão. É nesse descompasso entre o uso real da tecnologia e a capacidade das empresas de governá-la que está o principal risco do momento. A tramitação do PL 2338/2023 não cria esse cenário, mas escancara algo que já vinha acontecendo e que, em breve, será regulado.

Da construção regulatória à realidade operacional

A evolução do PL 2338/2023 muda de forma definitiva a maneira como o Brasil passa a tratar a inteligência artificial. O país deixa de discutir se deve regular e passa a lidar com um desafio mais real, e mais difícil: como governar uma tecnologia que já está em operação dentro das empresas.

Inspirado em modelos como o AI Act, o projeto adota um modelo baseado em risco, classificando sistemas conforme seu potencial de impacto, com exigências mais rigorosas para os considerados de alto risco.

O que, na prática, a lei passa a exigir

A estrutura do PL 2338/2023 não é extensa por acaso. Ela consolida exigências que, na prática, demandam mudanças estruturais nas empresas.

Mais do que o número de artigos, o que importa é o tipo de obrigação que passa a existir: identificar e classificar sistemas de IA por nível de risco, realizar avaliações de impacto para usos críticos, garantir transparência e explicabilidade das decisões automatizadas, definir responsabilidades ao longo da cadeia e estruturar práticas contínuas de governança.

Na prática, isso significa que o uso de IA deixa de ser isolado e passa a exigir coordenação, controle e prestação de contas.

O que o mercado ainda está subestimando

O ponto que o mercado mais erra hoje é tratar esse avanço como algo distante.

A inteligência artificial já está espalhada pelas empresas, muitas vezes sem inventário, sem governança e sem supervisão estruturada. É o fenômeno que começa a ganhar nome: shadow AI.

Nesse contexto, a lei não cria o problema, ela revela um problema que já existe. O risco deixa de ser tecnológico e passa a ser decisório, reputacional e fiduciário.

Esse cenário não é hipotético. Ele já pode ser observado em áreas como atendimento ao cliente, marketing, análise de crédito e decisões operacionais, onde ferramentas de IA vêm sendo adotadas sem qualquer estrutura formal de governança.

E se a lei entrasse em vigor amanhã?

O impacto não estaria na tecnologia, e sim no quanto as empresas ainda não estão preparadas para governá-la. Grande parte das empresas descobriria que não possui estrutura mínima para responder às exigências básicas de governança. Os efeitos seriam imediatos.

A exposição invisível se tornaria risco formal. Sistemas de IA em uso não estariam mapeados, decisões automatizadas não seriam rastreáveis e não haveria clareza sobre responsabilidades internas. Ao mesmo tempo, surgiria uma ruptura operacional. Áreas distintas utilizariam IA sem alinhamento, sem políticas comuns e sem qualquer padronização de controles.

Além disso, as empresas passariam a lidar com diferentes pressões regulatórias ao mesmo tempo, conectando o uso de IA a regimes já existentes, como proteção de dados e relações de consumo.

O Brasil no contexto global

Diferentemente da Europa, com modelo mais prescritivo, e dos Estados Unidos, com abordagem fragmentada, o Brasil caminha para um modelo híbrido, baseado em princípios e execução descentralizada.

Na prática, isso transfere maior responsabilidade para as empresas e posiciona a regulação como um mecanismo de indução de governança corporativa.

O verdadeiro ponto de ruptura

Durante anos, a inteligência artificial foi tratada como uma alavanca de eficiência. Agora, passa a se tornar uma nova fonte relevante de risco. O ponto de ruptura não está na tecnologia, mas na capacidade das organizações de compreender, mapear e governar o uso que já fazem dela.

Conclusão

A discussão sobre IA no Brasil já não é teórica, é prática e inevitável. Empresas não serão cobradas por usar inteligência artificial, mas por não saberem como usam. A verdade é que o problema nunca foi a tecnologia. O problema é que as empresas avançaram mais rápido no uso do que na capacidade de governar.

E é exatamente aí que a atenção das empresas precisa começar.