O Brasil avança na consolidação de um marco legal para a inteligência artificial com a aprovação, pelo Senado Federal, do projeto de lei que regula o desenvolvimento e o uso dessa tecnologia no país. A proposta estabelece normas rigorosas para empresas e governos, buscando equilibrar a inovação tecnológica com a proteção de direitos fundamentais. O texto, que agora segue para análise na Câmara dos Deputados, surge em um momento de saturação de conteúdos sintéticos nas redes sociais, onde a distinção entre o real e o artificial torna-se um desafio crescente para a sociedade e para as instituições democráticas.
A nova legislação brasileira prevê a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que será responsável por fiscalizar o setor e aplicar sanções em caso de descumprimento das normas. As punições variam desde advertências até multas que podem atingir R$ 50 milhões ou 2% do faturamento da organização. Além do rigor financeiro, a estrutura regulatória contará com o apoio da Autoridade Nacional de Proteção de Dados (ANPD) e de um comitê de especialistas e cientistas para garantir que os sistemas de alto risco sejam monitorados e, se necessário, suspensos ou proibidos.
A maturidade da adoção dessa tecnologia no setor público brasileiro já é visível, com quase metade dos órgãos federais e 22% dos estaduais utilizando ferramentas de inteligência artificial desde 2021. De acordo com os dados da Estratégia Brasileira de Inteligência Artificial (Ebia), o uso é mais acentuado em áreas de controle e direito, como no Judiciário, onde 55% das instituições aplicam a tecnologia, seguido pelo Ministério Público com 50% e o Legislativo com 48%. Essa movimentação reflete as diretrizes da Estratégia Brasileira de Transformação Digital, que busca inserir o país na economia digital global através de competências específicas e metas de governança.
No campo ético e conceitual, a inteligência artificial é definida pelo filósofo Luciano Floridi como artefatos capazes de realizar tarefas em substituição aos humanos, com a capacidade singular de aprender e melhorar o próprio desempenho. Esse desenvolvimento retoma o debate iniciado pelo cientista britânico Alan Turing em 1950, que questionava se as máquinas poderiam pensar, e a conferência de Dartmouth em 1956, que cunhou o termo para evitar confusões entre mente humana e mecânica. Atualmente, fóruns internacionais como a União Europeia e a OCDE trabalham com princípios de benevolência e explicabilidade para assegurar que a autonomia tecnológica não resulte em danos sociais.
Apesar dos marcos regulatórios, a proliferação de vídeos hiper-realistas e conteúdos sintéticos, apelidados de slop, inunda as plataformas digitais e coloca em xeque a confiança pública. Pesquisas indicam que um em cada cinco vídeos exibidos pelo YouTube para novos usuários já é gerado por algoritmos, variando desde conteúdos inofensivos de objetos falantes até desinformações graves, como vídeos falsos de paralisações de agricultores ou resgates inexistentes de animais. Como explicou o repórter Roney Domingos, do Fato ou Fake, essas produções apelam à emoção para incentivar o compartilhamento rápido, exigindo ferramentas de checagem cada vez mais sofisticadas para desmascarar montagens criadas com IA.
O impacto dessa transformação estende-se à política e à cultura, onde críticos como o teórico Geert Lovink alertam que a fascinação pela inteligência artificial pode atuar como uma distração para problemas estruturais da internet, como o populismo de extrema direita e os preconceitos algorítmicos. O desafio futuro reside na capacidade das democracias de domesticar esses desenvolvimentos por meio de decisões políticas e intervenções criativas. Enquanto o mercado integra a IA em serviços cotidianos, desde a economia de energia até a recomendação de produtos, a sociedade permanece em busca de um equilíbrio entre o progresso técnico e a preservação da verdade factual.