A inteligência artificial (IA) deixou, ao longo dos últimos anos, de ser apenas um conceito futurista para se tornar efetivamente parte essencial do nosso cotidiano. Atualmente, ela está presente em softwares, sistemas e plataformas que aprendem continuamente com dados e reproduzem habilidades tipicamente humanas para executar tarefas complexas.
Ainda que a IA não seja uma novidade, o avanço exponencial da chamada inteligência artificial generativa, que é capaz de criar textos, imagens, vídeos e outros conteúdos, reacendeu, de forma intensa, debates antigos sobre ética, controle e impacto social dessas tecnologias. Ferramentas como o ChatGPT, por exemplo, colocaram definitivamente o tema no centro das discussões públicas e jurídicas, despertando ao mesmo tempo entusiasmo e preocupação. Diante disso, surge a pergunta: como garantir que o uso dessas tecnologias beneficie a sociedade sem, contudo, comprometer direitos fundamentais?
A necessidade de regulação
A IA é, antes de tudo, uma ferramenta. Seu impacto varia diretamente conforme quem a programa, a forma como é disponibilizada pelas empresas e, claro, a maneira como é utilizada por nós, os usuários. Dessa forma, o papel da regulação é justamente estabelecer limites éticos e jurídicos, de modo a garantir o uso responsável e evitar práticas nocivas, ao mesmo tempo em que não freia a inovação.
O objetivo das legislações sobre o tema é equilibrar dois polos:
- Promover o desenvolvimento tecnológico, fomentando pesquisa e inovação;
- Evitar abusos, como discriminação algorítmica, manipulação de dados e violações à privacidade.
Além disso, surge uma questão complexa: como definir a responsabilidade civil por danos decorrentes do uso da IA? E como evitar a concentração de poder em poucas empresas globais de tecnologia?
Esses desafios mostram que a regulação precisa ser dinâmica, adaptável e revisada constantemente conforme as tecnologias forem evoluindo.
O desafio de regular algo em constante mudança
Regular a inteligência artificial certamente não é uma tarefa simples. As tecnologias evoluem com tamanha rapidez que normas muito específicas acabam, muitas vezes, ficando obsoletas antes mesmo de entrarem em vigor. Diante desse cenário, muitos países têm optado por adotar cláusulas abertas, que são dispositivos legais capazes de permitir interpretações flexíveis diante de inovações futuras. Assim, o direito precisa correr lado a lado com a realidade tecnológica, e não permanecer correndo atrás dela.
Além disso, como as plataformas são globais, há o desafio da compatibilização internacional: uma mesma aplicação pode operar em diversos países, cada um com sua própria legislação e valores sociais.
A União Europeia se consolidou, ao longo dos últimos anos, como líder mundial na regulação de tecnologias. Após o sucesso do GDPR (Regulamento Geral de Proteção de Dados), que inclusive inspirou legislações como a LGPD brasileira, o bloco segue avançando agora com o AI Act, considerado o primeiro grande marco regulatório sobre inteligência artificial.
O AI Act se baseia em uma classificação de riscos, determinando o nível de controle conforme o impacto potencial da tecnologia:
- Riscos inaceitáveis: totalmente proibidos. Exemplos incluem o social scoring (classificação social de pessoas com base em comportamentos) e sistemas de manipulação de grupos vulneráveis, como crianças.
- Riscos altos: exigem cumprimento de regras rigorosas, especialmente em áreas sensíveis como segurança pública, migração, educação e infraestrutura crítica.
- Riscos limitados: demandam transparência — como no caso de chatbots que precisam informar ao usuário que estão sendo operados por IA.
- Riscos mínimos: dispensam obrigações específicas, como filtros de spam ou videogames.
Essa abordagem de risco orienta o uso ético e seguro da tecnologia, sem impedir a inovação.
O cenário brasileiro
No Brasil, o debate avança com o Projeto de Lei nº 2338/2023, de autoria do senador Rodrigo Pacheco. Inspirado na lógica europeia, o texto também adota uma classificação de riscos e prevê vedação a sistemas que representem riscos excessivos.
A proposta ainda está em discussão, mas sinaliza uma preocupação crescente com os impactos da IA e o interesse do país em adotar uma estrutura regulatória moderna e responsável.
Outros países em movimento
Diversos países vêm desenvolvendo suas próprias normas sobre IA, em estágios variados de avanço. É o caso de Chile, Israel, México e Tailândia, entre outros. Dois exemplos se destacam: China e Estados Unidos, líderes tecnológicos com abordagens bastante diferentes.
Desde 2021, a China vem implementando diretrizes que exigem:
- Abertura de algoritmos de recomendação para fiscalização governamental;
- Rotulagem obrigatória de conteúdos gerados por IA, como deepfakes;
- Registro de algoritmos junto ao governo;
- Medidas para prevenir práticas discriminatórias.
Essas iniciativas refletem a preocupação do país com o impacto social e político dos algoritmos, especialmente sobre a opinião pública. Nos EUA, ainda não há uma regulação federal abrangente. Contudo, a Casa Branca publicou dois importantes documentos:
- O Blueprint for an AI Bill of Rights, um guia de boas práticas sem força vinculante;
- Uma ordem executiva (2023) sobre o desenvolvimento seguro e confiável da IA, aplicável à administração pública.
Embora o país adote um modelo mais descentralizado e flexível, há expectativa de que, em breve, surja uma norma federal mais robusta.
Um futuro em constante construção
O debate sobre a regulação da inteligência artificial ainda está em seus estágios iniciais, e o que se observa é claramente uma preocupação global com os riscos do uso disfuncional dessas tecnologias. Ao mesmo tempo, a busca por um equilíbrio entre inovação e proteção de direitos tem se consolidado como um ponto central de atenção.
No contexto brasileiro, é essencial acompanhar atentamente o que funciona no exterior e adaptar essas experiências às particularidades locais, mantendo, assim, o foco em dois pilares:
- Fomento à inovação tecnológica, fortalecendo o ecossistema nacional;
- Proteção da dignidade humana, conforme os princípios constitucionais que regem nossa sociedade.
A regulação da inteligência artificial é um campo em evolução contínua e inevitável. À medida que novas tecnologias surgem, será necessário avaliar e ajustar as normas, garantindo que o avanço tecnológico caminhe lado a lado com o respeito aos direitos humanos.
Como destaca Fernanda Cohen, “ainda teremos muito a discutir sobre o tema — e, com certeza, novos capítulos dessa história serão escritos nos próximos anos.”
Por Fernanda Cohen – Advogada. Especialista em litígios de tecnologia e PI
Este artigo foi adaptado a partir do conteúdo em vídeo publicado no canal do Portal Intelectual no YouTube. Assista o vídeo – Clique aqui