Como Pais Podem Ajudar Seus Filhos a Usarem IA Generativa com Responsabilidade
7 de julho de 2024Em meio a tantas discussões sobre o impacto da tecnologia no cotidiano, especialmente em relação às chamadas “Fake News“ disseminadas por aplicativos de mensagens e redes sociais, a Inteligência Artificial também se tornou o novo alvo de críticas e tentativas de controle. A justificativa? Alguns argumentam que tecnologias de IA, com sua capacidade de gerar textos, imagens e até vídeos hiper-realistas, estão contribuindo para a criação e disseminação de conteúdos falsos, manipulando narrativas e amplificando desinformação em uma escala sem precedentes. Essa preocupação tem alimentado debates intensos sobre o papel ético dessas tecnologias e a necessidade de regulamentações que limitem seus potenciais impactos negativos.
É inegável que, ao longo da história, todas as tecnologias criadas tiveram impactos positivos e negativos. Curaram doenças, mas também foram usadas como instrumentos de guerra. Com a tecnologia dos algoritmos, seja em aplicativos ou robôs autônomos e virtuais, não é diferente.
Entretanto, impor limites e regular o desenvolvimento dessas tecnologias por meio de regulações estatais, como propõe o Projeto de Lei 2.338/2023, de autoria do senador Rodrigo Pacheco, parece-me um caminho questionável. Isso é especialmente preocupante em um país como o Brasil, que depende quase exclusivamente de tecnologias desenvolvidas no exterior. Sistemas operacionais, plataformas de redes sociais, ferramentas de inteligência artificial e até dispositivos cotidianos são, em sua maioria, criados por empresas estrangeiras. Essa dependência nos coloca não apenas em posição de consumidores passivos, mas também aumenta nossa vulnerabilidade tecnológica, enquanto outros países avançam no desenvolvimento de soluções próprias.
A elaboração de um marco regulatório para IA exige conhecimento técnico e compreensão dos impactos dessa tecnologia. No entanto, é questionável se o Congresso, que ainda parece estar em processo de entender o que é inteligência artificial, está preparado para traçar diretrizes tão estratégicas. Isso levanta uma dúvida: seria essa regulação uma tentativa genuína de avanço técnico ou um movimento mais político, talvez até para exercer controle sobre milhões de usuários que fazem uso da IA diariamente? Afinal, algoritmos direcionados podem influenciar escolhas e comportamentos de maneira sutil, transformando-se em ferramentas de controle “oculto”. Seja priorizando ou limitando informações, reforçando determinados vieses, ou ainda respondendo de forma tendenciosa. Essa possibilidade torna ainda mais necessário um debate profundo e transparente sobre os reais objetivos dessa legislação.
Projeto de Lei 2.338/2023
No dia 10 de dezembro de 2024, o Senado aprovou o Projeto de Lei 2.338/2023, que estabelece um marco regulatório para o uso da inteligência artificial (IA) no Brasil. A proposta segue agora para análise na Câmara dos Deputados.
Embora embalada em boas intenções, como o esforço para garantir segurança e ética no uso de IA, a lei apresenta riscos significativos ao desenvolvimento tecnológico do Brasil. Ao criar exigências excessivas, ela pode:
- Inibir a criação de startups e criar barreiras para inovação.
- Incentivar a fuga de pesquisadores e talentos para países com regulações mais flexíveis.
- Favorecer grandes corporações, concentrando ainda mais o mercado.
- Transformar o Brasil em um consumidor passivo de tecnologia, dependente de soluções importadas.
Por exemplo, o projeto introduz a Classificação de Risco, categorizando sistemas de IA como de “alto risco” ou “risco excessivo”. Embora a intenção seja garantir segurança e ética, a falta de critérios claros para essa classificação pode criar insegurança jurídica, dificultando o desenvolvimento de novas tecnologias. Sistemas de alto risco, como IA aplicada em diagnósticos médicos ou decisões judiciais, exigirão avaliação de impacto e supervisão contínua, enquanto aqueles considerados de risco excessivo, como armas autônomas ou algoritmos manipulativos, serão proibidos. A subjetividade dessa regulamentação pode desestimular investimentos e atrasar a adoção de inovações, especialmente para startups que não possuem recursos para navegar por processos burocráticos complexos.
Além disso, o projeto prevê a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), coordenado pela Autoridade Nacional de Proteção de Dados (ANPD), com o apoio de órgãos como o Conselho Permanente de Cooperação Regulatória de Inteligência Artificial (CRIA) e o Comitê de Especialistas e Cientistas de Inteligência Artificial (CECIA). Apesar da complexidade dessa estrutura, ainda resta saber se ela será eficaz em estimular um equilíbrio entre regulação e desenvolvimento.
É necessário regular, mas como?
Regular a IA é um desafio global sem soluções simples. No entanto, o Brasil precisa buscar uma abordagem equilibrada, que permita inovação sem comprometer direitos fundamentais. Uma regulação desproporcional pode levar o país a um cenário de estagnação, deixando-o alheio aos avanços globais e ainda mais dependente de tecnologias estrangeiras.
Ao avançar para a Câmara, o texto aprovado deve ser ajustado para:
- Assegurar a competitividade das empresas brasileiras no mercado internacional.
- Promover o crescimento de startups e o desenvolvimento do ecossistema de IA.
- Evitar a concentração de mercado e o sufocamento da inovação.
Afinal, a inteligência artificial não é apenas uma ferramenta: é um motor para o futuro.
Embora a regulamentação da inteligência artificial seja necessária, ela deve ser conduzida com responsabilidade e pragmatismo. Apenas com um equilíbrio entre proteção de direitos e estímulo à inovação, o Brasil poderá emergir como protagonista no cenário global de tecnologia, em vez de permanecer na periferia dos avanços científicos e tecnológicos.