
Mais recentemente, as ferramentas de IA generativas, aquelas capazes de criar novos conteúdos, chegaram como um rolo compressor, ofertadas em diferentes modelos, muitas vezes já embutidas em serviços largamente utilizados – como mecanismos de busca, caso do Google, redes sociais e aplicativos de mensagens, incluindo o WhatsApp –, com a sedutora promessa de trazer mais produtividade, mais eficiência e menos esforço para as atividades do dia a dia.
Sim, realmente a ferramenta é capaz de otimizar nosso tempo - artigo considerado de luxo hoje em dia. Mas a velocidade dessa adoção deixou pouco espaço para a reflexão. A sensação, compartilhada por especialistas, é a de que os fatos atropelaram o debate público e a tecnologia avançou muito à frente da compreensão social sobre seu funcionamento, seus riscos e seus limites.
O resultado tem sido um uso acrítico da inteligência artificial com consequências muitas vezes devastadoras. Como no caso do casal californiano Matt e Maria Raine, que ingressou com uma ação judicial em agosto do ano passado contra a OpenAI após a morte do filho adolescente, de 16 anos. Eles alegam que o chatbot ChatGPT teria encorajado ideias autodestrutivas do garoto, após verificarem registros de conversas em que o jovem relatava pensamentos suicidas e a ferramenta validava suas percepções mais nocivas.
Em outra frente, a tecnologia Grok, vinculada à plataforma X, passou a ser alvo de ações de órgãos reguladores por permitir a criação de deepfakes em que imagens de pessoas são manipuladas para gerar conteúdos sexualizados, inclusive envolvendo crianças. Indonésia e Malásia chegaram a bloquear o serviço, que também entrou no radar dos reguladores britânicos.
No mercado cultural, a enxurrada de conteúdo gerado por IA apenas para inflar royalties levou plataformas como o Spotify a anunciarem o endurecimento de regras, prometendo identificar “músicas spam”, rotular conteúdos criados por máquinas e impedir o uso indevido de vozes de artistas.
Apesar desse conturbado cenário, quase ninguém sentou com os usuários para explicar como esses sistemas funcionam. Pouco se fala, entre outros tópicos, sobre o fato de que informações privadas inseridas em chats podem ser usadas no treinamento de modelos de IA. O resultado é uma adoção massiva sem compreensão mínima dos mecanismos, dos riscos e das implicações éticas envolvidas.
Para Patricia Blanco, presidente executiva do Instituto Palavra Aberta – cuja missão é a promoção e incentivo às liberdades democráticas –, a rapidez da adoção é um ponto nevrálgico do problema. “A adesão imediata às ferramentas de IA generativas assustou a todos. Só o ChatGPT, um dos primeiros a ser lançado para o público em geral, ultrapassou a impressionante marca de 100 milhões de usuários em apenas dois meses após o seu lançamento”, lembra, assinalando que “a facilidade de acesso e a linguagem simples desses aplicativos de IA generativa fizeram com que passássemos, da noite para o dia, a usá-los desenfreadamente, sem pensar muito bem nos riscos e exigindo o desenvolvimento de habilidades digitais críticas para além do simples acesso a essa nova tecnologia”.

É nesse ponto que entra a noção de letramento em inteligência artificial – tema que, conforme Patricia Blanco destaca, não deve ser confundido com o mero “aprender a usar”. “Entendemos que o letramento em IA significa o desenvolvimento da capacidade dos indivíduos de navegar criticamente e em segurança em um mundo saturado por algoritmos, conteúdos sintéticos e infraestruturas invisíveis que moldam a sociabilidade e o acesso à informação”, explica. Esse processo envolve também “o desenvolvimento do pensamento crítico para interrogar a tecnologia em si e o que está por trás dela, como sistemas algorítmicos, vieses incorporados, ferramentas de personalização e suas implicações políticas e ambientais”, acrescenta.
Organismos internacionais, como a Unesco, fazem coro à tese de que “não basta ensinar com IA, é preciso ensinar sobre IA” – premissa também defendida por Patricia, para quem o letramento em inteligência artificial precisa ser compreendido como uma ampliação da educação midiática, voltada não apenas para as mensagens, mas para as infraestruturas que sustentam sua produção e circulação. Ela frisa que a ausência desse olhar crítico traz riscos iminentes. “Temos que tomar cuidado com a adoção massiva das IAs sem o devido cuidado e sem a compreensão de que o uso desenfreado traz riscos, tanto individuais quanto coletivos”, alerta.
No plano individual, ela cita desde “o uso de dados pessoais para direcionamento de mensagens mercadológicas e o reforço de vieses e crenças por meio de manipulação algorítmica” até “o aumento considerável de golpes digitais e desinformação com alto nível de sofisticação”. No plano coletivo, os efeitos incluem “a pasteurização de mensagens”, disputas em torno de direitos autorais, “a fragmentação do conhecimento por meio de respostas curtas e pouco embasadas” e a disseminação de conteúdos fraudulentos capazes de afetar processos eleitorais e instituições democráticas.
O desconhecimento sobre o uso de dados é, para a especialista, especialmente grave. “Quando subimos uma foto nesses aplicativos, seja com a intenção de participar de uma ‘trend’, seja para pedir para a ferramenta alterar, corrigir ou mesmo editar a imagem, estamos compartilhando algo extremamente pessoal e que pode ser utilizado para outras finalidades”, diz. Casos de criação de imagens falsas e deepnudes reforçam, segundo ela, que “não é porque a ferramenta existe e permite esse tipo de ação que devemos usá-la para essa finalidade – mesmo que seja uma ‘brincadeira’. É uma questão ética”.
Já do ponto de vista ético e jurídico, diz Mariah Brochado, a discussão vai muito além do cuidado individual. “Falar em ‘ética’ é admitir que há regras a serem cumpridas e qualquer invento que se torna público, destinando-se à usabilidade geral, exige controle pelo Estado. Limitações legais ao uso de diversas tecnologias são comuns, como quando guiamos automóveis, quando a energia elétrica é obtida e distribuída, quando aviões são conduzidos e fazemos uso deles etc. O mesmo vale, obviamente, para o uso de ferramentas de Inteligência Artificial”, crava Mariah Brochado defendendo a formulação de manuais de boas práticas, responsabilização de projetistas e intermediadores e a adoção de limites claros ao poder das grandes plataformas.

Letramento continua limitado a habilidades para o uso do equipamento
No campo educacional, os desafios são inúmeros. Para o professor Eucídio Pimenta Arruda, da Faculdade de Educação da UFMG, a inteligência artificial generativa representa, de fato, uma tecnologia disruptiva. “Transforma significativamente a maneira como lidamos com a tecnologia e com a produção de informação”, avalia, sublinhando que “o computador pode gerar uma série de informações a partir de interações com humanos”. Para ele, a velocidade das transformações inviabiliza a ideia de diretrizes fixas. “Não é possível pensar, por exemplo, em uma regra ou diretriz que consiga acompanhar um desenvolvimento tecnológico tão rápido e veloz”, observa.

Um dos principais desafios, na avaliação de Eucídio, é reaprender a fazer perguntas. “Temos que rever conhecimentos científicos do passado no sentido de, por exemplo, começarmos a questionar e a fazer perguntas sobre a origem da fonte”, situa. Ele adverte que o problema, agora, se agrava porque “a inteligência artificial generativa gera documentos, imagens e vídeos que são tão aparentemente humanos que o maior desafio hoje, como professores e estudantes, é exatamente detectar o que foi feito por uma máquina e o que não foi”.
O impacto atinge diretamente a universidade e a produção científica. “Já há inúmeros casos de artigos científicos publicados em revistas de renome em que se descobriu que foram produzidos por inteligência artificial generativa”, reconhece.
Para ele, o letramento em IA precisa ser entendido de forma ampliada. “Eu vou um pouco além e penso em um letramento tecnológico e humano”, aponta, defendendo a compreensão das relações de poder e das desigualdades envolvidas no desenvolvimento dessas tecnologias.
Eucídio ainda chama atenção para o fato de que a IA é produzida por empresas com interesses econômicos. “A inteligência artificial generativa pode reproduzir uma série de preconceitos”, diz, ao mencionar materiais enviesados, misóginos ou racistas utilizados no treinamento de modelos. Daí a importância de repensar a formação de professores de maneira transversal. “Não apenas como uma disciplina isolada, mas para debater como as tecnologias impactam toda a produção do conhecimento e o processo de formação e trabalho docente”, argumenta.
Ao tratar do uso da IA por estudantes, o professor rejeita tanto o proibicionismo quanto a ingenuidade. “Precisamos entender por que as pessoas utilizam a inteligência artificial generativa”, diz, observando que muitas recorrem a essas ferramentas para conversar ou tirar dúvidas. O risco, sugere, está na delegação completa do pensamento à máquina. “Uma pessoa que não produz conhecimento, que não tem leitura crítica e não consegue entender minimamente uma frase por ter delegado essa tarefa a uma máquina, corre um risco significativo de não ser integrada a uma sociedade cada vez mais complexa”, conclui.
Mariah Brochado alerta ainda que um dos grandes erros do debate público é tratar a inteligência artificial como algo neutro ou inevitável. “O maior equívoco dessa narrativa sobre inevitabilidade e neutralidade da inteligência artificial é tratar um objeto produzido pela técnica humana, destinado a ser usado do modo que os próprios humanos decidem, como se fosse algo sobre-humano”, ressalta, lembrando que a própria expressão “inteligência artificial” nasceu como uma estratégia de marketing.
“Havia um propósito nesse neologismo: chamar a atenção para o que o poder computacional seria capaz de realizar ao simular o que chamamos de inteligência”, explica. Para Mariah, é fundamental desfazer a mística. “A IA não é inteligência como a humana, não é capaz de criar nada; tudo o que é realizado por ela é previamente estabelecido em fórmulas (algoritmos) pelos programadores”, diz. “Quando as pessoas começam a acreditar que esses programas são entidades capazes de inteligência criativa como a nossa é que se instaura a crença de que essas máquinas podem se autonomizar”, assevera.
Desafios e caminhos
Mariah Brochado Ferreira aponta hoje uma série de desafios centrais no debate acerca das IAs, entre os quais lista o monopólio das big techs, o impacto ambiental do funcionamento de data centers – que exigem o uso de bilhões de litros de água por ano para o resfriamento das máquinas – e a ameaça à soberania digital. “Países com o potencial do Brasil têm que se independentizar dos data centers estrangeiros”, sinaliza, citando iniciativas como o projeto da Nuvem de Governo – “que tem dois objetivos concretos: proteger a nossa soberania de dados, armazenando-os em conformidade com a legislação brasileira e com infraestrutura localizada em nosso território; e assumir as rédeas da nossa soberania operacional, com a gestão dos nossos data centers por empresas públicas nacionais”, comenta.
Para ela, aliás, estamos atrasados na regulação da IA, mas o problema não é apenas jurídico. “Instaurou-se em nossa sociedade uma exclusão inusitada entre progresso tecnológico e promoção de bem-estar social. Nunca fomos tão bem servidos de tecnologias e tão carentes de satisfação com uso delas”, reflete ao chamar atenção para os efeitos da hiperconectividade na saúde psíquica, especialmente de adolescentes, e para o risco de uma sociedade cada vez mais isolada e menos empática.
Ao falar sobre a necessidade de tratar a IA como meio para boas práticas, Mariah cita como exemplo de diretiva a “Carta Ética Europeia sobre o Uso da Inteligência Artificial em Sistemas Judiciais e seu ambiente”, o qual vem inspirando os projetos de regulação da IA no direito brasileiro, sendo reconhecidos na Resolução 615/2025 do CNJ, que normatiza a adoção de ferramentas de IA pelo nosso Poder Judiciário, e no PL 2338/ 2023, em tramitação no Congresso Nacional, que se destina a ser o Marco Regulatório da IA em nosso país.
Ela explica que a carta lista cinco princípios norteadores de decisões sobre o desenvolvimento e o uso da IA: o respeito aos direitos fundamentais; a não discriminação; qualidade e segurança; transparência, imparcialidade e justiça; e controle pelo usuário.
Entendendo os termos
De repente, um monte de expressões passou a fazer parte do nosso dia a dia. Mas sabemos exatamente o que representam? Segue abaixo uma mãozinha:
Algoritmo. Conjunto de regras e instruções que orienta um sistema computacional a executar uma tarefa ou tomar decisões. No contexto da IA, algoritmos determinam como dados são processados e como as respostas são geradas.
Alucinação da IA. Termo usado quando um sistema de IA gera informações falsas ou inventadas com aparência de veracidade, como dados inexistentes, referências fictícias ou erros factuais.
Aprendizado de Máquina (Machine Learning). Subcampo da IA em que sistemas aprendem padrões a partir de dados, ajustando seu comportamento sem serem explicitamente programados para cada tarefa.
Big Data. Conjunto massivo de dados, estruturados ou não, gerados em grande velocidade e volume, que servem como base para o treinamento e funcionamento de sistemas de IA.
Black Box (Caixa-preta). Expressão usada para descrever sistemas de IA cujo funcionamento interno é opaco, dificultando entender como chegam a determinadas decisões ou resultados.
Dados Pessoais. Informações que identificam ou podem identificar uma pessoa, como nome, imagem, voz, localização ou hábitos de navegação. Seu uso em sistemas de IA levanta questões legais e éticas.
Deepfake. Conteúdo audiovisual manipulado por IA para parecer real, como vídeos ou imagens em que rostos, vozes ou corpos são alterados, muitas vezes sem consentimento.
Deep Learning. Técnica avançada de aprendizado de máquina baseada em redes neurais profundas, capaz de identificar padrões complexos em grandes volumes de dados, como imagens, voz e texto.
Deepnude. Tipo específico de manipulação de imagem que utiliza IA para simular nudez a partir de fotos de pessoas vestidas, geralmente sem autorização da vítima.
IA Generativa. Tipo de inteligência artificial capaz de criar novos conteúdos – como textos, imagens, músicas, vídeos ou códigos – a partir de padrões aprendidos em grandes volumes de dados.
Modelo de Linguagem. Sistema treinado para compreender e gerar linguagem humana. Baseia-se em probabilidades estatísticas para prever a próxima palavra ou sequência de palavras em um texto.
Prompt. Comando, pergunta ou instrução fornecida pelo usuário a um sistema de IA generativa, que orienta o tipo de resposta ou conteúdo a ser produzido.
Vieses Algorítmicos. Distorções ou preconceitos reproduzidos por sistemas de IA devido a dados de treinamento incompletos, desbalanceados ou socialmente enviesados, podendo reforçar discriminações.
#FICAADICA
Confira abaixo orientações para o uso ético das ferramentas de Inteligência Artificial geradas por ela própria
Verificação
- Não confie cegamente: Sistemas de IA podem gerar informações falsas, imprecisas ou incompletas, um fenômeno conhecido como “alucinação”.
- Verificação em múltiplas fontes: Sempre confirme dados cruciais, notícias ou fatos técnicos com fontes humanas ou confiáveis.
- Revisão humana (Human-in-the-loop): Todo conteúdo gerado por IA deve passar por revisão humana antes de ser publicado ou utilizado para tomada de decisão.
Segurança e privacidade
- Dados sensíveis: Nunca insira informações confidenciais, pessoais, senhas ou documentos estratégicos de uma empresa em ferramentas públicas de IA.
- Políticas de uso: Verifique a política de privacidade da ferramenta para entender como os dados inseridos são utilizados para treinamento.
- Vazamento de dados: Cuidado com o armazenamento e a localização das informações fornecidas à IA.
Ética
- Vieses algorítmicos: A IA pode reproduzir ou amplificar preconceitos de raça, gênero ou classe presentes nos dados de treinamento.
- Uso ético: Evite utilizar a IA para criar conteúdo manipulador, difamatório ou desinformação.
- Transparência: Declare quando o conteúdo for gerado por IA para evitar plágio e garantir a transparência, especialmente em contextos profissionais e acadêmicos.
Responsabilidade legal e direitos autorais
Propriedade intelectual: A indefinição sobre direitos autorais de imagens e textos criados por IA é um risco jurídico.
Responsabilidade: O usuário é o responsável final pelo resultado do trabalho, mesmo que tenha sido gerado por uma IA.
Dependência
- Excesso de confiança: A dependência excessiva pode levar à atrofia da capacidade crítica e de formulação de ideias próprias.
- Uso técnico: Utilize a IA para potencializar o trabalho, não para delegar totalmente o pensamento estratégico ou decisões cruciais.
Melhores práticas
- Use com moderação: Entenda as limitações da ferramenta.
- Treine a IA (Prompt Engineering): Aprenda a fazer perguntas claras e precisas para obter melhores resultados.
- Implemente diretrizes: No ambiente de trabalho, crie políticas claras sobre o uso de ferramentas de IA.
FONTE: Gerado por IA