| | |

Como garantir o uso ético da IA e das redes sociais em um cenário de desinformação, bolhas e lobby das Big Techs?

Desde que comecei a minha pós-graduação, em Comunicação Estratégica nas Organizações, um dos temas que mais discutimos em aula é o uso crescente das Inteligências Artificiais e o quanto nós, profissionais da área, nos vemos cada vez mais reféns das plataformas e de suas lógicas algorítmicas. Nesse cenário, pipocam discussões sobre o uso ético da IA e das redes sociais, questionamentos sobre o futuro das nossas profissões e a necessidade, mais do que urgente, de regulamentar as Big Techs.

As Big Techs são as grandes empresas de tecnologia que hoje dominam quase todo o mercado digital: Google, Microsoft, Amazon, Meta e Apple. Em um mundo hiperconectado, não é exagero dizer que essas empresas, que operam como verdadeiros monopólios, controlam não apenas o ambiente online, mas também nossas próprias vidas – afinal, vivemos em um mundo em que o real e o digital já não se separam mais.

Longe de serem neutras, essas plataformas operam sob uma lógica de maximização de lucros, moldando o que vemos, o que lemos e o que compartilhamos. A ideia é uma só: nos manter o máximo de tempo conectados, por meio do que alguns teóricos chamam de “economia da atenção”.

Não há como fugir: já somos dependentes dessas ferramentas, da visibilidade, da relevância, da validação algorítmica – principalmente para trabalhar, já que, sem elas, não há público, não há alcance, não há cliente, não há repertório de sobrevivência profissional.

Da distribuição à produção: o impacto da IA generativa

E aí começa a parte incômoda: se dependemos de plataformas, na prática elas passam a depender menos da gente, ditando cada vez mais o jogo, as regras, o ritmo, a linguagem, o formato.

Então, quando surge uma tecnologia como a IA generativa, capaz de produzir textos, imagens, áudios e vídeos, essa dependência se desloca do campo da distribuição para o campo da produção. Ou seja, não basta que essas empresas controlem o que chega ao público, agora elas também participam (ou substituem) o processo de criação.

Saiba como desenvolver uma escrita criativa em tempos de inteligência artificial

O resultado é um ecossistema assimétrico, quase feudal (como defende o economista Yanis Varoufakis, em seu livro Tecnofeudalismo), em que criadores, jornalistas, artistas e comunicadores negociam sua autonomia com intermediários invisíveis.

Surge, então, a dúvida central: como garantir o uso ético da IA e das redes sociais num cenário onde a ética nunca foi a prioridade das empresas que controlam o ecossistema? Como continuar criando, mesmo dependentes de uma lógica que prioriza engajamento e conteúdos virais a qualquer custo, mesmo que isso signifique desinformação, bolhas e uma erosão lenta da própria noção de verdade?

A verdade é incômoda: não há uso ético da IA e das plataformas sem regulamentação

Não existe ética possível quando o ambiente não comporta esses valores e quando quem define as regras do jogo exerce poder irrestrito para agir de acordo com seus próprios interesses.

Criar hoje é negociar o tempo todo com mecanismos que operam segundo uma lógica que não é a sua. É tentar produzir profundidade num sistema que recompensa o raso. É agir com responsabilidade em um ecossistema que lucra com a irresponsabilidade. É enfrentar a própria arquitetura das plataformas, que priorizam o que provoca em vez do que informa, valorizam o que indigna em vez do que aprofunda e favorecem o que simplifica em vez do que complexifica.

A pergunta, então, se desdobra: o problema está na tecnologia ou no modelo econômico que a sustenta? Porque IA, por exemplo, não nasce ética ou antiética – quem define isso é o contexto.

Mas é justamente aí que está o cerne da questão: hoje, empresas controlam o ambiente digital e optam por extrair atenção e maximizar lucros, em vez de informar, educar ou democratizar o conhecimento. E se a nossa atenção é o produto, todo o resto vira meio, inclusive nós, inclusive a arte, inclusive a verdade.

É por isso que a discussão sobre o uso ético da IA não pode ser isolada de debates sobre Big Techs, regulação, transparência algorítmica e limites de poder.

Mais do que nunca, é preciso mexer nas estruturas.

O paradoxo: dependemos das mesmas plataformas que nos engolem

Então, criadores e jornalistas estão presos num paradoxo incômodo: precisamos das plataformas para existir, mas, ao mesmo tempo, somos engolidos por elas.

A IA, por exemplo, surge como promessa de otimização, produtividade e eficiência, mas também ameaça ocupar nossos postos e diluir nossa autoria.

Precisamos de alcance, mas alcançar exige obedecer a regras que empobrecem a criação, achatam a complexidade e, em última instância, corroem a própria democracia.

Nesse ponto, a pergunta, no fundo, é menos “como usar IA eticamente?” e mais “como manter autonomia dentro de um ecossistema que foi projetado para capturá-la?”.

É complexo. E, sendo honesta, ainda não temos respostas definitivas e nem teremos tão cedo. O que existe hoje são debates em disputa, tentativas de regulação que avançam a passos lentos, códigos éticos ainda frágeis e lacunas gigantescas.

Mas o debate não deve parar. Justamente por isso, quis escrever esse artigo, pois este é um tema que precisa, mais do que nunca, ser debatido à exaustão.

Para encontrar caminhos, precisamos antes do óbvio: entender como essas plataformas operam, em especial os algoritmos.

Aqui, um spoiler: eles não são neutros. Nunca foram.

A falsa neutralidade dos algoritmos

Antes de falar sobre a falsa neutralidade dos algoritmos, é importante explicar como eles funcionam tecnicamente.

Na prática, os algoritmos operam a partir da coleta massiva de dados, ou seja, tudo aquilo que você curte, comenta, ignora, compartilha, quanto tempo permanece em um conteúdo, em que horário acessa, com quem interage.

Esses dados são processados para prever comportamentos futuros e, com base nessas previsões, o sistema decide o que mostrar, em que ordem e com que frequência. O critério central não é a qualidade, a relevância social ou a diversidade de perspectivas, mas a probabilidade de engajamento. Quanto maior a chance de você reagir emocionalmente, seja por identificação, raiva, medo ou choque, maior a visibilidade do conteúdo.

O algoritmo, portanto, não “informa” – ele prioriza estímulos que mantêm a atenção. E, ao fazer isso de forma contínua, passa a moldar percepções, hábitos e até crenças, criando um ciclo no qual o usuário consome cada vez mais do que já tende a consumir, enquanto o resto desaparece do seu campo de visão.

A consequência: bolhas de filtro

É nesse cenário que surgem as bolhas de filtro, conceito formulado pelo ativista digital Eli Pariser, que descreve como feeds personalizados criam realidades informacionais paralelas.

Se cada usuário passa a habitar um mundo feito sob medida para confirmar suas crenças, esse feed passa a, cada vez mais, reforçar seus vieses, eliminando o desconforto do dissenso.

A verdade, então, deixa de ser um critério compartilhado e passa a ser ajustada ao gosto individual, o que é um terreno fértil para desinformação, discursos de ódio e polarização política.

Quando esse sistema passa a incorporar inteligências artificiais capazes de produzir conteúdo, o problema se aprofunda: já não apenas consumimos informação mediada por algoritmos, mas passamos a criar sob as mesmas lógicas que nos capturam.

Além disso, a produção passa a ser guiada por modelos treinados exclusivamente a partir do que já existe em bancos de dados e padrões recorrentes. Não há ruptura, mas recombinação, uma variação calculada do que já foi dito, visto e aprovado.

Nesse contexto, o novo não é criado, mas simulado. O inédito perde espaço para a repetição e o que emerge é uma cultura da previsibilidade, produzindo uma sensação de novidade que não passa de uma versão rearranjada do conhecido.

A criação passa, então, a obedecer a métricas, formatos e expectativas impostas por plataformas que lucram com a regularidade e o consenso, deslocando para a margem a diversidade, a fricção e o risco.

“A Mão Invisível das Big Techs”

Se você quer saber mais sobre o assunto, indico o especial de reportagens investigativas da Agência Pública intitulado “A Mão Invisível das Big Techs“, que denuncia como empresas como Google e Meta atuam de forma coordenada para proteger seus interesses, agindo como uma verdadeira “mão invisível”.

O termo, originalmente cunhado por Adam Smith, descreve a autorregulação do mercado a partir das ações individuais, em que a busca pelo autointeresse dos produtores e consumidores resultaria em benefícios para toda a sociedade.

No entanto, o próprio “pai do livre mercado” adverteu sobre o risco da criação de monopólios, que resultariam na opressão praticada por grupos privados e necessitariam de intervenção estatal para prevenir esses problemas, garantindo, assim, a ordem institucional.

E é exatamente isso que temos vivenciado com as gigantes da tecnologia, que detêm hoje o ativo mais lucrativo do capitalismo contemporâneo: os dados. Quem concentra dados, concentra poder, já que pode prever (e moldar) comportamentos.

Assim, as plataformas capturam cada clique, cada segundo de atenção e cada reação emocional, processam esses dados e os transformam em mercadoria.

O usuário, então, deixa de ser sujeito e passa a ser matéria-prima de um sistema que antecipa desejos, molda preferências e reduz a experiência humana a padrões previsíveis.

Os impactos para criadores e artistas

Para artistas e criadores, os impactos são profundos – afinal, criar passa a ser um exercício contínuo de adaptação ao algoritmo, seus formatos, ritmos e métricas.

A introdução da IA generativa intensifica esse tensionamento: se, por um lado, pode funcionar como ferramenta de apoio, experimentação ou aceleração de processos criativos, por outro, opera dentro da mesma lógica que já empobrece a criação, baseada na produtividade incessante, na repetição de padrões e na otimização para engajamento.

Automação, abundância artificial e desvalorização do trabalho artístico

A questão se torna ainda mais delicada quando sistemas de IA passam a automatizar a própria criação, já que não apenas auxiliam, mas produzem imagens, textos, músicas e vídeos que competem diretamente com obras humanas no mesmo ecossistema de visibilidade.

Ainda que essas produções não substituam a experiência humana de criar, elas diminuem o valor simbólico do trabalho artístico ao colocá-lo em uma lógica de abundância artificial, onde tudo se produz rápido, barato e em escala ilimitada.

O problema não é a tecnologia em si, mas o contexto em que ela opera, em meio a um mercado que já precariza criadores e agora dispõe de ferramentas capazes de torná-los descartáveis.

Nesse processo, em que a autoria se dilui e tudo parece mais padronizado, muitos criadores se veem pressionados a produzir e publicar com maior frequência, “performando” suas próprias obras para continuar existindo no feed.

Assim, o erro, a experimentação e o tempo do processo criativo, que são elementos centrais da criação artística, tornam-se incompatíveis com uma arquitetura que privilegia constância, velocidade e previsibilidade.

A promessa de autonomia criativa, assim, convive com uma dependência estrutural: sem plataformas, não há circulação; com plataformas, há captura. A criação deixa de ser reconhecida como processo e passa a ser tratada como resultado final, enquanto a arte vira “conteúdo” e o seu autor, um mero operador.

Assim, a pergunta ética se desloca novamente: não é apenas quem cria, mas quem se beneficia quando a criação se torna automatizável.

Inteligência artificial: ainda vale a pena ser artista?

Os impactos para o jornalismo

No campo do jornalismo, esses efeitos são concretos e cotidianos: quando algoritmos passam a decidir o que ganha visibilidade, o que desaparece do feed e o que “performou mal”, eles assumem, na prática, o papel de novos gatekeepers da informação.

Antes, editores e jornalistas exerciam essa função com base em critérios editoriais, responsabilidade pública e, ao menos em tese, compromisso com o interesse coletivo. Hoje, sistemas automatizados realizam essa mediação, orientados principalmente pelo engajamento.

Se o algoritmo prioriza cliques, reações emocionais e tempo de permanência, o valor-notícia também se desloca. Assim, reportagens aprofundadas, investigações longas, cobertura de temas estruturais e essenciais para a sociedade passam a competir em desvantagem com conteúdos mais rápidos, simplificados ou provocativos – não porque sejam menos relevantes, mas porque performam pior dentro da lógica algorítmica.

Nesse contexto, os veículos de comunicação são pressionados a adaptar pautas, títulos e formatos para não perderem tráfego. É preciso estar nas plataformas para ser lido e, mais do que isso, adaptar o seu conteúdo para formatos que geram maior engajamento.

A chamada “cultura do clique” redefine o que é considerado sucesso editorial e empurra o jornalismo para uma lógica quantitativa, na qual alcance substitui impacto social e viralização passa a valer mais do que apuração rigorosa.

Nesse ambiente, viralizar pode se tornar mais importante do que checar. E, quando a informação passa a ser moldada de acordo com preferências individuais, por meio das bolhas informacionais, a distinção entre verdade e mentira deixa de ser coletiva e passa a ser subjetiva, decidida pelo viés de confirmação de cada usuário.

O resultado é a erosão da confiança no jornalismo, a deslegitimação de veículos e uma sociedade que já não sabe mais o que é verdade e o que é mentira.

Da captura à disputa: por que a regulamentação virou campo de batalha

Diante desse cenário, a regulamentação surge não como solução mágica, mas como campo de disputa. Falar em regular Big Techs e Inteligências Artificiais significa, na prática, enfrentar interesses econômicos bilionários, estruturas de lobby altamente organizadas e um discurso cuidadosamente construído para associar qualquer limite à censura, ao atraso tecnológico ou à perda de competitividade global.

Não é à toa que as tentativas de regulação avançam lentamente – isso quando avançam. Na União Europeia, o AI Act representa um dos esforços mais concretos para estabelecer limites ao uso de sistemas de IA, classificando riscos, exigindo transparência e impondo responsabilidades às empresas.

Ainda assim, o texto passou por sucessivas diluições, pressões corporativas e concessões que revelam o óbvio: regular tecnologia em um capitalismo de plataforma é negociar permanentemente com quem concentra poder demais.

O lobby das Big Techs e o bloqueio da regulação no Brasil

No Brasil, o debate segue o mesmo padrão. Projetos de lei sobre IAs proteção de dados e responsabilização das plataformas enfrentam resistência direta das Big Techs, que atuam por meio de associações empresariais, campanhas de comunicação e lobby institucional.

Inclusive, em 2023, o lobby das Big Techs conseguiu barrar o PL das Fake News, por meio de uma pressão intensa e estratégica sobre parlamentares e sobre a sociedade, incutindo um discurso de censura e alimentando o medo de um ‘Ministério da Verdade’, termo literário retirado do livro 1984, de George Orwell, para deslegitimar a proposta de regulação da desinformação, pintando-a como um ataque à liberdade de expressão – quando, na verdade, o intuito da lei era propor responsabilidade, transparência e mecanismos de moderação que obrigariam plataformas a prestar contas diante das notícias falsas que circulam livremente sem uma regulamentação que as coíba.

Regulação, democracia e o custo real da inovação

Regular as plataformas e as IAs, portanto, não significa censurar nem sufocar a inovação, mas enfrentar um ambiente que hoje sufoca direitos, empobrece a pluralidade informacional e produz impactos diretos sobre a democracia.

A narrativa que opõe regulação e liberdade de expressão não é um equívoco inocente, mas uma estratégia política cuidadosamente construída para preservar assimetrias de poder e evitar qualquer forma de responsabilização.

É preciso nomear o conflito sem rodeios: não se trata de escolher entre inovação e ética, mas de decidir quem paga o custo da inovação. No modelo atual, esse custo recai sobre trabalhadores precarizados, criadores invisibilizados, jornalistas pressionados por métricas e sociedades inteiras expostas à desinformação em escala industrial – enquanto plataformas concentram dados, atenção e lucros, sem arcar proporcionalmente com as consequências sociais do sistema que sustentam.

Então, como garantir o uso ético da IA e das redes sociais?

A resposta curta é desconfortável: não há garantia plena possível dentro de um ecossistema que lucra com a desinformação, a polarização e a captura da atenção. Enquanto a lógica dominante for a da maximização de engajamento e de lucro, qualquer ética será sempre frágil, contingente e disputada.

O que existe, e isso não é pouco, são condições de possibilidade.

A regulação como condição mínima para qualquer ética

A primeira delas, obviamente, é a regulação pública. Sem marcos legais que imponham limites às plataformas, exijam transparência algorítmica e responsabilizem as empresas pelo impacto social de suas tecnologias, a ética continuará sendo um discurso vazio.

Nesse contexto, o debate sobre inteligência artificial não pode ser separado da regulação das Big Techs, assim como não é possível falar em liberdade de expressão ignorando o poder concentrado de quem controla a infraestrutura do debate público. Regular não é censurar, mas sim estabelecer regras mínimas para um ambiente que hoje opera sem contrapesos democráticos.

Governança ética no jornalismo em um cenário sem regras claras

A segunda condição é a governança ética no jornalismo, mesmo diante do vácuo normativo. Enquanto a legislação não avança, cabe às redações assumir um papel ativo: definir protocolos claros de uso da IA, garantir supervisão humana, informar o público quando ferramentas automatizadas forem utilizadas e proteger a autoria jornalística. Isso não resolve o problema estrutural, mas cria linhas de defesa importantes contra a precarização e a perda de credibilidade.

A terceira condição, e talvez a mais difícil, é reconhecer que o problema não é individual. Não se trata de “usar melhor” as redes, “treinar o algoritmo” ou “produzir conteúdo mais estratégico”, já que essa narrativa desloca a responsabilidade para usuários, jornalistas e criadores, enquanto as estruturas permanecem intactas.

A lógica algorítmica não é um erro de uso, mas um projeto econômico; portanto, questioná-la exige ação coletiva, pressão pública e disputa política.

Garantir o uso ético da IA e das plataformas não significa encontrar um manual de boas práticas, mas enfrentar as estruturas que hoje tornam o uso antiético funcional e lucrativo. Isso passa por tensionar o poder das Big Techs, exigir regulação e transparência e recusar a naturalização de um sistema que transforma atenção em mercadoria e desinformação em modelo de negócio.

Talvez o primeiro passo para garantir mais ética seja justamente este: parar de fingir que o problema é técnico, quando ele é político e econômico – afinal, enquanto essas assimetrias de poder não forem enfrentadas, toda ética será provisória.

Ainda assim, insistir no debate, nomear os conflitos e disputar os sentidos do que significa criar hoje já é, por si só, uma forma de resistência.

Alguns livros e autores para saber mais sobre o assunto

Tudo o que foi discutido ao longo deste artigo vem sendo analisado, há anos, por autores e teóricos que se debruçam sobre tecnologia, poder, dados e subjetividade.

Para encerrar o artigo, deixo abaixo a indicação de alguns livros fundamentais para compreender as estruturas que sustentam o ecossistema digital contemporâneo, já que, para debatermos esse tema com a responsabilidade que ele exige, é essencial ter repertório crítico.

A Era do Capitalismo de Vigilância (Shoshana Zuboff)

Fundamental para compreender como as Big Techs inauguraram um modelo econômico baseado na extração massiva de dados comportamentais. Zuboff mostra como esse sistema não apenas monitora, mas prevê e molda comportamentos, transformando a experiência humana em matéria-prima e a atenção em um ativo econômico central.

Psicopolítica – O Neoliberalismo e as Novas Técnicas de Poder (Byung-Chul Han)

O autor argumenta que o poder contemporâneo não opera mais pela repressão, mas pela sedução. Somos levados a nos expor, produzir e performar voluntariamente, acreditando exercer liberdade. As plataformas e seus algoritmos funcionam exatamente assim: a exploração deixa de ser externa e passa a ser internalizada, de forma invisível e eficiente.

O Filtro Invisível – O Que a Internet Está Escondendo de Você (Eli Pariser)

Essencial para entender como a personalização algorítmica cria bolhas informacionais, nas quais cada indivíduo passa a ver apenas versões do mundo que confirmam suas crenças. O impacto não é apenas cognitivo, mas político: o espaço público se fragmenta, o dissenso se enfraquece e a verdade deixa de ser um terreno compartilhado.

A Máquina do Caos –  Como as Redes Sociais Reprogramaram Nossa Mente e Nosso Mundo (Max Fisher)

Um complemento direto ao debate sobre desinformação e polarização, Fisher mostra como redes sociais, ao priorizarem engajamento, reprogramam comportamentos coletivos, amplificam conflitos e incentivam conteúdos extremos. O caos não é um efeito colateral, mas um subproduto funcional do modelo de negócios das plataformas.

Algoritmos da Opressão – Como o Google Fomenta e Lucra com o Racismo (Safiya Umoja Noble)

O livro demonstra como sistemas algorítmicos reproduzem e amplificam desigualdades sociais, raciais e de gênero. Essencial para desconstruir a ideia de neutralidade da IA e entender como decisões técnicas carregam valores políticos.

Algoritmos de Destruição em Massa – Como o Big Data Aumenta a Desigualdade e Ameaça a Democracia (Cathy O’Neil)

A obra analisa como modelos matemáticos e sistemas automatizados, quando opacos e não regulados, produzem danos sociais em larga escala. Um livro-chave para entender por que a transparência e a responsabilização são centrais no debate ético sobre IA.

Tecnofeudalismo – O Que Matou o Capitalismo (Yanis Varoufakis)

Para fechar, trago esse livro do economista Varoufakis, em que ele propõe que o capitalismo tradicional foi superado por um sistema que ele intitula tecnofeudalismo, em que plataformas funcionam como senhores feudais digitais. Usuários, criadores e trabalhadores produzem valor em terras que não possuem, sob regras que não controlam. Autonomia, nesse cenário, é sempre negociada, mas nunca garantida.

Posts relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *