Não há ninguém hoje que não tenha ouvido sobre as “fake news”. Conhecer a problemática da desinformação, contudo, é ainda um desafio. Isso porque a abordagem escolhida pelo governo para solucionar a questão é equivocada. O termo “fake news” tem uma enorme quantidade de definições e, na tarde do último dia 11, por exemplo, o ministro Paulo Pimenta se embateu heroicamente contra um dos usos perversos de “fake news”. A polissemia do termo, além de dificultar a conceituação do problema, esconde uma armadilha: tentar conter desinformação por meios jurídicos somente leva à legitimação de uma definição específica de fake news e, por tabela, só fortalece a posição política da oposição.
Fake news, o que são?
O termo “fake news” impressiona. São duas palavras que não fazem parte do nosso vocabulário e significam “notícias falsas”. O termo, contudo, tem significado diferente. Trata-se do ato voluntário (ou induzido por algoritmo) de repercutir informações sabidamente erradas em cascata. Ou seja, o que se quer atingir não é o que o termo inglês chama de “misinformation” (a desinformação por engano ou opinião pessoal), mas aquela desinformação que vem em escala de compartilhamentos e aceitação, que induz à noção de verdade pelo sentido de maioria de compartilhamentos. Esse não é – como querem dizer alguns políticos de direita – um efeito de um consenso social produzido individualmente. O que se tem hoje como problema é a prática de “disinformation”, ou seja, o objetivo político de alterar os níveis de compreensão da realidade para além do que a empiria ou a lógica poderia oferecer como nível de consenso. O objetivo é, portanto, romper todo e qualquer consenso social, provocando violência, desespero e – em última instância – um sentido de pânico generalizado que poderia até ser assemelhado a determinadas táticas terroristas.
Explicando melhor, se você gosta de morango ou de chocolate, isso é uma matéria de gosto pessoal e sua opinião a respeito nunca será “fake news”, mas quando há um determinado interesse político-econômico para que todos gostem de morango e um trabalho de comunicação em rede para alterar o sentido real dessa briga (morango vs chocolate) com mentiras (como acusando o morango de ser comunista, por ser vermelho) aí temos em efeito as “fake news”.
![](https://controle.operamundi.uol.com.br/wp-content/uploads/2024/06/fake-news.jpeg)
(Foto: Jefferson Rudy / Agência Senado)
Fake news, um problema antigo
Toda a questão está, em si, dentro da ideia de formar consensos ou quebrar consensos sobre as coisas. Aliás, sobre todas as coisas do mundo. Na realidade, o grande poder político é poder formar ou quebrar esses consensos. Desde que o mundo é mundo. Na antiguidade egípcia, por exemplo, sacerdotes diziam como eram as cheias do Nilo e como o Sol se comportaria. Essa prerrogativa é em si o maior poder do mundo. Ao longo da história da humanidade várias instituições passaram a disputar esse poder. As Igrejas, o próprio Estado e mais recentemente o mercado capitalista desenvolveram ferramentas para dar significado às coisas do mundo. Todo o ramo da “publicidade” ou do “marketing” opera com o objetivo de formar ou destruir consensos sobre produtos, ideias, marcas, sentidos, etc. Na política, operam grandes forças para também formar ou destruir consensos sobre “direitos humanos”, sobre “educação sexual” ou sobre “a independência do Banco Central”. É basicamente a mesma lógica.
A questão é entender, se durante todo o século XX foi lícito que empresas usassem o controle da informação para lucrar (como as de cigarro, por exemplo) ou partidos e governos usassem para fazer guerras (como as disputas por terras no Brasil ou as doutrinas da Guerra Fria), por que logo agora surge essa demanda por conter as “fake news”?
Fake news e a estética de si
Embora ao longo do século XX os estudos sobre linguagem tenham se intensificado, foi apenas no século XXI que se construiu o consenso de que a linguagem é formativa e não apenas uma ferramenta de operação humana no mundo. Veja, no século XX, ainda que de forma um tanto quanto cínica, se dizia que a propaganda não fazia ninguém se viciar e querer fumar ou não fazia ninguém ficar gordo por tomar Coca-Cola e que não era a propaganda, o marketing, ou a política que fazia com que as pessoas odiassem muçulmanos, por exemplo. A linguagem, defendia-se na época, era apenas uma ferramenta que visava alterar um pouquinho o sentido do que a pessoa já queria, sentia ou pensava. É claro que esse “pouquinho” já valia muito dinheiro se você conseguisse, com uma propaganda de gente bonita e sarada, aumentar as vendas de cigarro “Hollywood”, mas o que se defendia é que o efeito dessa manipulação da linguagem era sempre marginal (operava nas margens) dentro do movimento normal da sociedade. O jogo de convencimento ou recusa pelos sentidos das coisas no mundo era entendido como de operação privada. Era dentro de cada cabeça que as decisões (de fumar, de comprar ou de odiar) eram tomadas.
No século XXI, contudo, não foi mais possível sustentar isso. Com as ferramentas de comunicação digital, hoje em dia é possível alterar a forma, o sentido e até mesmo o objeto de ódio ou de amor das pessoas. Isso foi demonstrado assustadoramente pela Cambridge Analytica, em 2020, e até o Facebook reconheceu que hoje pode induzir depressão ou euforia nas pessoas apenas mudando as coisas que apresenta de “notícias” no seu perfil. O poder que estava dividido entre instituições históricas no século XX (Igreja, exército, estado, empresas, mídia e etc.) foi raptado pelas grandes corporações de tecnologia hoje, e os primeiros grupos que puderam pagar pelos efeitos deste controle alteraram a política.
O neofascismo, por exemplo, que era periférico em 2020, passou a se tornar orgulhoso. Hoje, usar tornozeleira eletrônica se tornou um motivo de júbilo, e ser abertamente racista e machista se tornou uma forma de se dizer “antissistema”, de tal maneira que a ostentação do mal virou categoria de formação identitária, e a própria democracia foi colocada em risco.
Fake news e o problema de escala
Estima-se que em 2024 cerca de 500 Exabytes de dados sejam colocados para dentro (upload) da internet por dia. 500 exabytes são cerca de 125 milhões de DVD’s. Isso tudo a cada 24 horas. Fazendo alguns cálculos é possível afirmar que hoje, a cada segundo, são colocados nas redes o equivalente a mais de 55 anos de conteúdo de vídeo.
Deixe-me novamente mencionar que esse dado é POR SEGUNDO.
Tais números são necessários para que as pessoas entendam o problema de escala do mundo digital. A cada segundo, são colocados o equivalente 55 anos de vídeos (resolução 4K) nas redes, e isso torna impossível qualquer tipo de controle analógico sobre o conteúdo.
Se tomarmos os relatórios da NewsGuard e da Oxford Internet Institute de 2020, ou os relatórios do Twitter e Facebook entre 2021 e 2023, temos um percentual variando de 9 a 20% do total de conteúdo das redes sendo considerado de desinformação. Vamos pegar um cenário conservador de 10%, e isso já significaria que, a cada segundo, as redes recebem cerca de seis anos de conteúdo de desinformação. Ou seja, não há STF, TSE, Alexandre de Moraes ou mesmo alguma Inteligência Artificial que possa controlar, verificar, analisar e bloquear essa escala de dados. É até ingênuo tentar.
Porém, esse problema também não é novo. Quando vamos deixando de ser crianças e nos tornando adultos, o mundo vai se descortinando sob nossos olhos e nenhum pai ou professor tem qualquer sonho de evitar todos os problemas que se apresentam ali a partir de proibições legais. Os procedimentos sociais, culturais e até psicológicos que nos mantêm longe dos perigos das coisas reais no mundo são muitos e diversos. Quase a totalidade deles não passa por controles de leis. Usamos as leis e o Judiciário para controles de comportamentos extremos e em números muito pequenos na nossa sociedade. Aprendemos a sobreviver no mundo real (analógico) com regramentos culturais, educacionais e sociais, e não com a proibição de comportamentos via leis e constituições sendo impostas por homens de toga ou com armas. Por que no mundo digital seria diferente?
Soluções miraculosas e soluções efetivas
Se tomarmos o caminho da história das proibições no mundo é possível perceber que antes das leis e das decisões jurídicas as sociedades tinham outras formas de se proteger dos comportamentos não desejados. Não foi o Código de Hamurabi (o primeiro código escrito da humanidade) que iniciou a proteção das sociedades contra o homicídio, por exemplo. E também não foi o princípio de Talião (Olho por olho, dente por dente) que acabou com a prática do homicídio.
Não seria, portanto, um regramento jurídico que iria conter o problema das fake news e o ataque que se faz aos princípios básicos da vida em sociedade.
Se tomarmos o caminho da fé na tecnologia, mesmo assim, a escala de dados voltados para desinformação sobrepassa completamente a capacidade – mesmo de uma inteligência artificial – de controle. Se tomarmos a experiência do país mais preparado hoje para lidar com as “fake news”, a China, ainda assim, ele não consegue conter o problema. De fato, se tomarmos os dados do Cyberspace Administration of China (CAC), ou da Universidade de Pequim eles calculam que cerca de 20 a 30% dos conteúdos relacionados à política e/ou economia poderiam ser categorizados como “fake news”. Nem o caráter fechado do sistema informacional chinês, nem o domínio de ponta de tecnologias como IA e nem o sistema político informacional centralizado oferecem soluções para o problema.
Então não há nada o que fazer?
Há sim. O caminho é o letramento e a inclusão digital. O Brasil – como a Europa vem fazendo – deveria focar no letramento digital da população. Ricos advogados, juízes e empresários no Brasil são completamente analfabetos digitalmente, mesmo que tenham iPhones e iPads de última geração pagos pelos tribunais. Não são capazes de compreender a natureza dos sistemas de informação e desinformação de modo mais efetivo do que crianças de 10 a 14 anos nascidos digitais. O caminho do combate às “fake news” e o fortalecimento das nossas instituições (incluindo a democracia e os direitos humanos) está em realizar um grande esforço de letramento digital e inclusão. E apenas a partir daí processar e punir com ferramentas jurídicas os casos desviantes.
Letramento digital, contudo, não é dar um curso de “word, office ou PhP”, como algumas “escolas” e instituições recebem dinheiro para fazer. Na realidade, nem mesmo a Microsoft ou as empresas de Elon Musk têm qualquer interesse em um letramento digital verdadeiro. Se as pessoas chegam ao mundo digital pelas mãos de Bill Gates ou do Mark Zuckerberg, isso significa que serão escravas da forma de agir digital delimitada pelos programas da Microsoft ou pelos algoritmos do Twitter e Facebook. Isso é uma prisão informacional e digital, e não qualquer forma de letramento.
O caminho, portanto, é letramento digital com soberania. Se nos anos 80 Paulo Freire já dizia que não bastava saber ler que “Eva viu a Uva”, é preciso dizer agora que não basta mais compreender a posição que Eva ocupa em seu contexto social, e nem quem trabalha para produzir a uva ou quem lucra com esse trabalho. É preciso entender hoje como Eva sabe que o que está produzindo é efetivamente uma uva e que tipo de tecnologia está envolvida no processo. Para onde vão e de onde vêm os dados que Eva precisa para efetivamente ver a uva e como os algoritmos mostram a Eva uma uva, quando – ao mesmo tempo – mostram para Ivo uma pera. O letramento digital precisa ser crítico, soberano, político, informacional, plural e orientado pelas lógicas das necessidades e saberes dos territórios e nunca pelos interesses ou vontades corporativas das big techs.
Nesse sentido, convido a todos e todas a acompanharem essas discussões a partir do evento ELID (Encontro Técnico científico em letramento e inclusão digital) organizado pela CAPES com parceria do MCTi e da UFAL, a se realizar em Maceió nos dias 27, 28 e 29 de junho agora. Inscrições pelo link https://anjosdigitais.org/inscricoes-elid-2024/
(*) Fernando Horta é historiador, mestre e doutor em História das Relações Internacionais, pesquisador IBICT/MCTi, Consultor PNUD/ONU para Transformações Digitais