“Inteligência Artificial” é um termo curioso. Primeiro, pela sua relação com a ficção, da mitologia ao cinema – a revolta da criatura contra o criador é reeditada pela imagem de uma consciência singular advinda da máquina que, por fim, submete a humanidade. Para além disso, a “inteligência artificial” entrou de vez no baile do vocabulário atual: estamos vivendo hoje uma proliferação inédita de processos automatizados por “máquinas inteligentes”, ao mesmo tempo em que projeta-se um tom de empolgação pela retórica da inovação – retórica nem tão nova assim, que esconde problemas incontornáveis, esses sim inéditos. Mas o que são, enfim, as Inteligências Artificiais?
Essa pergunta poderia nos levar aos princípios da escrita matemática, até a convergência entre mitos, abstração e linguagem. Para nos pouparmos disso, vale lembrar que o termo surge em 1956, criado por John McCarthy, após o desenvolvimento tecnológico mobilizado por cientistas que vão desde Turing até a empreitada cibernética, atravessando as décadas de 1940 e 1950. Charles Babbage e a Condessa de Lovelace (Augusta Ada King) são precursores desses problemas no século XIX, especulando projetos (como a famosa máquina analítica, precursora mecânica dos computadores) de automação do cálculo de rotas marítimas com os recursos da infraestrutura pré-digital, entre a primeira e a segunda revolução industrial.[1]
Tudo isso é importante para compreendermos que IAs tratam de longos processos relacionados à automação do trabalho – especialmente o trabalho intelectual – no processo de produção. A história e desenvolvimento da computação (e, assim, das inteligências artificiais) é marcada pela economia política da expansão marítima colonial e, consequentemente, pela própria dinâmica de produção e circulação das mercadorias – como ocorre com o desenvolvimento tecnológico em geral sob a égide do capital. As IAs podem ser pensadas pela ótica da divisão social do trabalho, para além de toda mística, do Vale do Silício ao cinema, que envolve o assunto.
Quanto falamos de inteligência artificial, frequentemente há uma relação direta com a ideia de “consciência” das máquinas, algo que não se deve simplesmente às ficções distópicas, mas encontra-se no horizonte de imaginação dos seus idealizadores. Vale lembrar, contudo, que o “pensamento” da máquina refere-se em grande medida àquele relacionado à tarefa, ao procedimento, à percepção, à execução, frequentemente à escolha ou decisão e, cada vez mais, até mesmo à criação (como é o caso das atuais IAs generativas). Para além da figura mítica de uma singularidade, são esses os horizontes práticos de problemas onde incidem as IAs. Querendo ou não, a empreitada do desenvolvimento de máquinas pensantes sempre teve, implícita ou explicitamente, relacionada ao problema da delegação de processos operativos e cognitivos.
Entre os primeiros programas que jogam xadrez até aqueles capazes de distinguir, por exemplo, bicicletas de motos em uma imagem, encontra-se o desenvolvimento de duas tradições fundadoras dos estudos em IA: a tradição simbólica e a tradição emergente (ou subsimbólica). Em termos técnicos, enquanto a primeira se baseia em um modelo lógico inferencial-dedutivo, a segunda fundamenta-se na lógica indutiva pela análise probabilística e estatística de dados – o que reflete também distintas concepções de inteligência: primeiro, enquanto representação de mundo; segundo, como experiência de mundo. Vale notar que se a tradição simbólica se baseava em uma concepção lógica do pensamento, a tradição emergente partia de uma concepção biológica, já que toma as redes neurais como modelo referencial. Os dois projetos são fundamentais e integram o processo de digitalização que experimentamos até hoje.
Não demorou nada para a possibilidade da delegação de decisões humanas às máquinas aparecer como um imperativo de mercado às recentes inteligências artificiais. Setores médicos como planos de saúde, por exemplo, já propunham o desafio de automação do diagnóstico[2] e, no fim da década de 1950, o desenvolvimento de máquinas capazes de emular decisões humanas entrava na pauta do dia como um dos horizontes inaugurais da chamada era da informação. Mas a informação era apenas metade do problema computacional: por outro lado havia seu processamento, de tal modo que essa dualidade atravessa a história entre as duas tradições em IA. Por ser viável (financeiramente e tecnicamente) sob as condições restritas de separação entre memória e processamento vigentes na computação da época, a tradição simbólica tomou a frente, e o desenvolvimento das Expert Machines foi o primeiro sucesso na proliferação de IAs.
Esses sistemas de experts consistem na extração e codificação de saberes, oriundos de especialistas, para formular um banco de dados e regras dedutivas – um sistema baseado em regras do tipo “se x, então y” – para programar e automatizar conclusões e decisões. Em 1965, Edward Feigenbaum apresenta formalmente seu primeiro modelo, e a década seguinte será marcada pelo desenvolvimento dessas máquinas voltadas ao diagnóstico médico e diversas outras áreas, como a especulação no mercado da bolsa de valores, a avaliação de risco na extração de petróleo ou a automação da interface cliente/atendente.
1980 pode ser considerada a década onde temos o primeiro boom das IAs, confirmando também a tendência já vista na década anterior de ampliação do mercado de trabalho para cientistas da computação e programadores, fora da pesquisa acadêmica: temos o estabelecimento de uma nova classe voltada ao trabalho intelectual especializado. Em 1981 ocorre o primeiro uso de IAs no campo das diretrizes legais do Estado – a sua aplicação no British Nationality Act serviu tanto para reforçar a eficácia de tais tecnologias na implementação de regras, leis e regulamentos, quanto para demonstrar o direito como área frutífera de exposição dos limites da lógica proposicional dedutiva para a representação de saberes.[3] O paradigma de processamento informacional vigente conseguia fazer máquinas que seguiam regras, mas não conseguiam “percebê-las” ou “aprendê-las” enquanto padrões externos.
O projeto que prometia a superação desses limites havia sido temporariamente engavetado por ser impraticável, dadas as condições tecnológicas da época: as IAs emergentes visavam justamente a construção de máquinas que fossem capazes de aprender, e não só que emulassem o pensamento através de um conjunto de regras e saberes. Compreendendo esse processo de aprendizagem como uma relação entre “experiência de mundo” e a emergência de modelos aproximativos (via probabilidade e estatística) derivados dessa “experiência”, a tradição emergente demandava uma velocidade de processamento inalcançável, dada a separação vigente entre informação e processador. Foi com o desenvolvimento dos microprocessadores que a tradição emergente pode ser retomada pelo paradigma conexionista atual.
O primeiro modelo emergente, chamado Perceptron, foi criado em 1943 por Warren McCulloch e Walter Pitts, mas sairia do papel somente em 1957 — com o Mark I de Frank Rosenblatt, frequentemente reconhecido como o tipo mais simples de rede neural artificial, e que dá origem ao que se chama hoje de machine learning (ou aprendizado de máquinas). Como foi dito anteriormente, essa tradição se baseia em uma imagem biológica para a inteligência, tomando a conexão neural como modelo – se impulsos elétricos percorrem os neurônios, esse processo pode ser reproduzido (ou mal copiado) em máquinas, com sinais representados por valores matemáticos.
Mas qual é a grande diferença das redes neurais artificiais? Fundamentalmente, elas “aprendem” – ou, poderíamos dizer, elas precisam ser treinadas. Para que possam reconhecer um quadrado, amostras de quadrados e não-quadrados são fornecidas e, eventualmente, o sistema poderá “adivinhar” quais são ou não quadrados – de acordo com a informação dos acertos e erros. As primeiras tentativas são aleatórias, mas os sinais que indicam se foram corretas ou não formam uma espécie de sistema de “votos” onde os agentes que “adivinharam” corretamente ganham mais peso. Assim, a máquina “aprende” estatisticamente, de tal maneira que poderá eventualmente lidar com problemas não inscritos de modo explícito em sua programação. Com os avanços microeletrônicos, expandiu-se de modo radical as possibilidades dessa abordagem, gerando a “nova onda” conexionista.
As IAs emergentes e seus desenvolvimentos conexionistas não superam o impasse da formalização matemática como representação, mas oferecem maneiras (nada infalíveis) de contornar as consequências desse impasse. Ao invés de “travar” quando confrontada com um problema para o qual não há diretriz explícita, a máquina teria condições de produzir novas diretrizes, ainda que provisórias. Quanto mais “treinada”, mais “apta” a máquina estará para lidar com “situações de mundo real”, ao menos teoricamente – e por isso grande parte da paisagem digital é tomada por interfaces que contribuem constantemente para o treinamento de IAs. Encontramos aqui uma dimensão fundamental de trabalho não-pago, na medida em que trabalhamos gratuitamente e contribuímos para a valorização das plataformas que utilizamos. Mas, para além disso, adentramos em um processo de delegação do pensamento e automação das escolhas e decisões, que reconfigura a nossa experiência de mundo.
Toda essa história pode parecer muito técnica e abstrata, mas é necessária para compreendermos a dimensão política, econômica e cultural em jogo nos desenvolvimentos tecnológicos atuais. Primeiro, percebemos que o fervor com Inteligências Artificiais não é completamente inédito, e sim que se trata dos desdobramentos radicais de projetos que já contam com mais de meio século de história (ou quase dois séculos, se considerarmos a máquina analítica de Babbage como marco inaugural), e são marcados pelas dinâmicas sociais de modo constitutivo. Os apelos e promessas relacionados às IAs retornam agora por vários fatores e, apesar de não ser sua estreia na ampla cena social, esse retorno – no contexto de hiper-conexão global integrada em rede, que conta com aproximadamente 5,3 bilhões de usuários, ou seja, dois terços da população mundial, como fonte constante de dados extraídos e processados por arquiteturas automatizadas de conglomerados privados, cada vez mais inacessíveis — já demonstra consequências inéditas.
Se encontramos a divisão social do trabalho desde o projeto de automação do cálculo de rotas marítimas no século XIX, temos os desdobramentos dessa ambição na estrutura dedutiva simbólica como automação do processamento de dados, e na automação da “percepção” e do “aprendizado” pelos modelos de redes neurais artificiais – que se inicia com a tradição emergente e retorna pelo conexionismo. Tudo isso estrutura a digitalização do tecido social, reconfigurando a produção e circulação econômica, ao passo em que também produz novas condições de subjetivação: a cultura é tomada pelo hiperestímulo e pela metrificação das reações e emoções, pela quantificação da atenção, pelo mercado da influência, pela extração de dados, etc.
A digitalização inaugura um novo horizonte colonizável para a forma mercadoria, que dita o ritmo acelerado – e a harmonia atonal – de uma sociedade em crise. A conexão aparece como solução para a desintegração das relações; a paisagem digital é cada vez mais recortada por uma curadoria de conteúdos automatizada por máquinas que “pensam por nós”, conteúdos esses submetidos às formas que emergem dessa própria automação. Entretanto, não devemos recair em uma espécie de “tecnofobia”, fantasiando um retorno anacrônico a certa experiência originária, analógica e autêntica (que, via de regra, nunca existiu). Também não devemos recair em variações despolitizantes que tratam IAs “apenas” como ferramentas ou ainda creem em certa neutralidade política fundamental à tecnologia.
As inteligências artificiais “realmente existentes” são o epíteto da digitalização e anunciam o próprio fim da modernidade pela automação (da escolha, do pensamento, da criação). Não parece ser necessariamente um problema usar o ChatGPT para auxiliar em uma apresentação ou usar o DeepL para sugerir uma tradução. Mas as perguntas deveriam ser outras: o que acontece quando inteligências artificiais passam a automatizar processos de gestão da crise de reprodução social? Quais são as consequências de delegar a textura da nossa experiência à curadoria impessoal das máquinas? Quais são os custos – inclusive físicos, já que especula-se o gasto energético de “dois Brasis” com IAs até 2026 – de uma infraestrutura digital baseada na promessa de auto-organização como automação privada do pensamento? Esses são problemas que não podem ser simplesmente delegados às máquinas justamente por sua qualidade política – e, em seu sentido radical, a política não pode ser automatizada.
(*) Cian Barbosa é bacharel em sociologia (UFF), doutorando em filosofia (UNIFESP) e psicologia (UFRJ), pesquisa teoria do sujeito, crítica da cultura, violência, tecnologia, ideologia e digitalização; também é integrante da revista Zero à Esquerda, tradutor e ensaísta, além de professor e coordenador no Centro de Formação, onde oferece cursos — como o de Introdução a Lacan pelo estruturalismo e a teoria social, que inicia no dia 11/02/2025.