Por trás da inteligência artificial: uma análise das bases epistemológicas do aprendizado de máquina
Cristian Arão[1]
Resumo: O presente artigo visa a analisar, de forma crítica, os fundamentos epistemológicos da inteligência artificial (IA). Com base no exame de obras que explicam o funcionamento dessa tecnologia, compreende-se que a sua base epistemológica é composta pelo método indutivo e pela estatística apoiada em uma matematização da realidade. São esses elementos que permitem que as máquinas aprendam através do reconhecimento de padrões e possam fazer previsões e oferecer respostas. No entanto, esses fundamentos apresentam limitações e problemas, os quais foram discutidos por filósofos, ao longo da história. Neste artigo, será demonstrado como a indução e a matematização funcionam como base epistemológica da inteligência artificial e como algumas das limitações dessa tecnologia podem ser explicadas através das debilidades dos métodos que a sustentam.
Palavras-chave: Inteligência artificial. Método indutivo. Matematização.
Introdução
A inteligência artificial (IA) é uma das tecnologias mais promissoras e impactantes do nosso tempo, e tem sido objeto de estudo e pesquisa em diversas áreas do conhecimento. Desde a sua concepção, a IA tem sido vista como uma ferramenta capaz de transformar a maneira como vivemos, trabalhamos e nos relacionamos uns com os outros. No entanto, também há preocupações acerca do seu uso, como a possibilidade de viés algorítmico, a perda de empregos e a falta de transparência em relação às decisões tomadas.
Aqui será apresentado o estado da arte da inteligência artificial, suas aplicações e as preocupações que ela gera, a fim de fornecer uma visão geral sobre essa tecnologia e suas implicações para o futuro. Inicialmente, será discutido o que é inteligência artificial e como ela funciona, abordando certos conceitos, como aprendizado de máquina, redes neuronais[2] e algoritmos. A partir dessa introdução, é possível compreender como o método indutivo e a estatística funcionam como fundamento dessa tecnologia e quais as consequências e limitações dessa base epistemológica.
O método indutivo é um tipo de raciocínio que parte de fatos particulares, para chegar a uma conclusão geral ou universal. Esse método é muito usado nas ciências naturais, pois permite criar novos conhecimentos, em função da observação e da experimentação dos fenômenos. Esse método foi proposto pelo filósofo inglês Francis Bacon (2010), no século XVII, como uma forma de investigar a natureza, sem se basear em autoridades ou tradições. Contudo, há na história do pensamento ocidental diversas críticas à indução, as quais se iniciaram ainda no século XVIII, com David Hume e sua afirmação sobre o papel da crença e do hábito, nessa metodologia.
Além do método indutivo, outro fundamento da IA é a estatística. Os algoritmos, partindo do método indutivo, reconhecem padrões e calculam probabilidades através de modelos estatísticos preditivos. Para comparar os dados, a inteligência artificial os transforma em números e realiza incontáveis operações matemáticas, para oferecer uma previsão ou uma resposta. Embora essa tecnologia se mostre muito eficiente, em diversas atividades, essa matematização da realidade também apresenta limitações e problemas que foram abordados por alguns filósofos, como Adorno, Horkheimer e Marcuse.
Em que pesem os avanços proporcionados pela inteligência artificial, há igualmente uma série de debilidades e imprecisões encontradas em inúmeras ocasiões nas quais se averigua o nível de acurácia dessa tecnologia. Essas imperfeições costumam se esconder atrás do caráter fetichista da máquina automatizada[3]; o espanto com os softwares que aparentemente ganharam vida própria com a revolução ocasionada pelo aprendizado de máquina pode ter feito com que minimizemos as falhas e tenhamos uma crença muito grande no poder dos algoritmos que compõem a IA, ainda que essas imprecisões sejam largamente documentadas e expostas.
Os vieses algorítmicos e as alucinações[4] são alguns exemplos de como as inteligências artificiais podem oferecer respostas problemáticas, preconceituosas ou simplesmente inexatas. Pretende-se, neste artigo, oferecer uma interpretação sobre esses “erros”, explicando o papel dos fundamentos epistemológicos (o método indutivo e a estatística) nessas debilidades.
1 Estado da arte da inteligência artificial
A inteligência artificial é uma tecnologia que causa espanto, admiração e medo, em muitas pessoas. Nos últimos anos, o seu desenvolvimento tem oferecido muitas novidades que frequentemente são apresentadas com grande repercussão, em diversas mídias. Algoritmos das redes sociais, tecnologias de reconhecimento facial, assistentes pessoais (como Alexa), chatbots (softwares que simulam conversa humana) e os aplicativos que criam imagens a partir de comandos são alguns exemplos de como a IA tem sido utilizada, contemporaneamente.
Nesse contexto, muitas pessoas têm aproveitado essa tecnologia, em suas atividades pessoais e profissionais. De outro lado, há também muita preocupação acerca da influência dos algoritmos na política, bem como do possível aumento da desigualdade e do desemprego, causado pela sofisticação e pela popularização de certas ferramentas, como ChatGPT.
Em ambas as reações (otimismo e apreensão), há uma crença muito grande na acurácia da inteligência artificial. As respostas e os resultados sugeridos por essa tecnologia são considerados conclusões objetivas provenientes de complexos algoritmos que devem possuir um sistema de julgamento mais preciso do que o realizado por um ser humano. Por esse motivo, empresas têm feito contratações e demissões de funcionários, de forma automatizada, baseando-se exclusivamente no parecer da inteligência artificial. Em muitos casos, até mesmo a mensagem que informa a demissão ou contratação é feita de maneira automatizada, sem a supervisão de um profissional humano[5].
Muitas dessas decisões, inclusive, não são sequer passíveis de auditoria. No nível mais avançado do aprendizado de máquina, chamado redes neuronais, não é possível saber os motivos que levaram o software a alcançar certa conclusão. Devido ao grande número de dados processados, não se pode relatar com exatidão em que foi baseada a decisão. Desse modo, receber as informações dos algoritmos é uma ação de crença na tecnologia, sem saber como a resposta foi obtida.
No livro Dominados pelos números (2019), o matemático David Sumpter relata um caso interessante que explicita a crença nas conclusões alcançadas com o auxílio da tecnologia. Segundo ele, foi realizada na Inglaterra uma sofisticada operação para descobrir a identidade do artista visual conhecido como Banksy. Esse projeto contou com um poderoso sistema, que envolvia mapas de calor e algoritmos, os quais calcularam uma quantidade enorme de informação. Ao final da investigação, os pesquisadores apresentaram o nome de um indivíduo que muito provavelmente seria o artista.
Fato curioso nessa história é que a mesma conclusão foi alcançada, anteriormente, por jornalistas do Daily Mail, sem a mesma repercussão e sem a mesma tecnologia. Ou seja, a mesma resposta já tinha sido encontrada anteriormente, mas somente quando ela foi descoberta por meios tecnológicos e supostamente exatos é que ela conseguiu uma validação mais plena.
Esses são alguns exemplos que demonstram como costumamos receber o conhecimento gerado pelas inteligências artificiais. Contudo, essa tecnologia é muito menos precisa e objetiva do que habitualmente consideramos. O trabalho de Sumpter, em Dominados pelos números, é esclarecer que somos dominados pelos algoritmos, não porque eles são superpoderosos, mas porque criamos um fetichismo lhes que atribui mais poder do que eles realmente possuem.
Sumpter pôs à prova o algoritmo que teria sido usado pela Cambridge Analytica, para influenciar as eleições de 2016, dos Estados Unidos, e concluiu que o sistema era muito menos acurado do que se falava e do que a própria empresa propagandeava[6]. Em sua investigação sobre os efeitos dos algoritmos na política, Sumpter (2019, p. 62) também entrevistou Aleksandr Kogan, o responsável pela criação do app usado pela Cambridge Analytica. Na entrevista, Kogan afirma que a narrativa que atribui enorme capacidade do sistema para mudar opiniões é muito mais uma autopropaganda. Isso quer dizer que, embora as novas tecnologias de colheita de dados e de propaganda personalizada, guiadas por IA, representem um avanço na publicidade, elas não são tão precisas, nem são capazes de converter totalmente uma pessoa.
Para exemplificar as debilidades do atual estado da arte da inteligência artificial, Sumpter apresenta experimentos envolvendo jogos. Desde o início do desenvolvimento dessa tecnologia, seu alcance foi medido pelo desempenho em determinados jogos, como xadrez. Posteriormente, programadores passaram também a testar seus projetos de aprendizagem de máquina em videogames. Esse é um ambiente interessante para se testar a inteligência artificial, porque oferece padrões, os quais deverão ser reconhecidos, para que o sistema possa tomar as melhores decisões.
Em sua pesquisa, Sumpter concluiu que, nos jogos onde os padrões são mais previsíveis e simples, as IAs conseguem ter um desempenho razoável. Porém, quando o jogo se comporta de maneira mais imprevisível, há uma dificuldade de aprendizado por parte da máquina, que torna difícil que ela acompanhe o nível humano.
Portanto, a função fundamental dos algoritmos (reconhecer padrões) não é algo tão avançado. Essa informação pode soar estranha, em um mundo onde existem diversos serviços sob demanda que reconhecem padrões de nossa personalidade. Contudo, costuma-se reparar sempre que os algoritmos mostram um resultado satisfatório e muito pouco, quando entregam indicações que não possuem nenhuma relevância. Ademais, muitos dos acertos das propagandas e das sugestões possuem uma lógica muito básica, como oferecer produtos pesquisados anteriormente, ou somente um pouco mais complexa, como oferecer uma cerveja no final de tarde de uma sexta-feira.
Sumpter não é único a apresentar uma versão deflacionada do poder dos algoritmos. Ele é acompanhado por Brittany Kaiser (2020), que trabalhou na Cambridge Analytica e revelou que a empresa usava mais uma análise da realidade baseada em um conhecimento profundo de psicologia e teoria social do que uma intervenção exclusivamente feita por inteligência artificial.
Outra deficiência dos algoritmos que não pode ser ignorada é a existência de vieses, os quais fazem com que a IA se torne, em muitas situações, preconceituosa. O documentário Coded Bias, que significa justamente códigos enviesados (ou preconceituosos), explica como diversos softwares exercem preconceitos de etnia, de gênero etc. De forma mais superficial, pode-se afirmar que esses preconceitos são frutos das concepções dos programadores e dos valores da sociedade, porque as máquinas aprendem com as informações disponíveis no contexto.
Mais profundamente, pode-se analisar essa questão do viés e das debilidades da inteligência artificial, pensando-se o método usado no aprendizado de máquina. Para tal, é preciso entender a mudança que revolucionou a inteligência artificial e permitiu sua evolução, desde os anos 1990. Naquele momento, a estatística passou a ser o fundamento para um tipo de programação na qual o software aprende, de certa forma, sozinho, através de tentativa e erro. Para realizar o aprendizado, criam-se formas de fazer com que a inteligência artificial generalize informações, a partir da percepção de padrões; é, portanto, baseada no método indutivo.
2 Inteligência artificial é método indutivo cristalizado
Como exposto anteriormente, na história do desenvolvimento da inteligência artificial, a disputa com seres humanos em algumas atividades e jogos ocupa um lugar fundamental. Para medir a eficiência dos robôs, muitas vezes são feitas comparações com o desempenho de pessoas no mesmo exercício. É nesse contexto que surgem os desafios homem-máquina, como a disputa de xadrez entre o Grande Mestre enxadrista russo, Gary Kasparov, e o software Deep Blue.
Em 1997, a inteligência artificial venceu o conjunto de partidas contra o jogador, que era considerado o melhor do mundo. Todavia, embora o duelo tenha tido um impacto significativo na cultura, ele não representou um avanço na tecnologia. No final dos anos 1990, o tipo de técnica usada para a criação de inteligências artificias havia chegado a um beco sem saída e era considerado, por especialistas, como algo sem futuro.
O modo de programação daquela época pode ser compreendido como um processo “de cima para baixo”, no qual os programadores alimentam a máquina com as instruções sobre o que fazer, sob determinada situação. Foi dessa forma que o Deep Blue foi criado a partir de dados fornecidos por mestres enxadristas, abastecendo o autômato, que era capaz de analisar cerca de 200 milhões de posições por segundo.
O sucesso da inteligência artificial nesse tipo de desafio se dá pelo fato de que, em um ambiente fechado, como um tabuleiro de xadrez, é possível munir o programa com informações suficientes para que ele domine todo aquele território conhecido. Contudo, o seu alcance é limitado pelas informações passadas pelos programadores. Assim, segundo Sumpter (2019, p. 231), “[...] se, por um lado um computador podia ganhar no xadrez, por outro, era difícil fazer um braço robótico pegar um copo d’água”.
Nesse sistema baseado em tentativa e erro, o reconhecimento de padrões, segundo Mitchel (1997, p. 23), é fundamentado no método indutivo. A indução, por sua vez, constitui-se como um problema para a teoria do conhecimento, desde Hume. O filósofo escocês foi o primeiro a sistematizar uma crítica a essa forma de entendimento; de acordo com ele, não há fundamento racional nesse método. Partindo do princípio de que conhecemos através da experiência, Hume (1989, p. 79) se propõe investigar o que está presente na relação causa e efeito:
Imaginamos que, se fossemos repentinamente lançados neste mundo, poderíamos de antemão inferir que uma bola de bilhar comunicaria movimento a outra ao impulsioná-la, e que não teríamos necessidade de observar o evento para nos pronunciarmos com certeza a seu respeito. E é tão grande a influência do costume que, onde ela se apresenta com mais vigor, encobre, ao mesmo tempo, nossa natural ignorância e a si mesma e, quando dá a impressão de não intervir, é unicamente porque se encontra em seu mais alto grau.
No entanto, para nos convencermos de que, sem exceção, todas as leis da natureza e todas as operações dos corpos são conhecidas apenas pela experiência, as reflexões que seguem são sem dúvida suficientes. Se qualquer objeto nos fosse mostrado, e se fossemos solicitados a pronunciar-nos sobre o efeito que resultará dele, sem consultar observações anteriores; de que maneira, eu vos indago, deve o espírito proceder nesta operação? Terá de inventar ou imaginar algum evento que considera como efeito do objeto; e é claro que esta invenção deve ser inteiramente arbitrária. O espírito nunca pode encontrar pela investigação e pelo mais minucioso exame o efeito na suposta causa, Porque o efeito é totalmente diferente da causa e, por conseguinte, jamais pode ser descoberto nela. O movimento na segunda bola de bilhar é um evento bem distinto do movimento na primeira, já que não há na primeira o menor indício da outra.
Hume (1989, p. 79) argumenta que não há como compreender o funcionamento de uma coisa, sem que alguém tenha experimentado anteriormente. Portanto, Adão, em seu primeiro contato com o mundo, não teria como saber que o fogo queima ou que a água flui, por exemplo. Essa ideia é demonstrada de forma interessante na primeira adaptação cinematográfica do livro Frankenstein, de Mary Shelley. No filme de 1931, dirigido por James Whale e estrelado por Boris Karloff, a criatura do Dr. Frankenstein é como uma tábula rasa que não compreende nada, até experimentar de alguma forma. Em dado momento da história, encontra uma garota nas margens de um lago, que arremessava flores na água, para vê-las boiar como um barco. Percebendo essa propriedade da água de fazer as flores boiarem, a criatura atira a criança, imaginando que ela também boiaria. A garota, entretanto, afunda e a perseguição contra a criatura se inicia.
A tragédia que acomete o famoso monstro da literatura e do cinema é provocada justamente pelo método indutivo. A criatura percebeu que 100% das coisas que viu arremessadas na água boiavam, embora a sua experiência estivesse limitada às flores. Partindo dessa percepção, inferiu que a criança também boiaria. Hume explica que a inferência de um acontecimento surge a partir da observação de acontecimentos semelhantes. Em função da percepção de certo padrão, acredita-se que haverá repetição, se houver outro episódio sob as mesmas circunstâncias. Contudo, segundo Hume (1989, p. 82), não há um termo médio que faça conexão entre a causa e o efeito.
Não há justificação racional que ligue o efeito à causa; se houvesse tal fundamento amparado na razão, seria possível conhecer as coisas sem experimentar. Hume (1989, p. 86) conclui, então, que é o costume (ou o hábito) a verdadeira fundamentação do método indutivo. É pela percepção da repetição de certos acontecimentos que nos habituamos a esperar que se repetirão, no futuro. Assim, as inferências não são feitas através do raciocínio, mas com a crença de que as coisas se comportarão da mesma forma que nas vezes anteriores.
Esperar que as coisas se comportem como aconteceram anteriormente pode ser nomeado como um pré-conceito, ou seja, algo que já se sabe antes de acontecer. Por esse motivo, os algoritmos são fundamentalmente enviesados. Além de incorporarem os preconceitos (conscientes ou inconscientes) das pessoas que os programaram, por terem como base o método indutivo, tendem a ser preconceituosos, porque se baseiam em como as coisas aconteceram. O que faz com que os seres humanos possam se esquivar do preconceito inerente ao método indutivo é a capacidade de poder refletir sobre as informações, coisa que a máquina não pode fazer.
Um exemplo de como a indução cria um sistema algorítmico preconceituoso é a generalização em função da etnia. Suponhamos que um sistema seja treinado para reconhecer qual cidadão é mais provável de cometer um crime, no Brasil. Para criar um padrão, o algoritmo analisa a população carcerária. Sabe-se que a grande maioria dos presos, em nosso país, é negra. A partir desse dado, a inteligência artificial pode inferir que é maior a probabilidade de um negro ser um criminoso. Isso é exatamente o que chamamos de preconceito.
A inteligência artificial, apesar de suas limitações, como a imprecisão, a falta de auditabilidade e o viés do raciocínio indutivo, tem-se tornado cada vez mais presente na sociedade, e a fé em seus resultados é algo cada vez mais natural. Acredita-se que os sistemas automatizados possam eliminar o subjetivismo e as incertezas das decisões. No entanto, essas expectativas podem ser frustradas.
3 O esclarecimento e a matematização da realidade
Se nos esquivarmos de todo marketing e toda fetichização que envolve a inteligência artificial, podemos classificá-la como um método estatístico de reconhecimento de padrões. O fundamento dessa tecnologia são algoritmos guiados por modelos estatísticos de probabilidade que calculam previsões ou decisões. A palavra “algoritmo” possui a mesma origem da palavra “algarismo” e pode ser explicada, grosso modo, como uma receita, uma sequência de instruções para se alcançar determinado fim.
Os algoritmos calculam os dados de acordo com a lógica que lhes foi apresentada durante o treinamento e oferecem respostas que possuem alguma porcentagem de probabilidade de acerto. É dessa forma que a IA consegue “compreender” a realidade e oferecer soluções e explicações sobre o mundo que nos cerca e sobre nós mesmos. Se for atribuída a uma inteligência artificial a tarefa de descobrir em qual candidato uma pessoa vai votar, por exemplo, ela pode analisar o rastro da pessoa nas redes sociais (curtidas, comentários, pessoas que segue etc.), medir as importâncias desses dados, transformá-los em números e realizar uma infinidade de cálculos, para inferir uma resposta.
Desse modo, é um processo que se inicia transformando em número as próprias formas matemáticas e que pretende explicar toda a realidade, em função de equações. Ainda antes de Sócrates, Pitágoras já havia apostado nos números como o fundamento de tudo, a arché. Segundo Adorno e Horkheimer (1985, p. 20), há também em Platão uma consideração especial pelos números, na Teoria das Ideias.
Posteriormente, Descartes (1988), com a divisão entre res cogitans e res extensa, abriu caminho para a possibilidade de matematização da natureza, a qual passou a ser entendida como uma espécie de máquina. Ou seja, a res extensa, que inclui a natureza, as produções humanas e o próprio corpo humano, poderia ser compreendida em termos matemáticos e seu funcionamento entendido como concebemos o funcionamento de um relógio.
Conforme Marcuse (2015, p. 168), Galileu dá continuidade a esse processo, propondo a matematização da natureza.
A ciência galileliana é a ciência da projeção e antecipação metódicas, sistemáticas. Mas - e isto é decisivo - de uma antecipação e projeção específicas: nomeadamente, aquelas que experienciam, compreendem e formam o mundo em termos de relações calculáveis, predicáveis entre unidades exatamente identificáveis. Nesse projeto, o universal quantificável é um pré-requisito para a dominação da natureza. Qualidades individuais, não quantificáveis, se interpõem no caminho de uma organização dos homens e das coisas de acordo com o poder mensurado a ser extraído deles. Mas esse é um projeto específico, sócio-histórico, e a consciência que empreende esse projeto é o sujeito escondido da ciência galileliana; a última é a técnica, a arte de antecipação estendida infinitamente.
Marcuse argumenta que a ciência galileliana tem como objetivo dominar a natureza e extrair dela o máximo de poder e utilidade possível, sem levar em conta as qualidades individuais e não quantificáveis dos seres e das coisas. Segundo ele, essa ciência é um projeto específico, sócio-histórico, o qual busca controlar e explorar o mundo e os homens. A ciência galileliana é, portanto, uma técnica, uma arte de antecipação infinita, que não se preocupa com os fins éticos ou políticos de seu conhecimento.
Essa narrativa compõe a história do que os Teóricos Críticos chamam de esclarecimento. Esse conceito foi anteriormente desenvolvido por Kant (1985), no texto Resposta à pergunta: o que é esclarecimento?, e significa a saída do homem da sua menoridade, da qual ele é o próprio culpado. A menoridade é a incapacidade de fazer uso do seu próprio entendimento, sem a direção de outro indivíduo. Kant defende que o homem deve ter a coragem de se servir do seu próprio entendimento, sem depender da tutela de outros. Ele propõe o lema latino Sapere aude, que significa “Ousa saber” ou “Atreve-te a pensar”, como a divisa do esclarecimento. O filósofo considera que o esclarecimento é um processo histórico e coletivo que depende da liberdade de expressão e do uso público da razão.
Para os filósofos da Escola de Frankfurt, o esclarecimento também é um processo histórico de emancipação dos seres humanos, através do uso da razão e do conhecimento científico. No entanto, esse processo tem um lado negativo, pois leva à alienação, à reificação e à perda da capacidade crítica e da sensibilidade estética. O esclarecimento se torna uma forma de dominação da natureza e dos próprios seres humanos, os quais são reduzidos a objetos quantificáveis e manipuláveis. O esclarecimento, por conseguinte, é encarado como uma forma de racionalidade que se torna irracional, porque nega a diversidade, a liberdade e a autonomia dos indivíduos. Adorno e Horkheimer (1985, p. 21) propõem, então, uma análise do esclarecimento que busca resgatar o seu potencial emancipatório e crítico, sem cair no mito ou na barbárie.
O mito converte-se em esclarecimento, e a natureza em mera objetividade. O preço que os homens pagam pelo aumento de seu poder é a alienação daquilo sobre o que exercem o poder. O esclarecimento comporta-se com as coisas como o ditador se comporta com os homens. Este conhece-os na medida em que pode manipulá-los. O homem de ciência conhece as coisas na medida em que pode fazê-las.
Nesse contexto, a matematização é o fundamento do lado negativo do esclarecimento, porque é o que permite a transformação das pessoas e da natureza em números, que podem ser medidos e calculados para serem dominados e controlados. Destacam Adorno e Horkheimer (1985, p. 20): “O número tornou-se cânon do esclarecimento”. Com o avanço da modernidade, a matematização alcançou ainda mais espaço na ciência, de modo que, para muitos, a única verdade científica é aquela que pode ser medida e calculada. Os dados numéricos são cada vez mais vistos como imprescindíveis, não só nas ciências naturais, mas nas chamadas ciências humanas, como as ciências sociais e a psicologia.
Na economia política, o fetiche pelos números é tão presente, que se acredita ser possível compreender o comportamento humano através de esquemas matemáticos. Perdeu-se, inclusive o nome “política” da expressão original “economia política”, e os números foram sacralizados de modo que podem impor restrições arbitrárias, por intermédio de simplificações excessivas e pressupostos irrealistas à realidade econômica, ignorando aspectos históricos, sociais, culturais e institucionais que são relevantes para a compreensão dos fenômenos econômicos e políticos.
A inteligência artificial se insere nesse contexto como uma matematização de toda a realidade. Pela coleta de dados por câmeras, interações no meio digital, biometria, dentre outros meios, transforma-se a realidade em números, os quais são comparados para oferecer uma resposta ou uma previsão sobre a economia, o ser humano, a natureza etc. A IA, aliada à psicologia, pretende conhecer, de maneira matemática, também a subjetividade humana. É, portanto, um avanço frente à divisão feita por Descartes entre mente e matéria. Se, para o filósofo francês, somente a res extensa poderia ser medida e explicada de modo quantitativo, a inteligência artificial junto com a ciência comportamental almejam explicar a res cogitans em termos mecanicistas. Ou seja, a subjetividade humana (os pensamentos, desejos, os medos etc.) passa a ser medida e calculada; da mesma forma que a natureza foi explicada em termos mecanicistas, a psique também passa a ser.
A partir de meados da década passada, essa matematização da mente humana foi usada para tentativa de manipulação política; esse fenômeno foi largamente documentado em livros, como Os engenheiros do caos (2020) e Manipulados. Ainda que áreas da psicologia já tivessem sido empregadas para a propaganda política, houve uma inovação que veio por parte dos avançados algoritmos que poderiam não só conhecer profundamente uma pessoa, como influenciá-la através de propaganda personalizada. Contudo, em que pesem as especificidades dessa forma de marketing político, tudo indica que, como afirmado anteriormente, a capacidade de conhecimento e o poder de conversão dos algoritmos não são tão avançados como se costuma acreditar; a acurácia dos sistemas usados por certas empresas, como a Cambridge Analytica, é muito menor do que foi noticiado. Isso quer dizer que os números e a inteligência artificial costumam errar.
Na trajetória do esclarecimento, os números foram buscados também por conterem supostamente objetividade e precisão. Seria, portanto, um avanço na avaliação humana, a qual, sem a matemática, estaria embebida de subjetividade e limitada pela imprecisão inerente aos sentidos humanos. Contudo, a precisão e a objetividade podem não estar tão presentes na matemática aplicada. O matemático Charles Seife (2010, p. 13-14) apresenta como os números podem e são usados para conferir aparência de verdade a coisas absurdas. Logo no início do livro, o autor explica os motivos da imprecisão e da incerteza inerentes à aplicação da matemática no mundo físico:
O mundo frio e cristalino dos algarismos nos oferece o que há de mais raro: a certeza absoluta. Dois mais dois são sempre quatro. Isso foi assim desde muito antes de nossa espécie pisar a superfície da Terra, e continuará sendo muito depois do fim de nossa civilização.
Mas há números e números. Os números puros pertencem ao domínio dos matemáticos – indivíduos curiosos que os estudam em abstrato, como ideias platônicas, revelando uma verdade maior. Sob o olhar de um matemático, os números são interessantes em si mesmos. Para o resto da humanidade, não.
[...]
Um número sem unidade de medida é etéreo e abstrato. Com uma unidade, ganha sentido – mas, ao mesmo tempo, perde sua pureza. Atreladas a unidades, as cifras não podem mais habitar o reino platônico da verdade absoluta; ficam maculadas pelas incertezas e imperfeições do mundo real. Para os matemáticos, os números são a representação de verdades indubitáveis; para o restante de nós, significam medições intrinsecamente impuras.
ESSA INCERTEZA É INEVITÁVEL.
Essa é uma forma de mostrar como a matemática pode ser vista de diferentes perspectivas, dependendo do objetivo e do contexto em que é usada. A matemática pura é uma ciência dedutiva, a qual se baseia em axiomas e teoremas. A matemática aplicada é uma ciência indutiva e empírica, que usa modelos e equações para descrever e explicar fenômenos observados na natureza ou na sociedade. A exatidão dos números só existe na imaterialidade do reino da matemática pura. Toda e qualquer aplicação no mundo material sofrerá com imprecisões, incertezas, além de depender do ser humano que fará as medições, interpretações, cálculos etc. Assim, salienta Marcuse (2015, p. 154): “O mundo objetivo, equipado apenas com qualidades quantificáveis, vem a ser mais e mais dependente do sujeito para sua objetividade”.
Por conseguinte, busca-se refúgio nos números, para garantir uma precisão e uma objetividade que não seriam alcançáveis de outro modo. Contudo, a matemática usada no mundo real não está liberta da imprecisão e da subjetividade. Os vieses algorítmicos mencionados anteriormente são exemplos de como o fator humano e as limitações do método indutivo podem levar os números a oferecerem respostas preconceituosas.
Os números representam também a tentativa de fuga da ignorância e dos mitos para um conhecimento mais seguro sobre a realidade. Porém, a crença na matemática e na racionalidade técnica acabam por criar um novo mito. O esclarecimento, ao se concentrar na dominação da natureza e na busca pela eficiência, resultou na instrumentalização da razão e na alienação das pessoas em relação a si mesmas e ao mundo. Nesse contexto, a racionalidade técnica e burocrática tornou-se uma nova forma de mito, na qual a busca por controle e eficiência obscurece a compreensão mais profunda da vida humana e das complexidades do mundo.
Esse processo criou uma nova mitificação, na medida em que instaura uma espécie de ideologia presente nas mentes das pessoas, de maneira semelhante ao antigo domínio dos mitos. Contemporaneamente, é possível perceber essa mitologização na inteligência artificial. Grande parte do discurso e das notícias sobre essa tecnologia é feito de maneira sensacionalista, com ares de ficção científica; há um fetiche sobre a IA que é resultado justamente da mitologização do próprio esclarecimento.
A relação entre inteligência artificial e esclarecimento pode ser mais bem compreendida, ao se analisar uma passagem da Dialética do esclarecimento sobre a automatização do pensamento. Enfatizam Adorno e Horkheimer (1985, p. 33, grifo meu):
Na matematização galileana da natureza, a natureza ela própria é agora idealizada sob a égide da nova matemática, ou, para exprimi-lo de uma maneira moderna, ela se torna ela própria uma multiplicidade matemática. O pensar reifica-se num processo automático e autônomo, emulando a máquina que ele próprio produz para que ela possa finalmente substituí-lo [...] O procedimento matemático tornou-se, por assim dizer, o ritual do pensamento. Apesar da autolimitação axiomática, ele se instaura como necessário e objetivo: ele transforma o pensamento em coisa, em instrumento, como ele próprio o denomina.
Tudo indica, por conseguinte, que os processos de automação realizados contemporaneamente pela inteligência artificial não são um ponto fora da curva ou um acidente na evolução humana, porém, algo inerente ao processo de esclarecimento. Ao reduzir a natureza a um conjunto de leis e relações matemáticas, o pensamento humano se torna também uma espécie de máquina, a qual opera de forma automática. A matematização é tomada como um dogma, como a forma mais avançada (e algumas vezes única forma) de se alcançar o conhecimento. A matemática, que deveria ser uma ferramenta para se alcançar o conhecimento, em certas ocasiões, torna-se o próprio pensamento; é nesse sentido que há uma coisificação do raciocínio.
Em continuação, as máquinas calculatórias surgem como uma extensão da capacidade humana, porque são capazes de considerar mais variáveis e resolver os cálculos de maneira muito mais rápida do que um ser humano. Assim, delegamos à máquina o que acreditamos ser o pensamento. Ou seja, criamos um cenário no qual pensar significa calcular e fizemos máquinas que calculam melhor que nós. Após isso, passamos a substituir os seres humanos em certos postos de trabalho por tecnologias, como a inteligência artificial.
Nesse contexto, são “esquecidas” as limitações concernentes à aplicação da matemática, na realidade. Buscando a objetividade e a precisão, acredita-se que as imagens modeladas através de números (como gráficos, tabelas etc.) são a residência da verdade. Tomam-se as equações nas lousas e os algoritmos das inteligências artificiais como a realidade do mundo material. Porém, os números e os símbolos podem oferecer somente representações e idealizações amparadas em abstrações. Isso quer dizer que, na história contada pelos algarismos e algoritmos, não está o mundo real, somente uma representação dele. Portanto, buscam-se os números para alcançar uma maior proximidade da verdade distante da metafísica, da religião e dos mitos, entretanto, para isso, cria-se um universo simbólico apartado do mundo real, e espera-se que o mundo corresponda à projeção.
Considerações finais
Ao final dessa exposição crítica sobre os fundamentos da inteligência artificial, é necessário salientar que disso não decorre uma defesa de um posicionamento antimatemática ou antitecnologia. É inegável a quantidade de avanços proporcionados pelo desenvolvimento tecnológico, técnico e científico. O esclarecimento, de fato, apresentou ao mundo uma série de melhorias na saúde, na produtividade, no conforto etc. Contudo, também criou armas de destruição em massa capazes de destruir o planeta, novas doenças (físicas e mentais) e um nível de desigualdade nunca visto, na história da humanidade.
Em que pesem as características e as consequências negativas do esclarecimento, não há como voltar atrás para um passado idílico e pré-tecnológico, porque o ser humano se transformou junto com a transformação da natureza. A tecnologia faz parte da humanidade, de modo que nos tornamos uma espécie de ciborgue, conforme argumentou Donna Haraway (2009), em Manifesto Ciborgue. Assim, uma possível saída é uma mudança na relação entre o ser humano e a máquina, passando por uma revisão do papel da matemática e do método indutivo.
Conforme desenvolvido anteriormente, há uma fetichização dos números, no processo de matematização da realidade. Esse fetiche ignora a imprecisão e a subjetividade presentes em qualquer cálculo e qualquer medição efetuados por seres humanos ou por máquinas. Especificamente se tratando de inteligência artificial, faz-se necessário também salientar o papel do método indutivo e suas limitações. As alternativas para lidar com os problemas da indução apresentadas por Hume não podem ser automatizadas, porque demandam reflexão crítica, um tipo de inteligência que os algoritmos não conseguem fazer.
As redes neuronais mais avançadas conseguem reconhecer sutis padrões, a partir de uma quantidade absurda de dados, e realizar cálculos impossíveis ao ser humano. No entanto, os limites do método indutivo e da estatística fazem com que não seja possível que elas criem algo de realmente novo[7] e nem possam refletir como os seres humanos fazem. Espantamo-nos com a capacidade da inteligência artificial de copiar o estilo de algum artista, mas não nos atentamos para o fato de que isso é o máximo que ela pode fazer: reconhecer padrões e repetir. Ou seja, somente pode oferecer uma cópia mais ou menos bem feita. Mesmo as inteligências artificiais generativas de texto, como o ChatGPT, ou de imagem, como Dall-e e Midjourney, somente “criam” algo em função da organização de dados, imitando certos estilos. Curioso nisso é o fato de que muitas pessoas são criticadas por falta de originalidade, justamente por parecerem copiar o trabalho e o estilo de outra pessoa, ao passo que admiramos a máquina por fazer isso.
Uma forma mais interessante de lidar com a IA seria destituí-la do posto de portadora da verdade, mantendo uma postura cética, mas aproveitando os resultados das automatizações. Para tal, é preciso assumir uma postura crítica frente ao próprio esclarecimento que transformou o procedimento matemático na condição mais elevada (se não a única) de pensamento.
Por parte das empresas de tecnologia, seria importante o investimento em pessoas qualificadas, para lidar com o aprendizado de máquina, de modo a diminuir os vieses e as imprecisões. Contudo, tudo indica que essa não tem sido uma preocupação das big techs. Conforme noticiado em espaços como a Folha de S. Paulo (2023), a OpenAi, empresa criadora do ChatGPT, terceirizou o trabalho de evitar que a IA reproduzisse violência e pornografia para uma empresa que empregava funcionários que ganhavam menos de dois dólares por hora, em condições insalubres.
É preciso, portanto, reconhecer e valorizar o trabalho por trás da construção das inteligências artificiais. O fetichismo que confere a mística dessa tecnologia também esconde o trabalho humano que constrói e supervisiona o aprendizado de máquina. Espantamo-nos com a aparente autonomia da IA e, muitas vezes, não pensamos sobre a quantidade de pessoas que trabalharam e trabalham, para que ela funcione.[8]
Neste texto, procurou-se apresentar uma visão crítica sobre os fundamentos da inteligência artificial, mostrando que ela não é uma fonte de verdade absoluta, todavia, uma construção humana que envolve matemática, indução, subjetividade e trabalho. Ao invés de nos maravilharmos ou nos assustarmos com a IA, seria mais proveitoso reconhecer seus limites e seus problemas, bem como valorizar o esforço humano por trás dela. A inteligência artificial pode ser uma ferramenta útil para diversas áreas da sociedade, mas não pode substituir a inteligência humana, que é capaz de criar, refletir e criticar. Portanto, é preciso buscar uma relação mais equilibrada e consciente entre o ser humano e a máquina, sem cair no fetichismo ou na alienação.
Além disso, é necessário também questionar os interesses e as consequências sociais, políticas e econômicas da IA. Quem controla os dados e os algoritmos que alimentam as máquinas? Quem se beneficia dos resultados e das aplicações? Quem sofre os impactos negativos, como a perda de empregos, a violação de privacidade, a discriminação e a desinformação? Essas são questões que não podem ser ignoradas ou deixadas nas mãos das grandes empresas de tecnologia, as quais, muitas vezes agem de forma irresponsável e antiética. É preciso que haja uma participação democrática e uma fiscalização pública sobre o desenvolvimento e o uso da inteligência artificial, garantindo que ela seja transparente, justa e responsável.
Behind artificial intelligence: an analysis of the epistemological bases of machine learning
Abstract: This article aims to critically analyze the epistemological foundations of artificial intelligence (AI). By examining works that explain how this technology works, it is understood that its epistemological basis is made up of the inductive method and statistics based on a mathematization of reality. It is these elements that allow machines to learn by recognizing patterns and to make predictions and provide answers. However, these foundations have limitations and problems that have been discussed by philosophers throughout history. In this article we will present how induction and mathematization function as the epistemological basis of artificial intelligence and how some of the limitations of this technology can be explained through the weaknesses of the methods that support it.
Keywords: Artificial intelligence. Inductive method. Mathematization.
Referências
ADORNO, T.; HORKHEIMER, M. Dialética do Esclarecimento: fragmentos filosóficos. Tradução de Guido Antonio de Almeida. Rio de Janeiro: Jorge Zahar, 1985
BACON, F. Novo Organon. Tradução de Maria das Graças de Araújo e Silva. São Paulo: Martins Fontes, 2010.
CODED Bias. Direção: Shalini Kantayya. Produção de 7th Empire Media. Estados Unidos: Netflix, 2020.
DESCARTES, R. Discurso do método; As paixões da alma; Meditações; Objeções e respostas. Tradução de J. Guinsburg e Bento Prado Júnior. São Paulo: Nova Cultural, 1988.
EMPOLI, G. Os engenheiros do caos. Tradução de Arnaldo Bloch. São Paulo: Vestígio, 2020.
GRAY, M. L.; SURI, S. Ghost Work: how to stop Silicon Valley from building a new global underclass. Boston: Houghton Mifflin Harcourt, 2019.
HARAWAY, D. Manifesto ciborgue. Tradução de Tomaz Tadeu. In: TADEU, T. (org.). Antropologia do ciborgue. Belo Horizonte: Autêntica, 2009. p. 33-119.
HUME, D. Investigação acerca do entendimento humano. Tradução de Anoar Aiex, João Paulo Gomes Monteiro e Armando Mora d’Oliveira. São Paulo: Nova Cultural, 1989.
KAISER, B. Manipulados: como a Cambridge Analytica e o Facebook invadiram a privacidade de milhões e botaram a democracia em xeque. Tradução de Roberta Clapp e Bruno Fiuza. Rio de Janeiro: Harper Collins, 2020.
KANT, I. Textos seletos. Tradução de Raimundo Vier e Floriano de Sousa Fernandes. Petrópolis: Vozes, 1985.
MARCUSE, H. O homem unidimensional: estudos da ideologia da sociedade industrial avançada. Tradução de Robespierre de Oliveira, Deborah Christina Antunes e Rafael Cordeiro da Silva. São Paulo: Edipro, 2015.
MARX, K. O capital: crítica da economia política; livro primeiro - o processo de produção do capital. Tradução Rubens Enderle. São Paulo: Boitempo, 2013.
MITCHEL, T. Machine learning. New York: McGraw-Hill, 1997.
PASQUINELLI, M.; JOLER, V. The Nooscope manifested: AI as an instrument of knowledge extractivism. AI & Soc, v. 36, p. 1263-1280, 2021. https://doi.org/10.1007/s00146-020-01097-6
QUENIANOS recebiam menos de US$ 2 por hora para treinar ChatGPT, diz revista. Folha de S. Paulo, São Paulo, 01 jan. 2023. Disponível em: https://www1.folha.uol.com.br/mercado/2023/01/quenianos-recebiam-menos-de-us-2-por-hora-para-treinar-chatgpt-diz-revista.shtml. Acesso em: 29 ago. 2023.
SEIFER, C. Os números (não) mentem: como a matemática pode ser usada para enganar você. Tradução de Ivan Weisz Kuck. São Paulo: Zahar, 2010.
SIMONDON, G. L’individuation à la lumière des notions de forme et d’information. Paris: Jérôme Millon, 2005.
Recebido: 04/10/2023 – Aprovado: 30/01/2024 – Publicado: 30/04/2024
[1] Bolsista (CAPES) de Pós-Doutorado no projeto “Inteligência artificial: desafios filosóficos” do Programa de Pós-Graduação em Filosofia da Universidade de Brasília. Brasília- DF. ORCID: https://orcid.org/0000-0003-0042-4957 E-mail: cristian_arao@hotmail.com.
[2] Na bibliografia em língua portuguesa, a expressão mais usada é “redes neurais”. Contudo, acredito que essa expressão seja um anglicismo que não explica corretamente o seu sentido. A expressão inglesa neural network significa rede de neurônios. Por isso, penso que a tradução mais adequada seja neuronal, a qual se refere a neurônio, e não neural, que se refere a nervos em geral.
[3] De acordo com Simondon (2005, p. 522), o fetiche é o que faz com que um objeto se torne portador de um valor simbólico que transcende à sua própria materialidade. Essa forma de pensar o fetiche (feitiço) é inaugurada no pensamento ocidental no século XIX, com Marx (2013), em O Capital. Para Marx, o processo de produção de mercadorias no capitalismo faz com que os objetos aparentem ter vidas próprias, ao passo que o ser humano se torna objeto, porque é mais uma peça na maquinaria de produção. É, portanto, uma coisificação do ser humano e uma subjetivação das coisas.
[4] Uma alucinação é um fenômeno que ocorre quando um sistema de inteligência artificial (IA) gera resultados que não correspondem à realidade ou ao contexto no qual foram treinados. Em outras palavras, a IA pode gerar resultados que parecem corretos, mas, na verdade, são completamente incorretos ou até mesmo absurdos.
[5] O documentário Coded bias (2020) expõe diversos relatos desse tipo de automação na contratação e na demissão de funcionários por empresas dos Estados Unidos.
[6] Isso não quer dizer, entretanto, que não há influência das redes sociais na vida pública.
[7] A dificuldade para a percepção e a criação do novo, por parte dos algoritmos de inteligência artificial, é abordada por Matteo Pasquinelli e Vladan Joler. Segundo Pasquinelli e Joler (2021, p. 1275, tradução minha, grifo meu), “[...] como uma técnica de compressão de informações, o aprendizado de máquina automatiza a ditadura do passado, de taxonomias e padrões comportamentais do passado sobre o presente. Esse problema pode ser chamado de regeneração do antigo – a aplicação de uma visão espaço-temporal homogênea que restringe a possibilidade de um novo evento histórico”.
[8] O problema do trabalho humano “invisível”, que sustenta as inteligências artificiais, é examinado por Mary L. Gray e Siddarth Suri. Enfatizam Gray e Suri (2019, p. 8, tradução minha): “Além de algumas decisões básicas, a inteligência artificial de hoje não pode funcionar sem humanos no circuito. Seja na entrega de um feed de notícias relevante ou na execução de um pedido complicado de pizza, quando a inteligência artificial (IA) tropeça ou não consegue terminar o trabalho, milhares de empresas chamam as pessoas para concluir o projeto, silenciosamente. Essa nova linha de montagem digital agrega o input coletivo de trabalhadores distribuídos, envia peças de projetos em vez de produtos e opera em diversos setores econômicos, em todos os momentos do dia e da noite.”