COMENTÁRIO A “HÁBITOS E RACIONALIDADE: UM ESTUDO FILOSÓFICO-INTERDISCIPLINAR SOBRE AUTONOMIA NA ERA DOS BIG DATA”: BUSCANDO O EQUILÍBRIO NO FIO DA NAVALHA DIGITAL



Maxwell Morais de Lima-Filho1



Resta esse constante esforço para caminhar dentro do

[labirinto

Esse eterno levantar-se depois de cada queda

Essa busca de equilíbrio no fio da navalha

Essa terrível coragem diante do grande medo, e esse medo

Infantil de ter pequenas coragens.

Vinicius de Moraes



Referência do artigo comentado: GONZALEZ, M. E.; BROENS, M. C.; KOBAYASHI, G.; QUILICI-GONZALEZ, J. A. Hábitos e racionalidade: um estudo filosófico-interdisciplinar sobre autonomia na era dos Big Data. Trans/form/ação: revista de Filosofia da Unesp, v. 46, n. esp. “Filosofia Autoral Brasileira”, p. 367-386, 2023.



A Professora de Filosofia Marielle Costa chega de viagem e pede um Uber para levá-la da rodoviária de Juazeiro do Norte até a Universidade Federal do Cariri (UFCA). No trajeto, ela confere rapidamente sua caixa de e-mail, envia mensagens de WhatsApp e escuta Beth Carvalho pelo Spotify. Chegando ao câmpus, ela caminha para seu gabinete, conecta-se à internet da instituição, corrige as avaliações dos(as) estudantes e registra as notas no Sigaa/UFCA. Posteriormente, dirige-se à sala de aula, conecta o notebook ao projetor de mídia e inicia sua aula sobre autonomia humana na era dos Big Data. A despeito de Marielle Costa ser uma personagem ficcional, o mundo digital no qual ela está mergulhada é uma realidade – e é a respeito de algumas implicações desse cenário virtual que vamos tratar, neste texto.

Especificamente, abordaremos o modelo de comunicação centrado no significado e o modelo para estimar a influência da mídia na opinião, explorados no artigo de Maria Eunice Gonzalez, Mariana Broens, Guiou Kobayashi e José Artur Quilici-Gonzalez (2023), publicado neste número especial sobre Filosofia Autoral brasileira. Não obstante, faremos preliminarmente uma contextualização histórico-conceitual dos trabalhos pioneiros de Charles Babbage, Ada Lovelace, Alan Turing e Norbert Wiener, bem como dos conceitos de datificação e ideologia do dataísmo e das controversas performances do ChatGPT, no mundo pós-software dos Big Data. Mesmo sabendo que tal percurso é um tanto quanto arbitrário, fragmentário e extenso, torcemos para que a paciência do(a) leitor(a) seja, de algum modo, recompensada.

Durante a Revolução Industrial, houve um estímulo para que aplicações científicas fossem traduzidas em inventos tecnológicos, no intuito de que as máquinas substituíssem, a menor custo, certas atividades manuais humanas. No início do século XIX, Joseph Marie Charles (Jacquard) patenteou um tear mecânico que funcionava à base de informações contidas em cartões perfurados. O tear de Jacquard influenciou Charles Babbage, que projetou, entre 1822 e 1847, três máquinas calculadoras de funcionamento mecânico: Difference Engine No. 1, Analytical Engine e Difference Engine No. 2. Um dos objetivos de Babbage era fornecer à máquina instruções prévias que lhe permitissem produzir rápida e precisamente tabelas numéricas, através da realização de numerosos cálculos.

Ora, cartões perfurados semelhantes aos do tear de Jacquard poderiam ser utilizados para prescrever como a máquina deveria se comportar mecanicamente – isto é, através dos movimentos de barras, discos, engrenagens etc. – e chegar à conclusão, por exemplo, de que 2303 tem como logaritmo 3622939. Entre 1828 e 1839, Babbage foi Professor Lucasiano de Matemática na Universidade de Cambridge – na prestigiosa cátedra que fora ocupada por Isaac Newton e, mais recentemente, por Stephen Hawking. Segundo Costa (2012, p. 10), Babbage foi pioneiro, ao estimular a cultura comunicacional entre a humanidade e seus complexos rebentos tecnológicos:

Apesar do brilhantismo dos projetos de Babbage, acreditamos que seus esforços dispensados nas áreas da mecânica e da técnica não resultaram num impulso à ainda inexistente ciência da computação, como querem alguns, principalmente se considerarmos suas soluções engenhosas e intricadas na área da mecânica aplicada. O grande legado de Babbage ao projetar suas máquinas não foi exatamente tecnológico, mas sim uma grande abertura para uma atividade humana que era novidade e que começou a exercer fascínio: o diálogo do homem com a máquina que ele próprio criou.


Filha do famoso poeta e fervoroso opositor do tear mecânico, Lord Byron, Augusta Ada Byron (também conhecida como Lady Lovelace ou Ada Lovelace) era uma jovem de 17 anos, quando conheceu Babbage. Ela traduziu do francês para o inglês uma esmiuçada descrição acerca da Máquina Analítica que fora redigida por Luigi Menabrea (o qual se tornaria futuramente Primeiro-Ministro da Itália). Mais importante do que a tradução em si, todavia, foram os extensos comentários realizados por Ada Lovelace, no formato de notas, nas quais estão expostas algumas noções fundamentais de computação e programação. Essa fecunda contribuição científico-tecnológica é assim descrita por Matos (2019, p. 70):

Por seu trabalho, Ada Lovelace é considerada a patrona da arte e ciência da programação. Mesmo não estando a máquina de Babbage construída, as sub-rotinas de loops e saltos são largamente utilizadas na programação de computadores de hoje. Em suas anotações sobre o projeto de Charles Babbage, Ada incluiu suas próprias observações para o cálculo da sequência de Bernoulli. Essas séries de instruções constituem, de fato, o primeiro programa escrito e documentado na história da humanidade.


Na concepção de Ada Lovelace, não existe espaço para a criatividade maquínica, isto é, o aparato tecnológico se restringiria a executar as instruções que os(as) inventores(as) humanos(as) lhe disponibilizam. Dando um salto histórico para o ano de 1950, vemos Alan Turing2 se debruçando sobre a espinhosa questão acerca da possibilidade de máquinas (computadores eletrônicos ou computadores digitais) pensarem. Após propor um jogo da imitação com um(a) interrogador(a), um homem e uma mulher – o objetivo do homem é se passar pela mulher; já a mulher tem por função auxiliar o(a) interrogador(a) a identificá-la como tal –, o matemático inglês faz uma variação do experimento mental, para que um computador digital assuma uma daquelas posições e jogue no sentido de se passar por humano e, por conseguinte, seja exitoso em ludibriar o(a) interrogador(a). A conclusão de Turing (1950) é que, se o(a) interrogador(a) não for capaz de diferenciar estatisticamente as respostas humanas daquelas dadas pelo computador digital, este último também poderia ser considerado um sistema inteligente. Consoante Miguens (2019, p. 112), esse modo de raciocinar enriquece duplamente a perspectiva filosófica, por Turing defender

[...] uma ideia acerca da natureza do pensamento como processo, e uma postura anti-apriorista quanto à definição de inteligência, um descolamento da ideia de inteligência relativamente a substratos materiais específicos, e portanto, a ideia segundo a qual o mental não tem que ter necessariamente hardware biológico.


Para que o experimento de pensamento que ficou conhecido como Teste de Turing seja executado, vemos ser necessária uma contínua permuta de informações entre sistemas do tipo humano e artificial, permuta informacional esta que também chamou a atenção dos ciberneticistas. Norbert Wiener e colaboradores perceberam que a Mecânica Estatística é de fundamental relevância para a técnica de comunicação, porque a viabilidade de transmitir informações está irremediavelmente ligada à disponibilidade de opções variadas que podem ser passadas para frente.

Quanto mais organizado for um sistema, menor a sua entropia e maior a quantidade de informação que ele possuirá: um organismo vivo e um computador novo, em pleno funcionamento, são informacionalmente superiores a um organismo em decomposição e a um computador desmontado, por exemplo. Ademais, a quantificação estatística da informação é relevante tanto para o estudo da informação quanto para o do controle de sistemas biológicos e artificiais, donde a escolha do nome Cibernética, pelo grupo de Wiener (1970, p. 36-37):

Decidimos designar o campo inteiro da teoria de comunicação e controle, seja na máquina ou no animal, com o nome de Cibernética, que formamos do grego κυβερνήτης ou timoneiro. Ao escolher este termo, quisemos reconhecer que o primeiro trabalho significativo sobre mecanismos de realimentação [feedback] foi um artigo sobre reguladores, publicado por Clerk Maxwell em 1868, e que governor (regulador) é derivado de uma corruptela latina de κυβερνήτης. Desejávamos também referir ao fato de que os engenhos de pilotagem de um navio são na verdade uma das primeiras e mais bem desenvolvidas formas de mecanismos de realimentação.


Conforme Jean-Pierre Dupuy, a Cibernética se originou nos anos 1940 e teve como fundamentos os artigos Behavior, purpose and teleology (1943), de Arturo Rosenblueth, Norbert Wiener e Julian Bigelow, e A Logical Calculus of the Ideas Immanent in Nervous Activity (1943), de Warren McCulloch e Walter Pitts, além das Conferências Macy, iniciadas em 1946. Defendendo a tese de que as Ciências Cognitivas nasceram no encalço da Cibernética3, Dupuy (1996, p. 36) nos lembra da influência do trabalho de Turing, a respeito da relação entre pensamento e máquina na geração multidisciplinar de pesquisadores do período, a qual nos atinge até hoje:

O pensamento, essa atividade psíquica, essa faculdade do espírito que tem o conhecimento como objeto, nada mais é, afinal, do que um processo mecânico ordenado, um automatismo “cego” – devemos acrescentar “burro”? Trata-se de desvalorizar o homem? De elevar a máquina? Ou, pelo contrário, de fazer do homem um demiurgo capaz de criar um cérebro ou um espírito artificial? Cada uma destas interpretações tem, certamente, sua parte de verdade, maior ou menor conforme os indivíduos e as épocas.


Historicamente, é recorrente mencionar que a linguagem4 nos distingue dos demais seres biológicos e sistemas artificiais. Não à toa, o jogo da imitação de Turing a elege como sendo crucial para definirmos se uma máquina (computador digital) é capaz de pensar. Passadas sete décadas, essa temática continua a despertar interesse. Recentemente, foi publicado um editorial no conceituado periódico Nurse Education in Practice, com o instigante título: Open artificial intelligence platforms in nursing education: tools for academic progress or abuse? Para além do conteúdo, um diferencial desse texto é que ele foi “escrito a quatro mãos” pela Doutora Siobhan O'Connor, da Universidade de Manchester, e pelo ChatGPT, tecnologia de inteligência artificial.5 Só para ilustrarmos do que esse programa é capaz, acessamos a página da companhia OpenAI e, a partir do título “hábitos e racionalidade: um estudo filosófico-interdisciplinar sobre autonomia na era dos Big Data”, o ChatGPT6 nos forneceu o seguinte texto:

Este tópico combina a filosofia da autonomia com a era dos Big Data. A autonomia é a capacidade de uma pessoa de tomar decisões livres e conscientes, enquanto os Big Data se referem à coleta e análise de grandes conjuntos de dados. O estudo filosófico-interdisciplinar mencionado provavelmente busca explorar como os hábitos e a racionalidade se relacionam com a autonomia em um mundo cada vez mais controlado por dados e tecnologia. Isso pode incluir questões sobre privacidade, ética e liberdade individual em relação ao uso crescente de dados para tomar decisões.


Uma preocupação ocasionada por programas como o ChatGPT é que uma pessoa, ao omitir que o utilizou, apresente-se como autora de um texto produzido por uma ferramenta digital. Esse programa é apenas um exemplo de comunicação desempenhada por um artefato tecnológico que processa informação disponibilizada na rede mundial de computadores. Porém, os impactos sociais e éticos provocados pelos frutos de nosso gênio demiúrgico podem se estender para além do que burlar trabalhos escolares-acadêmicos, sendo a massiva e rápida propagação de notícias falsas um infortúnio do nosso atual estágio digital.

A disseminação de mensagens inautênticas pode turvar nossa racionalidade, despertar emoções negativas, prejudicar a autonomia humana, corroer processos democráticos e, infelizmente, contribuir direta e indiretamente para a morte.7 Como nos previne Accoto (2020, p. 34), os programas de computador não são meros instrumentos auxiliares, haja vista que eles são onipresentes, permeiam as mais diversas atividades humanas e moldam, de modo singular, a nossa configuração civilizatória, levando-nos a questionar

[...] não apenas o que são as mídias após a chegada do software, mas o que é o “mundo” após o advento do software que se alimenta de sensores e dados, que incorpora algoritmos, que são empurrados cada vez mais para a inteligência artificial, e que hoje se materializa em poderosas plataformas socioeconômicas.


Nessa época de datificação, estamos rodeados de programas glutões que, a todo momento, se empanturram com incontáveis dados servidos pelos sensores e pela rede mundial de computadores desse gigantesco refeitório semiótico, metabolizando-os na forma de intricadas análises quantitativas, de estabelecimento de padrões normativos (individuais e coletivos) e de predição de comportamentos. Na esteira do fenômeno de datificação irrompeu uma ideologia que, de tão encantada com o admirável mundo novo digital, julga que é no tratamento dos Big Data8 que se encontram a explanação e a compreensão universal: o dataísmo.

Ora, como muitos de nós apreciamos ver e escutar o que está em sintonia com as nossas próprias convicções e atitudes, não é de se espantar que o exame estatístico, a estipulação de parâmetros e a antecipação comportamental levados a cabo pelos algoritmos acabem por gerar bolhas de notícias. Como bem mostra Lúcia Santaella (2021, p. 137), os programas de computador são bem eficazes em fomentar o viés de confirmação:

O poder da crença – em uma ideia, religião, afinidade política e afins – sempre existiu. Contudo, nossa nova existência nos ambientes em rede amplifica esse poder, também chamado de viés de confirmação, especialmente porque passamos a ser monitorados por algoritmos de IA que, progressivamente, sabem mais de nós do que nós mesmos e só nos enviam aquilo que sabem e advinham que queremos e gostamos.


Feita essa contextualização histórica e conceitual, passamos agora à exploração do artigo “Hábitos e racionalidade: um estudo filosófico-interdisciplinar sobre autonomia na era dos Big Data”. Nesse texto, Gonzalez et al (2023) aludem a um dilema hodierno: na era das tecnologias da informação e comunicação (TIC) e dos Big Data, as mesmas pessoas que cotidianamente se comportam de maneira autônoma e racional são passíveis de serem negativamente sugestionadas por hábitos prévios, crenças inverídicas e relatos falsos, os quais, por sua vez, as impelem a tomar ações que vão de encontro à autonomia e à racionalidade.

Partindo de elementos fornecidos por Claude Shannon (Teoria Matemática da Comunicação), por Gregory Bateson (conceito de duplo vínculo), por Max Weber (noção de racionalidade formal) e pela perspectiva dos Sistemas Complexos Qualitativos (SCQ), Gonzalez et al (2023) propõem um novo modelo de tomada de decisões racionais, com o intuito de perscrutar como a ubíqua utilização das TIC e a massiva análise de Big Data são capazes de (de)formar a opinião pública, modelo este que adaptamos em nossa Figura 1.

Figura 1: Modelo de Comunicação Centrado no Significado

Fonte: Adaptado a partir de Gonzalez et al (2023).


Como podemos constatar, temos uma situação simplificada de um fluxo de mensagens9 entre duas pessoas que usam uma TIC (celular, tablet, computador etc.): (t1) mensagem enviada – fluxo do(a) emissor(a) para a interface comunicacional, (t2) mensagem recebida – fluxo da interface comunicacional para o(a) receptor(a) e (t3) mensagem reenviada10 – fluxo do(a) receptor(a) [original] para o(a) emissor(a) [original].

Nessa perspectiva, imaginemos que Pantaleão enviou uma mensagem para seu caro amigo Inocêncio, dizendo que, se a candidata Letícia ganhasse a eleição, distribuiria mamadeiras com bicos pênis-miméticos para crianças das creches.11 A seguir, suponhamos que tal notícia viralize e se propague rapidamente pelas redes sociais e pelos aplicativos de conversa, tendo como consequência uma migração considerável de votos de Letícia para o seu inominável concorrente, o qual acaba por se sagrar vitorioso na eleição.

Obviamente, são muitos os fatores envolvidos num processo tão complexo como o eleitoral, todavia, essa situação nos indicaria que Pantaleão, Inocêncio e inúmeras outras pessoas que se aterrorizaram e que propagaram a ideia fraudulenta da “mamadeira de piroca” parecem, à primeira vista, viver num duplo mundo: por um lado, agem de modo racional, quando resolvem um problema do trabalho, pedem o almoço, pagam boletos e jogam dominó; por outro, são capazes de acreditar, aterrorizar-se e propagar irracionalmente mensagens que fariam qualquer pessoa minimamente sensata corar de vergonha e/ou de raiva. Como isso é concebível? De acordo com a hipótese aventada por Gonzalez et al (2023, p. 379),

[...] investigações das técnicas de desinformação [...] permitem entender, pelo menos em parte, por que agentes racionais são capazes, simultaneamente, de expressar opiniões aparentemente irracionais e agir de modo contrário à razão: a conduta (geralmente pautada pela complementaridade de componentes racionais e emocionais) pode ser desorientada por desinformação, que atua como um amplificador de uma fonte de ruído [...] ou como um instrumento para distorcer disposições socialmente relevantes para a conduta incorporada em agentes racionais.


Com o objetivo de esclarecermos como a disposição comportamental é estabelecida pela associação de elementos racionais e emocionais, retornaremos a meados do século XIX, explorando rapidamente seus fundamentos neurobiológicos. Durante seu trabalho na construção de uma estrada de ferro, o enérgico e competente Phineas Gage executava sua costumeira função de explodir rochas para abrir caminho à malha ferroviária. Em virtude de uma desatenção, Gage cometeu um erro, ao socar a pólvora com seu bastão de ferro, ocasionando uma súbita explosão que fez com que a barra transpassasse sua cabeça e fosse arremessada a uma longa distância. Além de não ter morrido, ele permaneceu consciente logo após esse violento trauma craniano. Apesar de ter ficado cego do olho esquerdo, Gage não perdeu suas capacidades linguística, visual (do olho direito), olfativa, gustativa, auditiva e tátil. A despeito disso, ele sofreu uma profunda mudança de hábitos e de caráter: comunicava-se através de um palavreado chulo, tornou-se desrespeitoso e passou a ser indócil.

O caso de Gage foi pioneiro por mostrar que a racionalidade pode ser afetada por um dano neurológico específico. Apoiado não apenas nesse episódio histórico, mas também na prática médica e numa profunda pesquisa acadêmica, António Damásio (1996, p. 277) conjectura que é apropriado falar numa “paixão pela razão” devido a um vínculo anátomo-fisiológico entre os sistemas da razão, das emoções e da regulação corporal, chamando-nos a atenção para o seguinte:

Conhecer a relevância das emoções nos processos de raciocínio não significa que a razão seja menos importante do que as emoções, que deva ser relegada para segundo plano ou deva ser menos cultivada. Pelo contrário, ao verificarmos a função alargada das emoções, é possível realçar seus efeitos positivos e reduzir seu potencial negativo. Em particular, sem diminuir o valor da orientação das emoções normais, é natural que se queira proteger a razão da fraqueza que as emoções anormais ou a manipulação das emoções normais podem provocar no processo de planejamento e decisão.


A influência exercida pelas emoções sobre a razão tem sido abundantemente explorada, nessa fase pós-software. Nossos dados são continuamente coletados e analisados, quando acessamos uma página da internet, curtimos vídeos e fotos nas redes sociais, assistimos a um filme na plataforma de streaming, utilizamos o GPS para nos guiar, compramos com o cartão de crédito, usamos a pulseira inteligente, durante a atividade física etc. Dessa maneira, toda pessoa que não é tecnologicamente excluída tem como correspondente uma duplicata digital. Além do mais, a existência do cidadão digital é um continuum caracterizado pela interpenetração dos domínios físico-biológico e digital. Di Felice (2020, p. 98) assevera que esse cenário tem revolucionado – de modo positivo e negativo – todos os âmbitos de nossa vida, alterando inclusive as estratégias políticas atuais:

Dentro das ecologias de dados, a estratégia comunicativa política assume a forma da escuta. Sendo possível acessar em tempo real dados de todos os tipos, relacionados a estados de ânimo, tendências emergentes e solicitações dos cidadãos (a partir de informações digitais produzidas pelos softwares de análises que oferecem dados sobre “rastreamento de usuários”, ou “training do internauta”), a prática comunicativa predominante da política torna-se a da antecipação, semelhante ao sistema gerado por third-party cookies.


A disputa das eleições presidenciais estadunidenses de 2016 aparenta ser um caso cuja análise dos Big Data amparou o viés comunicativo da escuta, o que acabou comprometendo a autonomia de muitos(as) eleitores(as), ao ofuscar seu discernimento e, por conseguinte, direcionar seu voto. Enquanto era assessor de Donald Trump, Steve Bannon também ocupava um cargo junto ao conselho da Cambridge Analytica. Essa empresa adquiriu do Facebook numerosas informações – nome, atuação profissional, endereço, costumes e preferências – de quase 300 mil pessoas que usaram o aplicativo thisisyourdigitallife; esse montante é somente a ponta do iceberg, pois também foram coletados dados dos contatos daqueles(as) usuários(as), o que eleva a estimativa para 50 milhões de pessoas com a privacidade invadida!

Christopher Wylie, que à época trabalhava na Cambridge Analytica, tornou-se denunciante desse crime cibernético e afirmou que a coleta se dava desde 2014. É importante notarmos que os dados foram utilizados em duas vias, isto é, tanto para construir informes favoráveis ao candidato do Partido Republicano quanto para direcionar mensagens nocivas a Hillary Clinton. De acordo com Wylie, os dados vendidos à Cambridge Analytica teriam sido usados para catalogar o perfil das pessoas e, então, direcionar, de forma mais personalizada, materiais pró-Trump e mensagens contrárias à adversária dele, a democrata Hillary Clinton, sendo extremamente relevantes para traçar estratégias para conquistar o público indeciso. Como nos lembra a BBC News Brasil (2018), a campanha divulgada pela própria Cambridge Analytica deixa transparecer o poder de seus tentáculos algorítmicos: “Fornecer a informação certa à pessoa certa, no momento certo é mais importante do que nunca”.

Retornando ao modelo de comunicação centrado no significado (Figura 1), ao que tudo indica, a Cambridge Analytica se valeu dos perfis catalogados de dezenas de milhões de pessoas para encaminhar mensagens que poderiam influenciar o(a) eleitor(a) dos seguintes modos: (i) fortalecer seu voto em Donald Trump, (ii) retirar seu voto de Hillary Clinton e (iii) fazer com que você se decida a votar em Trump. Nesse sentido, os potenciais influenciadores semânticos são relevantes tanto para quem recebe uma mensagem como para quem resolve compartilhá-la. Por exemplo, a falsa notícia12 de que Trump seria apoiado pelo Papa Francisco13 pode mexer com as emoções e ser bem recebida pelo(a) eleitor(a) que é cristão (sistema de crenças), que já votou em candidato(a) apoiado(a) por líderes religiosos(as) (experiências anteriores), que fica preso(a) a bolhas14 que sempre recebem o mesmo tipo de conteúdo – e são incapazes de avaliar outros pontos de vista (habilidade analítica) – e que associa tal apoio a pautas específicas, como a condenação do aborto e à contraposição à descriminalização das drogas (informações relacionadas).

Com isso em vista, Gonzalez et al (2023, Figura 3) dão um passo adiante e também nos oferecem um modelo para estimar a influência da mídia, na opinião. Enquanto o primeiro é um modelo geral, este segundo é específico, no sentido de funcionar como um desenho de pesquisa. Em outras palavras, esse segundo modelo tenciona analisar estatisticamente como fontes de notícia (jornais, revistas, páginas da internet etc.) podem influenciar pessoas, através da quantificação dos tipos de comentários (positivos, neutros e negativos) que são postados em redes sociais – tanto por aquelas que examinam a referida fonte (grupo experimental) quanto pelas que não a consultam (grupo-controle). Transpusemos a ideia dessa proposta com alguns exemplos midiáticos para a Tabela 1.


Tabela 1: Influência da mídia na formação de opinião pública

Fonte: Adaptado a partir de Gonzalez et al (2023).


Não negligenciemos que a imensa quantidade de dados a serem analisados é meramente uma face da medalha, no que se refere à complexidade programática prescrita por Gonzalez et al (2023), pois basta vermos que necessitamos de uma profusão de áreas dialogando – Filosofia, Ciências Humanas, Ciências Sociais, Ciências Naturais e Ciências Formais – para continuarmos prosseguindo nesse projeto. O primeiro passo já foi dado: a estruturação conceitual e a proposição de modelos. Com mais uma passada, os modelos serão testados experimentalmente.15 Após isso, a análise dos resultados balizará as conclusões no tocante aos alcances e aos limites da proposta, que, por seu turno, retroalimentará a discussão: isso quer dizer que os modelos originais são passíveis de sofrer mudanças. Explicitada essa caminhada concepção-teste-redesenho dos modelos, exprimiremos a urgência de exercermos uma fiscalização severa sobre os desenvolvedores de artefatos digitais.

Os produtos tecnológicos da era da computação transfiguraram, para o bem16 e para o mal, a sociedade humana. Por reconhecer esse enorme potencial (especialmente o destrutivo), devemos exigir das empresas que se comprove que seus artefatos são seguros e benéficos, antes de serem disponibilizados para a população. Ninguém que conheça os efeitos teratogênicos da talidomida pode ser acusado de tecnófobo, ao reivindicar testes rigorosos com fármacos. Por que algo semelhante não ocorre com empresas produtoras de tecnologia informático-eletrônica? É imperativo que essas companhias também sejam regulamentadas, proclama Stuart Russell (2021, p. 239):

Inevitavelmente, porém, a indústria tech terá que reconhecer que seus produtos são importantes; e, se os produtos são importantes, é importante também que não tenham efeitos danosos. Isso significa que haverá regras para reger a natureza das interações com humanos, proibindo designs que, digamos, manipulem consistentemente preferências ou que produzem comportamentos viciantes.


Certa vez, McLuhan (2020, p. 166) afirmou satiricamente que “hoje os novos meios colocam o homem um passo acima dos anjos”. Essa asserção é verdadeira, mas devemos adicionar que as pessoas podem se comportar de maneira sorrateiramente demoníaca, com o auxílio desses modernos artifícios. Isso significa que o labirinto algorítmico é uma realidade ubíqua de nossos tempos, seja para o bem (acesso a mensagens qualificadas, monitoramento biomédico, comunicação simultânea com pessoas distantes, diversas modalidades de entretenimento virtual, facilitação com transações bancárias, robô antibomba etc.), seja para o mal (rápida disseminação de notícias falsas, falta de privacidade, robôs que se passam por pessoas, cibervícios, golpes virtuais, armas autônomas letais etc.). Dessa maneira, temos a incumbência de nos reerguermos dos tombos emotivo-racionais, para que possamos percorrer essa navalha digital. Àquelas pessoas que qualificam de utópica tal perspectiva, Quintanem-se!


Se as coisas são inatingíveis...ora!

Não é motivo para não querê-las...

Que tristes os caminhos, se não fora

A presença distante das estrelas!



Referências

ACCOTO, C. O mundo dado: cinco breves lições de filosofia digital. Tradução de Eliete da Silva Pereira. São Paulo: Paulus, 2020.

BBC NEWS BRASIL. Entenda o escândalo de uso político de dados que derrubou valor do Facebook e o colocou na mira de autoridades. BBC News Brasil. 20 de março de 2018. Disponível em: https://www.bbc.com/portuguese/internacional-43461751. Acesso em: 13 jan. 2023.

BODEN, M. A. Inteligência artificial: uma brevíssima introdução. Tradução de Fernando Santos. São Paulo: Editora Unesp, 2020.

BROENS, M. C. A criatividade computacional e suas implicações éticas. SEMANA NACIONAL DE FILOSOFIA DA UFAL E DO IX ENCONTRO LINGUAGEM E COGNIÇÃO, VI. Conferência de encerramento. Universidade Federal de Alagoas, Maceió-AL, nov. 2022. Anais [...] Maceió-AL: Universidade Federal de Alagoas, 2022.

CHATGPT. OpenAI. Disponível em: https://chat.openai.com/chat. Acesso em: 16 jan. 2023.

COSTA, E. B. L. Charles Babbage (1791-1871) e a mecanização do cálculo: das engrenagens à “máquina de pensar”. 2012. 171f. Tese (Doutorado em História da Ciência) – Pró-Reitoria de Pós-Graduação, Pontifícia Universidade Católica de São Paulo, São Paulo, 2012.

DAMÁSIO, A. O erro de Descartes: emoção, razão e o cérebro humano. Tradução de Dora Vicente e Georgina Segurado. São Paulo: Companhia das Letras, 1996.

DEBRUN, M.; GONZALEZ, M. E. Q.; PESSOA JR., O. (org.). Auto-organização: estudos interdisciplinares. Campinas: CLE-UNICAMP, 1996.

DI FELICE, M. A cidadania digital: a crise da ideia ocidental de democracia e a participação nas redes sociais. São Paulo: Paulus, 2020.

D'OTTAVIANO, I. M. L.; GONZALEZ, M. E. Q. (org.). Auto-organização: estudos interdisciplinares – volume 2. Campinas: CLE-UNICAMP, 2000.

DUPUY, J.-P. Nas origens das ciências cognitivas. Tradução de Roberto Leal Ferreira. São Paulo: Editora Unesp, 1996.

GONZALEZ, M. E.; BROENS, M. C. (org.). Encontro com as ciências cognitivas volume 2. Marília: Unesp Marília Publicações, 1998a.

GONZALEZ, M. E.; BROENS, M. C. Prefácio. In: GONZALEZ, M. E.; BROENS, M. C. (org.). Encontro com as ciências cognitivas: volume 2. Marília: Unesp Marília Publicações, 1998b. p. i-iii.

GONZALEZ, M. E.; BROENS, M. C.; KOBAYASHI, G.; QUILICI-GONZALEZ, J. A. Hábitos e racionalidade: um estudo filosófico-interdisciplinar sobre autonomia na era dos Big Data. Trans/form/ação: revista de Filosofia da Unesp, v. 46, n. esp. “Filosofia Autoral Brasileira”, p. 367-386, 2023.

GONZALEZ, M. E.; LUNGARZO, C. A.; MILIDONI, PEREIRA JR., A.; WRIGLEY, M. B. (org.). Encontro com as ciências cognitivas. 2. ed. revista e ampliada. Marília: Unesp Marília Publicações, 1997.

MAMADEIRA DE PINTO. YouTube. Outubro de 2018. Disponível em: https://www.youtube.com/shorts/nRaI3AbhUjc. Acesso em: 13 jan. 2023.

MATOS, R. L. O. O ensino da computação para as meninas: uma trajetória de silêncios e transgressões. 2019. 176f. Tese (Doutorado em Educação para a Ciência e a Matemática) – Pró-Reitoria de Pesquisa e Pós-Graduação, Universidade Estadual de Maringá, Maringá, 2019.

McLUHAN, M. Aforismos e profecias. Prefácio e organização de Derrick de Kerckhove; tradução de Julliana Cutolo Torres. São Paulo: Paulus, 2020.

MIGUENS, S. Alan Turing e a filosofia da mente. In: ESPÍRITO SANTO, J. (ed.). Alan Turing: cientista universal. Braga: UMinho Editora, 2019, p. 103-17.

O'CONNOR, S.; ChatGPT. Open artificial intelligence platforms in nursing education: tools for academic progress or abuse? Nurse Education in Practice, v. 66, 2022. DOI: 10.1016/j.nepr.2022.103537.

PRAZERES, M.; RATIER, R. O fake é fast? Velocidade, desinformação, qualidade do jornalismo e media literacy. Estudos de Jornalismo e Mídia (Dossiê qualidade no jornalismo, democracia e ética 2), v. 17, p. 86-95, 2020. DOI: https://doi.org/10.5007/1984-6924.2020v17n1p86.

RUSSELL, S. Inteligência artificial a nosso favor: como manter o controle sobre a tecnologia. Tradução de Berilo Vargas. São Paulo: Companhia das Letras, 2021.

SANTAELLA, L. Humanos hiper-híbridos: linguagens e cultura na segunda era da internet. São Paulo: Paulus, 2021.

SANTAELLA, L.; KAUFMAN, D. Os dados estão nos engolindo? Civitas (Dossiê digitalização e dataficação da vida), v. 21, p. 214-23, 2021. DOI: https://doi.org/10.15448/1984-7289.2021.2.39640.

SEARLE, J. Mentes, cérebros e programas. Tradução de Cléa Regina de Oliveira Ribeiro. Revista Reflexões (Dossiê naturalismo biológico de John Searle), ano 10, n. 18, p. 280-303, 2021. Disponível em: https://revistareflexoes.com.br/artigos/mentes-cerebros-e-programas-john-r-searle-university-of-california-berkeley/. Acesso em: 13 jan. 2023.

TURING, A. Computing machinery and intelligence. Mind, v. 59, n. 236, p. 433-60, 1950. DOI: https://doi.org/10.1093/mind/LIX.236.433.

WIENER, N. Cibernética: ou controle e comunicação no animal e na máquina. Tradução de Gita K. Ghinzberg. São Paulo: Polígono e Universidade de São Paulo, 1970.

Recebido: 21/05/2023

Aceito: 26/05/2023



1 Professor da Universidade Federal do Cariri (UFCA), Juazeiro do Norte, CE – Brasil. ORCID: https://orcid.org/0000-0001-8142-1015. E-mail: maxwell.lima@ufca.edu.br.

2 De acordo com Margaret A. Boden (2020, p. 22), a intenção primordial de Turing era escrever um texto mais longo e mais detalhado, para enaltecer o campo da inteligência artificial, porém, as restrições concernentes à confidencialidade do período o impediram de levar a cabo esse projeto desbravador: “Ele [Turing] identificou questões-chave acerca do processamento de informações contido na inteligência (capacidade de jogar, percepção, linguagem e aprendizagem), fornecendo dicas fascinantes acerca do que já tinha sido alcançado. (Só ‘dicas’, porque o trabalho em Bletchey Park ainda era ultrassecreto.) Turing sugeriu até abordagens computacionais – como as redes neurais e a computação evolutiva –, que só se tornaram relevantes muito mais tarde.”

3 Outro rebento cibernético é a noção de auto-organização, que teve especial influência em muitos(as) pesquisadores(as) que produziram os primeiros trabalhos da área de Ciências Cognitivas, no Brasil. Gonzalez e Broens (1998b, p. i) traçam a seguinte síntese dessa concepção: “Tendo surgido nos estudos da cibernética na década de 40, o conceito de auto-organização desempenhou um papel gerador de hipóteses acerca da estrutura e natureza dos processos cognitivos e sua (im?)possível simulação em modelos mecânicos. Feliz ou infelizmente, esta noção foi quase esquecida nas décadas de 60 e 70, quando do desenvolvimento e auge da Inteligência Artificial (IA), cuja proposta de estudo do pensamento inteligente enfatiza o emprego de regras preestabelecidas para manipulação de símbolos, que, supostamente, seriam os constituintes básicos do nosso universo cognitivo. Foi somente na década de 80, quando o projeto da IA começou a apresentar alguns problemas, até agora aparentemente instransponíveis, que a noção de auto-organização foi retomada pelo movimento Conexionista, ou de Redes Neurais Artificiais (RNA)”. Recordar é viver! Entre nós, houve uma sistematização e uma organicidade das Ciências Cognitivas e da Teoria da Auto-Organização (TAO), sobretudo nos últimos anos do século passado. A título de ilustração, destacamos as seguintes ações que ocorreram entre 1995 e 2000: (i) realização das quatro primeiras edições do Encontro Brasileiro-Internacional de Ciências Cognitivas (EBICC) – I EBICC (Universidade Estadual Paulista “Júlio de Mesquita Filho”, Marília, 1995), II EBICC (Universidade Estadual do Norte Fluminense Darcy Ribeiro, Campos dos Goytacazes, 1996), III EBICC (Universidade Estadual de Campinas, Campinas, 1998) e IV EBICC (Universidade Estadual Paulista “Júlio de Mesquita Filho”, Marília, 2000); (ii) fundação da Sociedade Brasileira de Ciência Cognitiva – SBCC (em 1995, durante o I EBICC); (iii) lançamento dos primeiros livros da série Auto-organização: estudos interdisciplinares – Debrun, Gonzalez e Pessoa Jr. organizaram o volume 1 (1996), D'Ottaviano e Gonzalez organizaram o volume 2 (2000); (iv) lançamento dos primeiros livros da série Encontros com as ciências cognitivas – Gonzalez, Lungarzo, Milidoni, Pereira Jr. e Wrigley organizaram o volume 1 (1997) e Gonzalez e Broens organizaram o volume 2 (1998a); (v) a gênese de nossos primeiros encontros internacionais de Filosofia da Mente também remontam a essa época – o I Colóquio Internacional de Filosofia da Mente foi sediado na Unesp (Marília, 1999) e o II Colóquio Internacional de Filosofia da Mente, na Universidade Federal da Paraíba (João Pessoa, 2000). A riqueza do intercâmbio em solo nacional pode ser vislumbrada pelo fato de que profissionais com formação acadêmica em numerosas áreas – como a Filosofia, a Psicologia, a Medicina, a Física, a Engenharia (Elétrica, Mecânica e de Produção) – e representando diversos países – tais como o Brasil, a França, o Reino Unido, a Dinamarca, a Itália, Israel, os Estados Unidos, a Alemanha e a Argentina – estiveram colaborando nesses eventos e nessas publicações. Dentre tantos(as) pesquisadores(as) relevantes, rememoramos a importância de uma das figuras de proa desse movimento. Nascido em 1921, na França, o filósofo Michel Maurice Debrun chegou ao Brasil em meados dos anos 1950, lecionou em diversas instituições (Universidade de Toulouse, Escola Brasileira de Administração Pública da Fundação Getúlio Vargas, Universidade de São Paulo e Unicamp) e colaborou com a criação do Centro de Estudos de Lógica e Epistemologia (CLE-Unicamp), vindo a falecer em Campinas (1997). A Biblioteca do CLE foi batizada com seu nome e o livro Encontros com as ciências cognitivas (volume 1) contém esta singela dedicatória: “À memória de Michel M. Debrun, que nos deixou quando, com a sua ajuda, começamos a perceber a beleza e complexidade dos sistemas perceptivos que se auto-organizam.”

4 Nessa perspectiva, há uma diferença entre linguagem e comunicação. Uma abelha operária pode indicar a fonte de alimento para sua semelhante, o coaxar do sapo-cururu pode atrair sua parceira sexual e o Snoopy pode demonstrar ao Charlie Brown que está com fome. Não obstante, os referidos exemplos comunicacionais exitosos, a abelha, o sapo e o cachorro, não teriam uma linguagem.

5 A sigla GPT deriva de Generative Pre-trained Transformer. O ChatGPT é uma tecnologia de inteligência artificial capaz de interagir conversacionalmente, tendo sido lançado em 30 de novembro de 2022 pela corporação OpenAI.

6 Seguindo a crítica conceitual ao Teste de Turing, John Searle (2021) diria que o ChatGPT é um programa totalmente sintático que apenas manipula os símbolos, mas não os compreende.

7 Por exemplo, a contribuição direta ocorre quando se atribui inveridicamente que determinada pessoa se valia de crianças para fazer rituais satânicos e a população a assassina brutalmente, por linchamento. Um caso de contribuição indireta se deu quando uma criança morreu de Covid-19, porque seus pais se negaram a imunizá-la por temer que o vírus HIV a infectasse. Como sabemos, esse rastro destrutivo atinge outras espécies, como o demonstram os numerosos macacos mortos em razão da disseminação de mentiras envolvendo a transmissão de varíola.

8 Esse termo é bem explicado por Santaella e Kaufman (2021, p. 214-5): “Big data caracteriza-se não apenas pelo volume, mas por uma rica mistura de tipos e formatos de dados, pela variedade e pela natureza sensível, ao mesmo tempo que marca um desvio do processamento em lote tradicional, velocidade. Embora tenha se tornado, nos últimos anos, uma espécie de palavra de ordem, sua emergência é fruto de uma série de fatores que vieram se desenrolando a partir do advento da cultura do computador, que trouxe, entre muitos outros fatores, a crescente mudança de escala de processamento computacional e o agigantamento da circulação de informações na internet.”

9 Em realidade, entre o(a) emissor(a) e o(a) receptor(a) há ainda uma fase intermediária de codificação-descodificação da mensagem. Por exemplo, caso Caim esteja utilizando seu computador para enviar uma mensagem desaforada para Abel, será necessário utilizar uma linguagem de alto nível (próxima à linguagem humana) – e.g., editor de texto que permite a utilização do alfabeto –, a qual será codificada até se chegar à linguagem de baixo nível (próxima à linguagem da máquina), que, por sua vez, será convertida na linguagem de alto nível que permitirá a Caim lê-la.

10 Optamos por colocar uma seta dos potenciais influenciadores semânticos também apontando para o(a) emissor(a), por dois motivos, quais sejam: primeiro, porque a predisposição comportamental do(a) emissor(a) será influenciada por seu sistema de crenças, por suas experiências anteriores, por sua habilidade analítica e por informações relacionadas ao assunto em tela, ou seja, a experiência concreta e contextual do(a) emissor(a) é relevante para (e antecede) o fluxo da mensagem em t1; segundo, porque a retroalimentação (realimentação ou feedback) acaba por, digamos assim, inverter a distinção conceitual de que partimos: o(a) receptor(a) se torna emissor(a) – e vice-versa –, e a mensagem reenviada será agora recebida por uma pessoa que, como todos nós, a interpretará a partir da sua conjuntura de vida. Ademais, sistemas artificiais como softwares e robôs não estariam livres dos potenciais influenciadores semânticos, seja porque eles os herdam de seu programador e/ou de sua empresa (vide o escândalo da Cambridge Analytica), seja porque eles são moldados no decorrer de suas interações virtuais (nesse caso, eles podem acabar por reproduzir, por exemplo, condutas machistas ou homofóbicas).

11 Criativo que é, Pantaleão poderia ter pensado em algo semelhante a isto: https://www.youtube.com/shorts/nRaI3AbhUjc.

12 Frisamos que conhecer de antemão o perfil dos(as) destinatários(as) também confere vantagem, mesmo que não sejam distribuídos conteúdos inautênticos. Numa palavra, tal discernimento permite escolher quais mensagens verdadeiras serão direcionadas para os(as) apoiadores de Donald Trump, para a fatia indecisa do eleitorado e para os(as) simpatizantes de Hillary Clinton.

13 Prazeres e Ratier (2020, p. 89) salientam que a estudiosa Claire Wardle distingue aquela pessoa que não tem consciência do conteúdo desse tipo de mensagem daquela que a possui (e, até mesmo, a fabrica): “Em sua tipologia, Wardle recorre a misinformation e disinformation para designar a complexidade de tipos de distorções. O primeiro seria relativo ao compartilhamento não intencional de informações falsas. Já o segundo abarcaria o compartilhamento e criação deliberados desse tipo de conteúdo. Essas duas categorias abarcariam sete subtipos: sátira ou paródia, conteúdo enganador, fraude, conteúdo fabricado, falsa conexão, falso contexto e conteúdo manipulado. Wardle estrutura sua tipologia segundo três critérios: intencionalidade em enganar, motivações para sua criação e maneiras de disseminação.” De resto, indicamos o supracitado artigo de Prazeres e Ratier ao(à) leitor(a) que almeja apreender de que jeito os conceitos de fake e de fast se avizinham, durante o ato comunicativo.

14 Atualmente, abundam casos problemáticos de bolhas que funcionam como espaços de “desinformação”, ao propagar e reforçar estereótipos e preconceitos (machismo, homofobia, intransigência política, intolerância religiosa, xenofobia etc.), elevando o nível de polarização social. Broens (2022) sustenta que, diante de casos semelhantes a esse, temos a tarefa ético-epistemológica de combater a cultura que ampara e prolifera esses juízos estreitos e equivocados.

15 Exemplifiquemos um possível teste envolvendo a Folha de S. Paulo. Com o intuito de averiguar sua influência perante a opinião pública sobre determinado assunto (e.g., a importância de se investir no Sistema Único de Saúde), selecionamos como espaço amostral 2.000 leitores assíduos desse periódico (grupo experimental) e 2.000 pessoas que não a leem (grupo-controle); em seguida, colhemos e categorizamos (como positivas, neutras e negativas) as respectivas postagens desses grupos, nas redes sociais; finalmente, comparamos estatisticamente os resultados dos grupos experimental e controle. Obviamente, esse relato reduzido esconde alguns obstáculos que serão enfrentados em situações factuais – mencionemos três deles: (i) o processo de categorização é bastante espinhoso, (ii) há uma parcela em ambos os grupos que não manifesta sua opinião em redes sociais e (iii) como há pessoas que leem mais de uma fonte (Folha de S. Paulo e Revista Capital e BBC News Brasil, por exemplo), será preciso fazer diversos tipos de cruzamento de dados.

16 Para Broens, Gonzalez, Kobayashi e Quilici-Gonzalez (2023), estamos na presença de uma abordagem benéfica dos Big Data, quando ela serve de base para amplificar a voz de grupos historicamente oprimidos. Com essa aliança digital, podemos nos debelar contra o machismo, a homofobia, a intransigência política, a intolerância religiosa, a xenofobia etc.