Ciência precautória: sistematização e proposta de definição da precaução epistêmica

 

Pedro Bravo[1]

 

Resumo: Defensores do princípio da precaução propõem com frequência mudanças nas práticas científicas, para que elas facilitem o mesmo objetivo do princípio: evitar ameaças incertas ao ambiente ou à saúde humana. A ciência deveria ser uma ciência precautória. Apesar da importância prática da ciência precautória e da sua proximidade com os debates sobre ciência e valores, ela ainda não foi sistematicamente examinada. Neste artigo, pretende-se contribuir para a literatura sobre a ciência precautória de dois modos: sistematizando sua literatura prévia e propondo uma definição de um de seus elementos principais, a precaução epistêmica, como uma orientação específica para a gestão de riscos indutivos. Conclui-se com algumas objeções que tal definição levanta, bem como caminhos de pesquisas futuras para abordá-las.

 

Palavras-chave: Filosofia da ciência. Ciência e valores. Ciência precautória. Risco indutivo.

 

Introdução

Como a ciência pode proteger de maneira melhor o meio ambiente e a saúde humana? Desde a década de 1990, vários autores de diferentes formações vêm tentando responder a essa questão, promovendo uma reorganização da ciência chamada “ciência precautória”. As mudanças propostas para a ciência estariam em consonância com o princípio da precaução (PP), isto é, o princípio segundo o qual se pode tomar ações para mitigar uma ameaça ao meio ambiente ou à saúde humana, ainda que haja incerteza científica sobre ela. A natureza de tais ações varia de acordo com as interpretações do princípio (i.e., regra de decisão, regra epistêmica ou requerimento procedimental), e as medidas recomendadas devem ser proporcionais à gravidade da ameaça que dispara sua aplicação (cf. Bravo, 2023; Rechnitzer, 2020).

Na que parece ser uma das primeiras ocorrências do termo ciência precautória, os cientistas ambientais Mark Simmonds e Paul Johnston (1991, tradução minha)[2] afirmam que, em vez de ser uma ameaça à ciência, como alguns críticos argumentaram, uma abordagem precautória ao pensamento científico, “[...] na verdade, aumenta o rigor do processo científico, porque ela está baseada em uma compreensão das limitações reais da ciência”.

Além de ser discutida por diversos autores, após Simmonds e Johnston, a ciência precautória aparece explícita ou implicitamente também em documentos de agências importantes. Com efeito, nas conclusões de um relatório da Agência Ambiental Europeia sobre casos em que o PP não fora aplicado, constam diversas normas sobre como reorganizar a ciência, de maneira a evitar casos semelhantes (Harremoës et al., 2001). Outro relatório da Comissão Mundial sobre a Ética do Conhecimento Científico e da Tecnologia (Comest, 2005) dedica toda uma seção às implicações do PP para a ciência. Por fim, a União Internacional para Conservação da Natureza recomenda a utilização de uma “atitude precautória” em relação à incerteza científica na determinação de critérios para classificação de espécies em perigo (Iucn, 2000, p. 25).

Não obstante essa literatura significativa sobre o assunto desde então, a ciência precautória ainda não foi sistematicamente examinada. Não há uma revisão das contribuições dos autores anteriores, nem uma definição adequada da própria ciência precautória. De fato, essa ciência costuma ser caracterizada por normas diversas (e.g., “pesquise por alertas precoces”) e por vezes conflitantes, se considerada a literatura como um todo. Enfim, nos poucos casos em que a ciência precautória é definida, há ainda ambiguidades sobre sua conexão com o PP.

Para observar isso, comparem-se as três importantes definições a seguir: ciência precautória como um ideal, “[...] pelo qual a ciência pode se esforçar para melhor abordar questões ambientais e de saúde complexas de maneira consistente com o Princípio da Precaução” (Barrett; Raffensperger, 1999, p. 109-110, tradução e grifos meus); como uma abordagem para examinar como “[...] a pesquisa científica pode ser modificada para servir a objetivos mais precautórios e, assim, proteger de maneira melhor a saúde humana e o meio ambiente” (Cranor, 2003, p. 203, tradução e grifos meus); ou como um paradigma no qual “[...] a pesquisa ambiental em apoio à tomada de decisão baseada no PP envolveria as partes interessadas e, portanto, se tornaria Participativa [...], Acessível, Transparente, Inventiva e de Mente aberta” (Grandjean, 2013, p. 637, tradução e grifos meus)[3].

A ausência de uma definição relativamente mais refinada da ciência precautória e as demais deficiências da literatura apontadas acima são uma lacuna importante, tanto de um ponto de vista teórico quanto prático. Teoricamente, pois a ciência precautória se constitui como um modo de reorganizar a ciência avançado principalmente pelos próprios cientistas, peculiaridade que permite comparações valiosas entre ela e propostas do gênero feitas por filósofos da ciência. Praticamente, porque tal lacuna pode dificultar o reconhecimento, a unificação e o estímulo de práticas que sejam conforme à ciência precautória e a seu objetivo.

De forma a melhor investigar a ciência precautória, parece-me que uma estratégia produtiva seja primeiro recorrer às normas dadas pelos autores de sua literatura. Uma vez que os defensores da ciência precautória também contrastam sua posição com uma caracterização “reducionista” ou “materialista” da ciência, seria útil ter um quadro que fornecesse esse contraste aplicado aos distintos momentos da ciência (e.g., escolha do tema de pesquisa, análise dos dados obtidos, comunicação dos resultados). A próxima seção (seção 1) apresenta e detalha tal quadro. A partir desse resultado, será possível apreender algum padrão subjacente às diversas normas. Defenderei que tal elemento recorrente é a precaução epistêmica. Assim, na seção 2, proporei uma definição dela, recorrendo ao conceito de risco indutivo. Além de ilustrar a presença da precaução epistêmica em pesquisas científicas das ciências ambientais, defenderei que a definição proposta consegue ser sensível aos contextos em que é aplicada, o que fornece a cientistas uma ferramenta robusta para tornar a ciência mais próxima ao PP.

Com a sistematização da ciência precautória e a definição da precaução epistêmica, logra-se uma organização inicial de tal ideal. No entanto, graves obstáculos são levantados, em função do papel de valores na precaução epistêmica. Assim, na seção 3, apresento três dos principais obstáculos: a objeção da objetividade, a objeção da cascata precautória e a objeção da legitimidade política. Concluo essa seção, sugerindo um maior diálogo entre proponentes da ciência precautória e a literatura de ciência e valores, para que tais obstáculos sejam adequadamente abordados. Nas considerações finais, por fim, retomo os principais resultados do artigo.

 

1 Sistematização: as normas da ciência precautória e suas razões

Para fornecer um quadro que sistematize as normas da literatura da ciência precautória, analisei, em primeiro lugar, textos que traziam em seu título o termo “precautionary science”, na base de dados do Google Acadêmico, em 26 de outubro de 2022 (n = 14), e, em seguida, referências que abordavam as implicações do princípio para a ciência de um verbete de enciclopédia sobre o PP (Rechnitzer, 2020) e de Bravo (2023). Assim, o total de textos analisados ultrapassou 40, sendo tanto artigos científicos quanto textos sobre o PP publicados por agências regulatórias (e.g., Comest, 2005). Em seguida, classifiquei as normas comuns encontradas em tais textos, nos quatro momentos das atividades científicas que podem ser carregadas de valores, conforme Elliott (2022, p. 8): os momentos de direcionar a ciência, de fazer ciência, de usar a ciência e de gerir a ciência.

Grosso modo, o momento de direcionar a ciência refere-se às decisões individuais e institucionais sobre o que estudar; aquele de fazer ciência diz respeito a decisões relacionadas ao design de estudos, à análise de dados, à interpretação de resultados, à criação de modelos e ao desenvolvimento e uso de categorias; o momento de usar a ciência se relaciona a como comunicar resultados científicos, formular regulações, desenvolver políticas públicas e tomar decisões; por fim, aquele de gerir a ciência remete a “[...] como os cientistas devem tratar uns aos outros e aos que os cercam enquanto realizam suas pesquisas” (Elliott, 2022, p. 13, tradução minha)[4]. O Quadro 1 contém um resumo das normas para esses momentos, bem como utiliza um sistema de números e letras para menção posterior.

 

Quadro 1 - Normas da ciência precautória

1. Direcionar a ciência

Dimensão negativa: não investigar ameaças individuais e bem conhecidas.

Dimensão positiva: (a) investigar ameaças malcompreendidas ou ainda não estudadas, exposição a diferentes interações de substâncias tóxicas, vulnerabilidade individual em grupos de risco e comunidades desproporcionalmente afetadas, alternativas a objetos sobre os quais há risco, consequências possíveis da implementação em curto e longo prazo de inovações tecnológicas, alertas precoces, ou questões orientadas para a prevenção; (b) decidir o tema de pesquisa em diálogo com o público interessado; (c) aumentar o financiamento público e independente para ciência; (d) promover novos instrumentos de pesquisa.

2. Fazer ciência

Dimensão negativa: (i) não esconder juízos de valor ou incerteza; (ii) evitar erros de tipo III; (iii) não se basear apenas em níveis convencionais de significância estatística; (iv) não fazer pesquisas com condições artificiais, modelos simplificados, amostra limitada, em curto prazo, ou sem diálogo com outras disciplinas e/ou o público interessado.


Dimensão positiva: (a) reconhecer ignorância, incerteza, limites do conhecimento e juízos de valor; (b) minimizar erros de tipo II (falsos negativos); (c) considerar cenários menos prováveis; (d) realizar monitoramentos; (e) pesquisar em diálogo com outras disciplinas e conhecimento leigo; (f) ser transparente.

3. Usar a ciência

Dimensão negativa: (i) não esconder juízos de valor e incerteza; (ii) não comunicar apenas alertas tardios; (iii) não formular regulações ou políticas públicas com padrões de evidência severos e sem inversão do ônus da prova.


Dimensão positiva: (a) reconhecer incerteza e juízos de valor; (b) comunicar incertezas, alertas precoces, alternativas e consequências adversas da própria pesquisa; (c) encorajar e reportar opiniões minoritárias em comitês científicos, desde que elas sejam respeitáveis; (d) comunicar com a participação das partes interessadas e tomadores de decisão; (e) envolver o público no processo decisório de alguma medida relacionada ao princípio da precaução; (f) formular regulações ou políticas públicas com padrões de evidência brandos e com inversão do ônus da prova.

4. Gerir a ciência

Dimensão negativa: não promover estruturas acadêmicas que não incentivem inovações ambientalmente benéficas, interdisciplinaridade e treinamento, na tomada de decisão.

 

Dimensão positiva: (a) mudar a educação dos cientistas, promovendo treinamento em ética da pesquisa, relação entre ciência e política, ou engajamento com comunidades; (b) proteger denunciantes.

Fonte: Elaboração minha.

 

Antes de ilustrar o quadro acima, fornecendo as referências de algumas normas de destaque, é importante esclarecer quatro questões. Em primeiro lugar, deve-se notar que a ciência precautória é mais aplicável a algumas áreas científicas do que a outras. Mesmo que seus defensores, às vezes, não levem isso explicitamente em conta, a ciência precautória refere-se a áreas que estão no escopo de determinados conceitos, como ciência relevante para políticas públicas, ou seja, áreas que cujos resultados têm implicações diretas para a formulação e a aplicação de políticas públicas, como a biologia da conservação. Em segundo lugar, há normas no quadro que concernem a cientistas enquanto, outras, a instituições científicas. Em terceiro lugar, observo que a defesa da ciência precautória não implica a falsa crença de que evidências sobre um risco levam naturalmente a uma decisão política (cf. Grandjean, 2013, p. 625); em vez disso, o foco é ser relevante para o PP. Em quarto e último lugar, ressalto que o Quadro 1 é uma compilação do que a literatura tem realçado que constituiria a ciência precautória; não se trata, por conseguinte, de defender neste momento que alguma e/ou outra norma seja adequada, senão de fornecer uma visão geral do que a literatura tem apresentado.

 

1.1 Direcionar a ciência

Considere-se a dimensão 1-negativa (“não investigar ameaças individuais e bem conhecidas”). Segundo os defensores da ciência precautória, não se deve investigar substâncias isoladas não apenas porque elas raramente são encontradas isoladas de outras substâncias, no meio ambiente, mas, principalmente, porque os níveis nos quais são individualmente seguras podem ser nocivos, quando as substâncias estão misturadas (Biello, 2006). Uma vez que o foco em substâncias individuais impede a descoberta desse tipo de dano, não haveria evidências que desencadeariam uma aplicação do PP. Assim entendido, um caso recente de ciência precautória seria a pesquisa sobre herbicidas à base de glifosato, que estuda as formulações de glifosato (incluindo a mistura completa dos componentes) e não apenas o glifosato puro (cf. Krimsky, 2022).

Além disso, de acordo com estudo bibliométrico de Grandjean et al. (2011), há uma tendência nos periódicos de Environmental Science, Toxicology e Public, Environmental and Occupational Health em focar um grupo de substâncias já bem-conhecidas. Mais precisamente, um de seus resultados é que, enquanto cada uma das seis substâncias mais pesquisadas, durante o século XX, foi objeto de pelo menos dez artigos por mês, de 2000 a 2009, uma lista prioritária da Environmental Protection Agency (EPA), divulgada em 2006, com treze substâncias amplamente produzidas, mas cuja documentação é escassa, recebeu apenas três artigos por mês, em média, sendo que quatro dessas substâncias não foram abordadas por nenhum artigo. Concentrar-se em substâncias bem-conhecidas pode levar a ignorar novos perigos. Sem algum tipo de evidência sobre um perigo, não há como aplicar o PP, daí a motivação para 1-a (“investigar ameaças mal compreendidas ou ainda não estudadas...”) e sua ligação com o PP (cf. Grandjean, 2004, p. 215; Grandjean, 2013, p. 627).

Como o PP se aplica a objetos dos quais há incerteza sobre eventuais danos, pesquisar as consequências possíveis da implementação em curto e longo prazo de determinadas inovações tecnológicas (quinto elemento de 1-a) também se constitui como uma decisão precautória (Lacey, 2007, p. 58; 2014, p. 690-691). Ao fazê-lo, é possível identificar alertas precoces, ou seja, indícios de dano ainda em fases muito iniciais (sexto elemento de 1-a). Uma das maneiras de concretizar essa norma é se focar em propriedades preocupantes e comuns a diversas substâncias, como sua biopersistência (Cranor, 2003, p. 311; Gee; Stirling, 2003, p. 201-202; Tickner, 2005, p. 222; Tickner; Kriebel, 2006, p. 43). Que tal foco de pesquisa é ainda pequeno pode ser ilustrado pelo baixo financiamento direcionado aos riscos da nanotecnologia, em vez de outros aspectos dela: apenas um em cada trezentos dólares, conforme uma pesquisa de 2006 (Mocellin; Zaterka, 2022).

Por sua vez, a última norma do momento “direcionar a ciência” refere-se à defesa de um aumento de financiamento público e independente para a ciência, 1-c (Elliott, 2014, p. 159; Myhr; Traavik, 2003, p. 242; Simmonds; Johnston, 1991). Tal defesa se deve tanto a casos em que o financiamento privado de pesquisas levou, explícita ou implicitamente, ao acobertamento de riscos (cf. Jacquet, 2023), quanto a ênfase de investigações assim financiadas nos benefícios de seus produtos (production science), em vez de potenciais malefícios (impact science) (Gould, 2015). Na terminologia de Cranor (1999, p. 78), a informação acerca de substâncias tóxicas é assimétrica, no sentido de que há mais evidências sobre os benefícios de produtos do que seus efeitos à saúde. O aumento de financiamento público e independente corrigiria, portanto, tal assimetria.

 

1.2 Fazer ciência

A primeira norma negativa do momento “fazer ciência” concerne a não esconder juízos de valor ou incerteza, 2-(i). Trata-se de uma das normas mais comuns na literatura da ciência precautória[5]. Não acobertar juízos de valor se refere a evitar que decisões motivadas por valores na pesquisa científica sejam apresentadas como neutras ou as únicas possíveis, o que dificultaria sua discussão. Reconhecer o papel de valores em tais decisões (2-a) e ser transparente quanto a eles, 2-f, permite, dentre outras coisas, uma reanálise dos dados em questão e facilita a interação crítica entre pesquisadores e o público (Elliott, 2020). Assim, abre-se mais espaço para discutir se o PP se aplica a algum caso ou não.

Para detalhar as normas 2-iii e -iv, é necessário comentar o que são falsos negativos e falsos positivos, nesse contexto. Grosso modo, eles se relacionam a erros possíveis no contexto de um teste de hipótese. Um falso positivo é o erro de se aceitar uma hipótese falsa, e um falso negativo é o erro de se rejeitar uma hipótese verdadeira. A prática científica padrão leva em conta falsos positivos mais graves do que falsos negativos, o que é ilustrado pelo valor baixo dado à probabilidade de um falso positivo (0,05, 0,01 ou 0,001, dependendo da área), o nível de significância estatística de um teste (α). As consequências de falsos negativos e falsos positivos são distintas. Por exemplo, considerando-se a hipótese “x é tóxico” para uma substância x qualquer, um falso positivo poderia levar a um estado de regulamentação excessiva, ao passo que um falso negativo poderia levar a um estado de sub-regulamentação.

Com base nesse entendimento, defensores da ciência precautória propõem que cientistas não se baseiem apenas em níveis convencionais de significância estatística, durante o teste de hipóteses, norma 2-iii (Grandjean, 2004; Lemons et al., 1997; Kriebel et al., 2001, p. 873). Pelo menos três razões são apresentadas para essa norma: níveis convencionais de significância estatística levam a um maior número de falsos negativos do que falsos positivos, o que, em áreas cobertas pela ciência precautória, implicaria uma menor proteção ao meio ambiente ou à saúde humana. Não à toa, autores como Hansson (1999, p. 919, tradução minha)[6] afirmam que “[...] os testes estatísticos convencionais são baseados em critérios que contrariam o Princípio da Precaução”.

A segunda razão para não se basear apenas em níveis convencionais de significância estatística remete à prática comum dos cientistas em terem em vista resultados que não atinjam determinado nível como resultados negativos, desconsiderando a possibilidade de que o resultado seja inconclusivo. Fidler et al. (2006), por exemplo, mostram que 63% dos artigos em biologia da conservação que analisaram cometiam tal equívoco. Por fim, pesquisas de certas áreas, como ciências ambientais, por vezes investigam amostras demasiado pequenas para que seja possível obter algum resultado significante, nos níveis convencionais. Assim, manter-se neles poderia levar a conclusões errôneas relativas à ausência de algum risco. Taylor et al. (2007), em particular, apontaram que um declínio vertiginoso de mais da metade da população de certos animais marinhos não seria detectado, assumindo-se o valor 0,05 para α.

As preocupações acima relativas aos níveis convencionais de significância estatística podem ser entendidas a partir do juízo de valor de que, em áreas cobertas pela ciência precautória, falsos negativos são mais problemáticos do que falsos positivos. Deve-se, pois, preferir cometer mais falsos positivos a falsos negativos. Pode-se, aliás, entender grande parte da norma 2-iv (“não fazer pesquisas com condições artificiais, modelos simplificados, amostra limitada, em curto prazo, ou sem diálogo com outras disciplinas e/ou público interessado”) igualmente no sentido de preferir cometer falsos positivos a negativos (Guillete, 2003, p. 329; Lowell, 2001; Harremoës et al., 2001).

Com efeito, se, por um lado, experimentos com condições artificiais como experimentos controlados facilitam conclusões sobre eventuais relações causais, por outro lado, argumentam os defensores da ciência precautória, a presença delas pode negligenciar o impacto de outros fatores cruciais para o entendimento do fenômeno em questão. A análise de Suryanarayanan e Kleiman (2017, p. 13, tradução minha)[7] sobre a diferença entre os argumentos de entomologistas e apicultores sobre o efeito de inseticidas em abelhas nos Estados Unidos ilustra bem tal norma:

Refletindo as normas de sua profissão e estrutura de carreira, esses cientistas [entomologistas] estão focados em isolar fatores individuais e preferem falsos negativos a falsos positivos. Por outro lado, as preocupações com os meios de subsistência dos apicultores os levam a preferir resultados falsos positivos que podem, por exemplo, levar o governo a remover inapropriadamente certos inseticidas do mercado. A opinião de muitos apicultores sobre os efeitos subletais desses inseticidas e sua interação com outras condições ambientais é moldada por observações de campo cuidadosas. Seus estudos podem ser sistemáticos, mas carecem dos controles precisos que os entomologistas exigem e, embora nem todos os cientistas rejeitem a posição desses apicultores, de imediato, eles têm pouco incentivo para desenvolver projetos experimentais que capturem a complexidade de maneiras que os apicultores percebem.

 

A segunda norma positiva do momento “fazer ciência” que comentarei refere-se a minimizar erros de tipo II (falsos negativos), norma 2-b. Dado que as razões para ela são evidentes, a partir das críticas anteriormente expostas aos níveis convencionais de significância estatística, apenas destaco os modos de concretizá-la: fornecer medidas de erros de tipo II, conforme se pode depreender, com base na potência estatística de um teste (Lemons et al., 1997, p. 232; Buhl-Mortesen; Welin, 1998, p. 410), aumentar o nível de significância estatística (Cranor, 1990, p. 136), recorrer a métodos bayesianos (Kriebel et al., 2001, p. 874), fazer análise de preponderância da evidência (Lujan; Todt, 2008) e apresentar limites de confiança (Grandjean, 2013, p. 633). Ressalto igualmente que, na análise de Fidler et al. (2006) sobre artigos em biologia da conservação, apenas 8% dos textos reportavam a potência estatística de suas pesquisas, de onde a relevância dessa norma.

Assim como outras normas, a norma comentada acima também pode ser entendida como a preferência por falsos positivos a falsos negativos, na ciência precautória. Considerar cenários menos prováveis, norma 2-c, igualmente instancia essa preferência (Brown, 2020, p. 8-9; Grandjean, 2008, p. 5; Hansson, 1999, p. 916). Com efeito, ter em vista cenários menos prováveis, recorrendo a juízos de plausibilidade, por exemplo, permite dar conta de um maior conjunto de riscos do que utilizando padrões de evidência mais estritos. Nessa perspectiva, recomenda Brown (2020), periódicos científicos deveriam aceitar pesquisas que discutam cenários plausíveis. Caso contrário, órgãos institucionais que analisam e resumem pesquisas para formuladores de políticas públicas, como o Painel Intergovernamental sobre Mudanças Climáticas (IPCC), discutido por ele, apenas comunicariam um conjunto restrito de riscos.

 

1.3 Usar a ciência

As normas do momento “usar a ciência” podem ser divididas em três categorias: a primeira concerne a juízos de valor e incerteza na formulação de políticas públicas, nas regulações e na comunicação científica; a segunda se refere a como a comunicação científica deve ser feita; por fim, a terceira remete a quais características são desejáveis em regulações e políticas públicas.

Normas relacionadas à comunicação científica podem ser compreendidas em função do objetivo de explicitar rápida e responsavelmente informações que possam disparar a aplicação do PP. Daí a motivação para a norma 3-ii, “não comunicar apenas alertas tardios”, e sua contraparte, norma 3-b, “comunicar incertezas, alertas precoces, alternativas, e consequências adversas da própria pesquisa” (Buhl-Mortensen; Welin, 1998, p. 410; Hallers-Tjabbes, 2003, P. 349; Høyer, 2012, p. 178; Myhr; Traavik, 2003, p. 240). No entanto, para ser responsável, tal comunicação deve ser feita sob a condição de que se explicite quão fortes são as evidências para a alegação comunicada. Outra condição frequente para fundamentá-la é, quando possível, a participação das partes interessadas e tomadores de decisão, 3-d (Gee, 2013, p. 660; Grandjean, 2004, p. 216). A decisão de comunicar ou não um alerta precoce, cabe enfim salientar, pode ser entendida recorrendo-se novamente aos conceitos de falsos positivos e negativos. Como na ciência precautória se busca minimizar falsos negativos, é preferível errar, comunicando um falso positivo a um falso negativo.

Minimizar falsos negativos também pode explicar a norma 3-c, “encorajar e reportar opiniões minoritárias em comitês científicos desde que elas sejam respeitáveis” (Comissão das Comunidades Europeias, 2000, p. 17-18; Hansson, 1999, p. 914; Godard, 2003). Embora a presença de consenso em comitês científicos facilite a justificação de determinada medida, a comunicação apenas de teses consensuais pode deixar de lado afirmações divergentes que, no entanto, têm alguma fundamentação razoável. Assim, defensores da ciência precautória sugerem que tais afirmações constem nos relatórios de comitês científicos e não apenas aquelas sobre as quais há consenso. Um problema em tal norma é, porém, como diferenciar dissensos científicos legítimos de ilegítimos (cf. Miller, 2021).

Intimamente conectadas ao PP são as últimas normas do momento “usar a ciência”, a saber, “não formular regulações ou políticas públicas com padrões de evidência severos e sem inversão do ônus da prova”, norma 3-iii, e a norma contrária, “formular regulações ou políticas públicas com padrões de evidência brandos e com inversão do ônus da prova”, 3-f (Barrett; Raffensperger, 1999, p. 109; Cranor, 1999; Gee, 2013, p. 656). Padrões de evidência severos dificultam aplicações do PP, uma vez que uma das suas motivações principais é justamente permitir decisões com base em graus brandos de evidência, no contexto de riscos ao meio ambiente ou à saúde humana. O ônus da prova, ou seja, quem deve persuadir outros de que o estado atual do conhecimento deva ser mudado (Cranor, 1999, p. 79), deve ser invertido de quem alega determinado risco em alguma atividade para os propositores de que tal atividade é segura. Uma das justificativas para a inversão do ônus da prova é a diferença de recursos entre quem propõe determinada atividade (e.g., corporações tecnocientíficas) e aqueles afetados por ela (e.g., população em geral). Um exemplo, por fim, de regulação que contenha a inversão do ônus da prova é o marco regulatório “Registro, Avaliação, Autorização e Restrição de Produtos Químicos” (Reach) da União Europeia (Hansen; Carlsen; Tickner, 2007).

 

1.4 Gerir a ciência

As normas do momento “gerir a ciência” são as menos desenvolvidas na literatura da ciência precautória. De modo geral, elas visam a criar condições institucionais para viabilizar as normas dos momentos anteriores, como a norma 4-negativa (“não promover estruturas acadêmicas que não incentivem inovações ambientalmente benéficas, interdisciplinaridade e treinamento, na tomada de decisão”) e sua contraparte, “mudar a educação dos cientistas, promovendo treinamento em ética da pesquisa, relação entre ciência e política, ou engajamento com comunidades”, 4-a (Cranor, 2003, p. 310; Elliott, 2014, p. 157; Ravetz, 2004, p. 355). Tais normas facilitariam, por exemplo, a interdisciplinaridade, avaliações precoces de objetos sobre os quais há risco e o diálogo com o público interessado no momento de gerir, fazer e usar a ciência.

Por exemplo, a norma relativa a proteger denunciantes, 4-b, objetiva trazer segurança não apenas a cientistas, ao divulgarem algum alerta de risco enquanto trabalham em instituições que possam ser prejudicadas por isso – como no caso recente de um grupo de cientistas que denunciou pressões favoráveis à indústria na EPA (Lerner, 2021) –, mas também àqueles cujas pesquisas têm o potencial de prejudicar interesses comerciais de grandes corporações – como no caso de seis pesquisadores brasileiros perseguidos por pesquisas sobre agrotóxicos (Alves, 2021). Portanto, tal norma visa a facilitar a comunicação de alertas precoces e de riscos (Comest, 2005, p. 37; Cranor, 2013, p. 582-585).

 

2 Precaução epistêmica: definição e comentário

Apesar das justificativas apresentadas acima para as normas da ciência precautória, há pelo menos duas dificuldades importantes em caracterizar tal ideal, em função de um conjunto de normas. A primeira dificuldade se refere à pouca utilidade que um tal conjunto diverso e extenso teria para a própria prática dos cientistas. A segunda dificuldade remete à percepção de que tais normas são contextualmente dependentes e, portanto, não devem ser encaradas como regras fixas.

Com efeito, tanto normas negativas quanto positivas do Quadro 1 podem, em determinados contextos, atrapalhar a relevância da ciência precautória para o PP. Considere-se a norma negativa 2-iv sobre evitar pesquisas de curto prazo. Conforme Carl Cranor (1995), o custo social de avaliações de risco aceleradas sobre carcinógenos é menor do que as avaliações de risco convencionais em diferentes cenários, mesmo que levem a mais falsos positivos e falsos negativos do que a avaliação mais lenta e precisa. Portanto, nesse caso, a análise de curto prazo pode ter mais relevância para o PP. O engajamento do público, por sua vez, norma positiva presente em vários momentos do Quadro 1, às vezes pode ser capturado de uma forma que vai contra o espírito do PP, como em alguns casos nos quais indústrias farmacêuticas se aliam a organizações de defesa de pacientes, para dificultar a percepção de riscos sobre seus produtos (cf. Holman; Geislar, 2018; Sismondo, 2018, p. 163-167). Para abordar em parte tais dificuldades, identifico abaixo um elemento comum a várias normas do Quadro 1, a precaução epistêmica. Dadas as limitações de definições anteriores, proponho uma nova definição para ela, a partir da noção de risco indutivo.

Não obstante suas diferenças, todas as definições da precaução epistêmica – a interpretação epistêmica do PP – se referem a que ou a como acreditar diante de ameaças incertas ao meio ambiente ou à saúde humana. Embora lancem mão de conceitos diversos, dois conceitos têm se destacado nas tentativas anteriores de abordar a precaução epistêmica: falsos positivos/negativos e risco indutivo.

Embora entender a interpretação epistêmica do PP enquanto uma preferência por falsos positivos consiga unificar grande parte das normas do Quadro 1, tal definição tem o demérito de ser rígida e, por conseguinte, padeceria da mesma falta de sensibilidade ao contexto que a ciência precautória como um conjunto de normas enfrenta. Assim, urge recorrer ao segundo conceito que tem se destacado, na literatura, sobre a precaução epistêmica.

Daniel Steel (2015) e Stephen John (2019) conectam a precaução epistêmica ao conceito de risco indutivo.[8] Pode-se compreender o conceito de risco indutivo como a chance de erro, ao se aceitar ou rejeitar uma hipótese. Na proposta de Douglas (2000, 2009, 2017), há risco indutivo não apenas em contextos de testes de hipóteses, mas também na escolha da metodologia, na caracterização dos dados e na interpretação dos resultados. John (2010), por sua vez, inclui riscos indutivos também na comunicação científica. Em outras palavras, nesses momentos, há como uma escolha difícil entre falsos positivos e falsos negativos na aceitação de uma hipótese. Grosso modo, Douglas argumenta que, quando há consequências não epistêmicas desses riscos indutivos, valores não epistêmicos devem ser considerados no juízo de quão suficiente é determinada evidência para se aceitar alguma hipótese. Uma vez que existem tais consequências não epistêmicas, no contexto da ciência precautória, então, valores não epistêmicos devem ter um papel importante na aceitação de hipóteses.

A precaução epistêmica na abordagem de Steel é derivada do que ele chama por princípio da metaprecaução, segundo o qual “[...] a incerteza não deve ser uma razão para inação diante de ameaças ambientais [ou à saúde humana] graves” (Steel, 2015, p. 9, tradução minha)[9]. Em meu entendimento, parece que a precaução epistêmica de Steel orientaria a avaliação de riscos indutivos, a partir de valores ligados ao meio ambiente ou à saúde humana. Essa interpretação explicaria por que ele ilustra a precaução epistêmica com os fatores de incerteza em toxicologia (Steel, 2015, p. 172-177) e, depois, com o marco regulatório Reach da União Europeia (Steel, 2015, p. 212-216), pois tal marco torna a toxicidade a suposição-padrão para muitos produtos químicos, em vez de não toxicidade, uma decisão consoante com o argumento do risco indutivo. Em suas palavras:

O argumento do risco indutivo afirma que os juízos de valor éticos sobre a gravidade de erros devem influenciar as decisões sobre o que deve contar como evidência suficiente para aceitar uma afirmação. Com efeito, uma abordagem pré-mercado torna a toxicidade a suposição-padrão para produtos químicos. A obrigação, portanto, recai sobre os usuários e produtores do produto químico para fornecer evidências de que essa suposição-padrão é falsa e que o produto químico pode ser usado com segurança. Mas, o que se trata como a suposição-padrão reflete um julgamento sobre os custos relativos de erros possíveis e opostos. Assim, o REACH é motivado pelo juízo de que normalmente é melhor atrasar a comercialização de um produto químico seguro do que descobrir tardiamente que um produto químico já em uso generalizado é seriamente prejudicial (Steel, 2015, p. 214-215, tradução minha)[10].

 

Apesar da fecundidade e elegância dessa abordagem, Steel (2015) não define a precaução epistêmica. Além disso, os papéis dos valores não são claros por dois motivos. Primeiro, ele, às vezes, alude a certos valores como “motivadores” (Steel, 2015, p. 182) para decisões e, outras vezes, “[...] como uma razão” (Steel, 2015, p. 183, 214-215) para elas, uma ambiguidade problemática no debate do risco indutivo, segundo mostra o artigo de Ward (2021). Em segundo lugar, parece haver um conflito potencial entre a precaução epistêmica e afirmações anteriores, em seu livro, quando ressalta que o PP não prioriza alguns valores, em detrimento de outros (cf. Steel, 2015, p. 42, 82-84, 171). Diante disso, pode ser útil uma definição explícita de precaução epistêmica que se baseie e corrija as contribuições dele e de autores anteriores e que seja relevante para o debate da ciência precautória. Proponho, então, a seguinte definição:

 

Precaução epistêmicadf: no momento de gerir riscos indutivos com consequências não     epistêmicas significativas e plausíveis, decisões que facilitem a proteção do meio        ambiente ou da saúde humana devem ser tomadas.

 

Antes de comentar como tal definição acomoda contextualmente várias normas do Quadro 1, convém explicar rapidamente três aspectos dela: a que tange a “o momento de gerir riscos indutivos”, por que restringir os riscos indutivos àqueles com consequências significativas e plausíveis, e qual o significado de decisões que devem “ser tomadas”. O trecho referente à “proteção do meio ambiente ou da saúde humana” deve aqui ser entendido de maneira intuitiva, com base nos exemplos discutidos.

Por “momento de gerir riscos indutivos” me refiro à ocasião em que se toma alguma decisão relativa a que hipótese aceitar, após uma análise das consequências de riscos indutivos (falsos positivos e negativos). Considere-se o exemplo a seguir. Para aprovar um novo medicamento, há que se levar em conta quantos e quais testes serão tidos como suficientes para estabelecer sua segurança e efetividade. Dadas as consequências de um falso positivo (e.g., danos a pacientes, em função da aprovação de um medicamento ineficaz e/ou inseguro) e aquelas de um falso negativo (e.g., danos a pacientes, pela não aprovação de um medicamento importante, com prejuízo financeiro à empresa responsável), a gestão de tais riscos indutivos concerne a que hipótese aceitar em face de tais consequências: a hipótese de que dois resultados positivos de estudos clínicos controlados duplo-cego são suficientes ou aquela de que apenas um o é, ou ainda a hipótese de dois positivos com outros critérios adicionais? (cf. Stegenga, 2017).

Nem toda consequência, porém, é importante ou possível de ser antevista. em uma análise de riscos indutivos. Assim, a restrição a consequências não epistêmicas significativas deixa apenas explícito que consequências como fama individual não são interessantes do ponto de vista dos defensores do argumento do risco indutivo, conforme destaca Sandra Mitchell (2004, p. 254). Além disso, os riscos indutivos devem ser pelo menos plausíveis para tornar a definição operacional e também em harmonia com a literatura do PP. De fato, a plausibilidade está presente em uma definição recente do PP (Resnik, 2021, p. 91) e pode ser avaliada por alguns valores cognitivos, como coerência, poder explicativo, analogia, precedência, precisão e simplicidade (Resnik, 2003, p. 339). A possibilidade também poderia ser uma candidata, nesse contexto, mas ela é aqui muito problemática, uma vez que a modalidade possibilidade pode apontar para qualquer direção e, portanto, levaria não apenas a alegações de conhecimento não confiáveis (cf. Hansson, 2011), mas também a medidas precautórias conflitantes.

Finalmente, a construção de “decisões tomadas” visa a permitir tanto decisões motivadas pelo objetivo de proteger o meio ambiente ou a saúde humana quanto decisões que são causalmente afetadas por ele. Se uma decisão for motivada por esse objetivo, ela também será afetada causalmente por ele, contudo, o inverso não é o caso (Ward, 2021). Isso permite aplicações estruturais da precaução epistêmica em que um cientista não está gerindo conscientemente um risco indutivo, mas cuja decisão pode estar em harmonia com ela, como mostram os exemplos de Steel (2015) de fatores de incerteza e do Reach. Ao formular a precaução epistêmica dessa forma, também pode ser evitada uma objeção potencial segundo a qual ela é muito exigente para os cientistas.

Assim definida, a precaução epistêmica abrange várias das normas do Quadro 1 e de uma maneira sensível ao contexto. De fato, ela acomoda muitas normas do momento “fazer ciência”, tais como 2-a (“reconhecer ignorância, incerteza, limites de conhecimento e julgamentos de valor”) e 2-b (“minimizar erros de tipo II”). Um exemplo de tais normas em consonância com a precaução epistêmica seria a abordagem de limites planetários de Steffen et al. (2015), a qual estabelece níveis seguros de perturbação humana para nove processos biofísicos críticos que mantêm o funcionamento do sistema da Terra. Como as incertezas são abundantes e, consequentemente, determinar exatamente onde colocar cada limite pode ser difícil, os autores decidiram: “A aplicação do princípio da precaução determina que o limite planetário seja definido no final ‘seguro’ da zona de incerteza” (Steffen et al., 2015, p. 1259855-2, tradução minha)[11]. Essa escolha está intimamente relacionada à precaução epistêmica, pois considera que, dadas as consequências desse contexto, é moralmente melhor colocar o limite em um nível mais baixo e se arriscar a cometer mais falsos positivos (aceitar que em algum lugar acima do limite é arriscado, quando não é) do que falsos negativos (aceitar que em algum lugar abaixo do limite não é arriscado, quando é). Como frisam os autores, estabelecer o limite dessa forma também estimula decisões rápidas.

Por sua vez, a qualidade da definição proposta de a precaução epistêmica ser contextualmente sensível pode ser observada no exemplo anterior da aprovação de medicamentos. Suponha-se que o medicamento em questão trate doenças brandas para as quais já há outras opções farmacológicas. Nesse contexto, as consequências de um falso positivo (eventual dano aos pacientes, dada a aprovação de um medicamento inseguro e/ou ineficaz) são, do ponto de vista do objetivo de facilitar a proteção da saúde humana, piores que aquelas de um falso negativo (prejuízo financeiro à empresa responsável). Por conseguinte, nessa situação, a precaução epistêmica recomendaria minimizar um falso positivo, contrariando a norma 2-(b) do Quadro 1.

Na mesma perspectiva, a presença de riscos indutivos na comunicação científica também pode ilustrar tal caráter contextual da precaução epistêmica. Embora, em muitos casos, a decisão por comunicar um alerta precoce (3-b), por exemplo, possa ser entendida como uma preferência por falsos positivos, a precaução epistêmica permite uma avaliação do caso em questão, de maneira tal que, em determinadas situações, as consequências de um falso positivo possam ser tais que não facilitam a proteção ao meio ambiente ou à saúde e, então, ela recomendaria uma decisão diferente. Isso pode ser ilustrado não apenas pelos casos claros de alertas precoces infundados, mas também pelos casos de dual-use research, nos quais a comunicação dos potenciais efeitos maléficos da pesquisa (e.g., modificação genética de vírus para aumentar sua transmissibilidade) podem estimulá-los.

Desse modo, a definição proposta de precaução epistêmica evita a carência das definições anteriores. Ela, ademais, unifica várias normas do Quadro 1, de sorte que permite definir parcialmente a ciência precautória, a partir de sua presença. No entanto, a precaução epistêmica não apenas não dá conta de várias normas, dentre as quais aquelas do momento direcionar a ciência, como também levanta três importantes obstáculos: a objeção da objetividade, a objeção da cascata precautória e a objeção da legitimidade política.

 

3 Três importantes objeções

A objeção da objetividade se refere a uma das preocupações mais comuns, quando se defende a presença de valores nos momentos da ciência cobertos pela precaução epistêmica. Ora, o papel de valores, no momento de se avaliar uma hipótese, entra em conflito com o ideal da imparcialidade, ideal segundo o qual apenas valores cognitivos podem ter aí algum papel. Tal ideal constitui, aliás, uma das maneiras de se entender a objetividade científica (cf. Douglas, 2009, p. 115-132). Com efeito, ele visa a impedir que se aceitem hipóteses como verdadeiras apenas porque se quer que elas sejam, casos de pensamento desejoso. Assim, ao recomendar o papel de valores na avaliação de hipóteses, com base na noção de risco indutivo, a precaução epistêmica deve uma explicação de como eles não levam ao pensamento desejoso, minando, por conseguinte, a objetividade científica. Resumidamente, a objeção da objetividade pode ser assim apresentada:

Objeção da objetividade: que papéis os valores da precaução epistêmica devem ter, de modo a resguardar a objetividade científica?

Um segundo obstáculo para a ciência precautória é o efeito cumulativo de decisões que facilitam a proteção do meio ambiente ou da saúde humana, na pesquisa científica, efeito rotulado “cascata precautória”, por Gabriele Contessa (2021, p. 63). De fato, suponha-se que um grupo de pesquisadores avaliem riscos indutivos em harmonia com a precaução epistêmica. Ademais, suponha-se que, em seguida, um painel de avaliação de riscos analise os resultados de tais pesquisadores, também recorrendo à precaução epistêmica. Ora, o efeito combinado de tais decisões semelhantes pode reduzir excessivamente os padrões para se aceitar determinada hipótese. A objeção da cascata precautória afirma, portanto:

Objeção da cascata precautória: como a ciência precautória evita um efeito cumulativo de decisões que preferem errar do lado do meio ambiente ou da saúde humana?

Por fim, a terceira objeção remete ao argumento da legitimidade política, um dos principais argumentos para o ideal da ciência livre de valores (Lusk, 2021). Ele parte da premissa segundo a qual, em uma democracia representativa, decisões políticas não devem ser feitas com base na influência indevida dos valores de apenas algumas pessoas. Mas, se cientistas em cargos de aconselhamento científico utilizam a precaução epistêmica, então, uma importante propriedade de tais formas de democracia é violada. Portanto, a objeção da legitimidade política afirma que:

Objeção da legitimidade política: como conciliar a precaução epistêmica com o princípio de democracias representativas segundo o qual decisões políticas não devem ser feitas com base na influência indevida dos valores de apenas um grupo específico de pessoas em cargos de poder?

Um dos caminhos possíveis para se tentar responder às objeções acima é recorrer à literatura de ciência e valores (Elliott, 2022), intensificando, assim, o diálogo entre ela e a literatura da ciência precautória. Como ainda não há um consenso em torno de quais são as respostas mais adequadas para essas críticas, tal diálogo pode enriquecer ambas as literaturas, seja possibilitando uma fundamentação teórica mais robusta para a ciência precautória, seja fornecendo aos filósofos da ciência uma maior sensibilidade para os casos, normas e objetivo discutidos por ela.

 

Considerações finais

Neste artigo, busquei expor duas contribuições para a literatura da ciência precautória. Em primeiro lugar, sistematizei as normas comuns de seus proponentes, classificando cada uma delas nos distintos momentos da ciência (direcionar a ciência, fazer ciência, usar a ciência e gerir a ciência); ademais, ilustrei tais normas, em função de pesquisas recentes em ciências ambientais. A partir dessa sistematização, identifiquei um elemento recorrente nas normas, a precaução epistêmica, e propus uma definição dela, recorrendo ao conceito de risco indutivo. Mais precisamente, sugeri que decisões que facilitem a proteção do meio ambiente ou da saúde humana devam ser tomadas no momento de gestão de riscos indutivos, com consequências não epistêmicas significativas e plausíveis. Como tal objetivo varia conforme os riscos indutivos de cada pesquisa, tal definição é sensível a contextos diferentes e evita, então, as deficiências de definições anteriores.

A definição apresentada levanta, porém, três objeções que comentei: a objeção da objetividade, a objeção da cascata precautória e a objeção da legitimidade política. Sugeri, enfim, que um diálogo mais intenso entre a literatura de ciência precautória e aquela de ciência e valores possa ser um caminho promissor não apenas para rebater essas críticas, mas também para enriquecer ambas as literaturas e, sobretudo, perseguir o objetivo de uma maior proteção do meio ambiente e da saúde humana.

 

Precautionary science: systematization and a definition proposal of epistemic precaution

Abstract: Advocates of the precautionary principle often defend changes in scientific practices so that they facilitate the same objective as the principle: avoiding uncertain threats to the environment or human health. Science should be precautionary science. Despite the practical importance of precautionary science and its proximity with debates about science and values, it has not yet been systematically examined. In this article, I intend to contribute to the literature on precautionary science in two ways: by systematizing its previous literature, and by defining one of its main elements, epistemic precaution, as a specific orientation for managing inductive risk. I conclude with some objections that such a definition raises, as well as avenues for future research to address them.

 

Keywords: Philosophy of science. Science and values. Precautionary science. Inductive risk.

 

Referências

ALVES, S. Quando estudar agrotóxicos vira caso de perseguição. O Joio e o Trigo, 28 jul. 2022. Disponível em: https://ojoioeotrigo.com.br/2022/07/quando-estudar-agrotoxicos-vira-caso-de-perseguicao/. Acesso em: 7 abr. 2023.

BARRETT, K.; RAFFENSPERGER, C. Precautionary science. In: RAFFENSPERGER, C.; TICKNER, J. (ed.). Protecting Public Health and the Environment: Implementing the Precautionary Principle. Washington: Island, 1999.

BIELLO, D. Mixing It Up. Scientific American (May 1, 2010). Disponível em: http://www.sciam.com/article.cfm?id=mixing-it-up. Acesso em: 18 ago. 2022.

BRAVO, P. Navigating through the Precautionary Principle(s). Kriterion, Belo Horizonte, n. 155, p. 329-348, ago. 2023.

BROWN, D. A. Lessons Learned from IPCC’s Underestimation of Climate Change Impacts About the Need for a Precautionary Climate Change Science. In: WESTRA, L.; BOSSELMANN, K.; FERMEGLIA, M. (ed.). Ecological Integrity in Science and Law. Cham: Springer International, 2020.

BUHL-MORTENSEN, L. Type-II statistical errors in environmental science and the precautionary principle. Marine Pollution Bulletin, v. 32, n. 7, p. 528-531, jul. 1996.

COMISSÃO DAS COMUNIDADES EUROPEIAS. Comunicação da Comissão relativa ao princípio da precaução, 2000, 1 final. Disponível em: https://eur-lex.europa.eu/legalcontent/PT/TXT/PDF/?uri=CELEX:52000DC0001&from=PT. Acesso em: 12 mar 2021.

COMISSÃO MUNDIAL SOBRE A ÉTICA DO CONHECIMENTO CIENTÍFICO E DA TECNOLOGIA (COMEST). The Precautionary Principle. Paris: UNESCO, 2005.

CONTESSA, G. On the mitigation of inductive risk. European Journal for Philosophy of Science, v. 11, n. 3, p. 64, 7 jul. 2021.

CRANOR, C. F. Some Moral Issues in Risk Assessment. Ethics, v. 101, n. 1, p. 123-143, 1990.

CRANOR, C. F. The Social Benefits of Expedited Risk Assessments. Risk Analysis, v. 15, n. 3, p. 353-358, jun. 1995.

CRANOR, C. F. Asymmetric Information, the Precautionary Principle, and Burdens of Proof. In: RAFFENSPERGER, C.; TICKNER, J. (ed.). Protecting Public Health and the Environment: Implementing the Precautionary Principle. Washington: Island, 1999.

CRANOR, C. What Could Precautionary Science Be? Research for Early Warnings and a DOUGLAS, H. Inductive Risk and Values in Science. Philosophy of Science, v. 67, n. 4, p. 559-579, 2000.

DOUGLAS, H. Science, Policy, and the Value-Free Ideal. Pittsburgh: University of Pittsburgh Press, 2009.

DOUGLAS, H. Why Inductive Risk Requires Values in Science. In: ELLIOTT, K. C; STEEL, D. (ed.). Current Controversies in Values and Science. New York: Routledge, 2017.

ELLIOTT, K. C. Ethical and Societal Values in Nanotoxicology. In: GORDIJN, B; CUTTER, A. M. (ed.). In Pursuit of Nanoethics. Dordrecht: Springer Netherlands, 2014.

ELLIOTT, K. C. A Taxonomy of Transparency in Science. Canadian Journal of Philosophy, p. 1-14, 16 jun. 2020.

ELLIOTT, K. C. Values in science. Cambridge: Cambridge University Press, 2022.

FIDLER, F. et al. Impact of Criticism of Null-Hypothesis Significance Testing on Statistical Reporting Practices in Conservation Biology. Conservation Biology, v. 20, n. 5, p. 1539-1544, 2006.

GEE, D. More or less precaution? In: EUROPEAN ENVIRONMENTAL AGENCY. Late lessons from early warnings: science, precaution, innovation. Luxembourg: Publications Office of the European Union, 2013.

GEE, D.; STIRLING, A. Late Lessons from Early Warnings: Improving Science and Governance Under Uncertainty and Ignorance. In: TICKNER, J. A. Precaution: Environmental Science and Preventive Public Policy. Washington: Island, 2003.

GODARD, O. Comment organiser l’expertise scientifique sous l’egide du principe de précaution ? 2003. Disponível em: https://hal.archives-ouvertes.fr/hal-00242984. Acesso em: 3 nov. 2022.

GORDIJN, B.; CUTTER, A. M. (ed.). In Pursuit of Nanoethics. Dordrecht: Springer Netherlands, 2014.

GOULD, K. A. Slowing the nanotechnology treadmill: impact science versus production science for sustainable technological development. Environmental Sociology, v. 1, n. 3, p. 143-151, 3 jul. 2015.

GRANDJEAN, P. Implications of the Precautionary Principle for Primary Prevention and Research. Annual Review of Public Health, v. 25, n. 1, p. 199-223, abr. 2004.

GRANDJEAN, P. Science for precautionary decision-making. In: EUROPEAN ENVIRONMENTAL AGENCY. Late lessons from early warnings: science, precaution, innovation. Luxembourg: Publications Office of the European Union, 2013.

GRANDJEAN, P. et al. The Matthew effect in environmental science publication: A bibliometric analysis of chemical substances in journal articles. Environmental Health, v. 10, n. 1, p. 96, dez. 2011.

GUILLETTE, E. A. The Children of the Yaqui Valley: Precautionary Science and Communities. In: TICKNER, J. A. Precaution: Environmental Science and Preventive Public Policy. Washington: Island, 2003.

HALLERS-TJABBES, C. C. Science Communication and Precautionary Policy: Science and Communities. In: TICKNER, J. A. Precaution: Environmental Science and Preventive Public Policy. Washington: Island, 2003.

HANSEN, S. F.; CARLSEN, L.; TICKNER, J. A. Chemicals regulation and precaution: does REACH really incorporate the precautionary principle. Environmental Science & Policy, v. 10, n. 5, p. 395-404, ago. 2007.

HANSSON, S. O. Adjusting Scientific Practices to the Precautionary Principle. Human and Ecological Risk Assessment: An International Journal, v. 5, n. 5, p. 909-921, 10 ago. 1999.

HANSSON, S. O. Coping with the Unpredictable Effects of Future Technologies. Philosophy & Technology, v. 24, n. 2, p. 137-149, jun. 2011.

HARREMOËS, P. et al. (ed.). Late lessons from early warnings: the precautionary principle 1896–2000, Environmental issue report n. 22. Copenhagen: European Environment Agency, 2001.

HOLMAN, B.; GEISLAR, S. Sex Drugs and Corporate Ventriloquism: How to Evaluate Science Policies Intended to Manage Industry-Funded Bias. Philosophy of Science, v. 85, n. 5, p. 869-881, dez. 2018.

HØYER, K. Precautionary Science: The ecophilosophical foundation. In: BHASKAR, R.; HØYER, K. G.; NÆSS, P. Ecophilosophy in a World of Crisis: Critical realism and the Nordic Contributions. London: Routledge, 2011.

JOHN, S. In Defense of Bad Science and Irrational Policies: an Alternative Account of the Precautionary Principle. Ethical Theory and Moral Practice, v. 13, n. 1, p. 3-18, fev. 2010.

JOHN, S. The Politics of Certainty: The Precautionary Principle, Inductive Risk and Procedural Fairness. Ethics, Policy & Environment, v. 22, n. 1, p. 21-33, 2019.

KAISER, M. Unpopular and Precautionary Science: towards a new ethics of science. In: CHIARA, M. L. D. et al. Structures and Norms in Science. Springer: Dordrecht, 1997.

KRIEBEL, D. et al. The precautionary principle in environmental science. Environmental Health Perspectives, v. 109, n. 9, p. 6, 2001.

KRIMSKY, S. Glyphosate-Based Herbicides and Public Health: Making Sense of the Science. Journal of Agricultural and Environmental Ethics, v. 35, n. 1, p. 3, 2022.

LACEY, H. On the aims and responsibilities of science. Principia, v. 11, n. 1, 2007.

LACEY, H. Tecnociência comercialmente orientada ou investigação multiestratégica? Scientiæ Studia, São Paulo, v. 12, n. 4, p. 669-95, 2014.

LEMONS, J. et al. The Precautionary Principle: Scientific Uncertainty and Type I and Type II Errors. Foundations of Science, v. 2, n. 2, p. 207-236, 1997.

LERNER, S. EPA withheld reports of substantial risk posed by 1,240 chemicals. The Intercept. 2021. Disponível em: https://theintercept.com/2021/11/01/epa-toxic-chemicals-reports-withheld/. Acesso em: 27 out 2022.

LOWELL STATEMENT ON SCIENCE AND THE PRECAUTIONARY PRINCIPLE. In: TICKNER, J. A. Precaution: Environmental Science and Preventive Public Policy. Washington: Island, 2003.

LUJÁN, J. L.; TODT, O. Ciencia precautoria y la “fabricación de incertidumbre”. Theoria, v. 23, n. 3, p. 307-317, 25 nov. 2008.

LUSK, G. Does democracy require value-neutral science? Analyzing the legitimacy of scientific information in the political sphere. Studies in History and Philosophy of Science -Part A, v. 90, p. 102-110, dez. 2021.

MAYER, S.; WYNNE, B. How Science Fails the Environment. New Scientist, v. 1876, 1993.

MILLER, B. When Is Scientific Dissent Epistemically Inappropriate? Philosophy of Science, v. 88, n. 5, p. 918-928, dez. 2021.

MITCHELL, S. The Prescribed and Proscribed Values in Science Policy. In: MACHAMER, P.; WOLTERS, G. (ed.). Science, Values and Objectivity. Pittsburgh: University of Pittsburgh Press, 2004.

MOCELLIN, R. C.; ZATERKA, L. Materials and their Biographies: The Case of Titanium and its Dioxide. Transversal: International Journal for the Historiography of Science, n. 13, 2022.

MYHR, A. I.; TRAAVIK, T. Genetically Modified (GM) Crops: Precautionary Science and Conflicts of Interests. Journal of Agricultural and Environmental Ethics, v. 16, p. 227–247, 2003.

RAVETZ, J. The post-normal science of precaution. Futures, v. 36, n. 3, p. 347-357, abr. 2004.

RECHNITZER, T. Precautionary principles. In: The Internet Encyclopedia of Philosophy, ISSN 2161-0002. 2020. Disponível em: https://www.iep.utm.edu/pre-caut/. Acesso em: 12 mar. 2022.

RESNIK, D. B. Is the precautionary principle unscientific? Studies in History and Philosophy of Science - Part C: Studies in History and Philosophy of Biological and Biomedical Sciences, v. 34, n. 2, p. 329-344, 1 jun. 2003.

RESNIK, D. B. Precautionary Reasoning in Environmental and Public Health Policy. Cham: Springer International, 2021.

SIMMONDS, M.; JOHNSTON, P. Talking Point: Green light for precautionary science. New Scientist, v. 1780, 1991.

SISMONDO, S. Ghost-managed medicine: Big Pharma’s invisible hands. 1. ed. Manchester: Mattering, 2018.

STEEL, D. Philosophy and the Precautionary Principle: Science, Evidence, and Environmental Policy. Cambridge: Cambridge University Press, 2015.

STEGENGA, J. Drug Regulation and the Inductive Risk Calculus. In: ELLIOTT, K. C.; RICHARDS, T. (ed.). Exploring Inductive Risk: Case Studies of Values in Science. Oxford: Oxford University Press, 2017.

SURYANARAYANAM, S.; KLEINMAN, D. L. Vanishing Bees: Science, Politics, and Honeybee Health. New Brunswick: Rutdgers University Press, 2017.

TAYLOR, B. L. et al. Lessons from Monitoring Trends in Abundance of Marine Mammals. Marine Mammal Science, v. 23, n. 1, p. 157-175, 2007.

TICKNER, J. A. Better Future. In: TICKNER, J. A. Precaution: Environmental Science and Preventive Public Policy. Washington: Island, 2003.

TICKNER, J. A. Commentary: Barriers and Opportunities to Changing the Research Agenda to Support Precaution and Primary Prevention. Human and Ecological Risk Assessment: An International Journal, v. 11, n. 1, p. 221-234, 23 fev. 2005.

TICKNER, J.; KRIEBEL, D. The role of science and precaution in environmental and public health policy. In: FISHER, E.; JONES, J.; VON SCHOMBERG, R (ed.). Implementing the Precautionary Principle: Perspectives and Prospects. Northampton: Edward Elgar, 2006.

WARD, Z. B. On value-laden science. Studies in History and Philosophy of Science - Part A, v. 85, p. 54-62, fev. 2021.

 

Recebido: 23/11/2023 – Aprovado 16/02/2024 – Publicado: 15/05/2024



[1] Doutor em Filosofia pela Universidade de São Paulo (USP), São Paulo, SP – Brasil. Foi bolsista – Processo nº 2019/10200-3, Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP), São Paulo, SP – Brasil. ORCID: https://orcid.org/0000-0002-3991-1931. E-mail: bravopedro.br@gmail.com.

[2] No original, “[...] actually increases the rigor of the scientific process because it is based on an understanding of the real limitations of science”.

[3] Nos originais: “[...] toward which science might strive in an effort to better address complex environmental and health issues in a manner consistent with the Precautionary Principle”;[...] scientific research might be modified to serve more precautionary aims and thus better protect human health and the environment”;[...] environmental research in support of PP-based decision-making would involve stake-holders and therefore become Participatory [...], Accessible, Transparent, Inventive and Open-minded”.

[4] No original: “[...] how scientists should treat one another and those around them as they perform their research.

[5] Cf. Barrett e Raffensperger (1999, p. 109); Comest (2005, p. 35); Kaiser (1997, p. 201); Kriebel et al. (2001, p. 874); Lemons et al. (1997, p. 234); Lowell (2001); Mayer; Wynne (1993); e Whisteside (2006, p. 116).

[6] No original: “[...] conventional statistical tests are based on criteria that run counter to the Precautionary Principle”.

[7] No original: “Reflecting the norms of their profession and career structure, these scientists are focused on isolating individual factors and prefer false negative to false positive results. By contrast, the livelihood concerns of beekeepers prompt them to prefer false positive results that could, for example, lead the government to inappropriately remove certain insecticides from the market. Many beekeepers’ views about the sublethal effects of these insecticides and their interaction with other environmental conditions are shaped by careful field observations. Their study may be systematic, but it lacks the precise controls entomologists demand, and while not all scientists reject the position of these beekeepers out of hand, they have little incentive to develop experimental designs that capture the complexity in ways that the beekeepers perceive”.

[8] Como o próprio John reconhece que a abordagem de Steel é mais desenvolvida e complementar à sua, eu me focarei apenas na proposta de Steel.

[9] No original: “[…] uncertainty should not be a reason for inaction in the face of serious environmental [or human health] threats”.

[10] No original: “The argument from inductive risk asserts that ethical value judgments about the severity of errors should influence decisions about what should count as sufficient evidence for accepting a claim. In effect, a pre-market approach makes toxicity the default assumption for chemicals. The obligation, therefore, is on the users and producers of the chemical to provide evidence that this default assumption is false and that the chemical can be safely used. But what one treats as the default assumption reflects a judgment about the relative costs of opposite possible errors. Thus, REACH is motivated by the judgment that it is normally better to delay the commercialization of a safe chemical than to belatedly discover that a chemical already in widespread use is seriously harmful”.

[11] No original: "Application of the precautionary principle dictates that the planetary boundary is set at the 'safe' end of the zone of uncertainty".