segunda-feira, 25 de junho de 2012

Patrick Brito X Kauê Costa - Popper, Lakatos, Feyerabend e Kuhn


  1. KARL POPPER

    Para Karl Popper, científica é a teoria que, partindo de alguns postulados simples, possibilita uma explicação eficaz para um determinado problema e faz previsões passivas de verificação. Nesse sentido, uma teoria somente será científica caso seja falseável, isto é, sujeita à refutação. Popper faz uma analogia entre a história da ciência com a seleção natural em seu livro "Objective Knowledge":

    "Nosso conhecimento consiste, em cada momento, daquelas hipóteses que mostram sua (relativa) adaptação, por terem até então sobrevivido em sua luta pela existência, uma luta competitiva que elimina as hipóteses não-adaptadas."

    O sucesso do falseacionismo popperiano se deve ao fato de substituir o empirismo justificacionista e indutivista pelo empirismo não-justificacionista e não-indutivista. O problema do empirismo justificacionista e indutivista seria, objetivando teorizar a natureza a partir de observações, como justificar a regularidade da natureza. Sempre observar cisnes brancos não anula a possibilidade de se observar, no futuro, um cisne preto. Esse problema era considerado um entrave insuperável para o desenvolvimento científico. Popper argumenta que o problema não era somente a impossibilidade de se justificar a regularidade da natureza, mas exigir que uma teoria científica, obrigatoriamente, deve partir de um número tão grande de observações, feitas das mais variadas formas, de modo a eliminar qualquer observação futura contrária à teoria. Para Popper, nunca poderemos assegurar que uma observação futura contrariará uma teoria, visto o número incontável de maneiras diferentes de se fazer uma observação. Nesse contexto, nunca partiremos de uma observação, mas de um problema, como argumentou Popper, novamente, em seu livro "Objective Knowledge":

    "Acredito que a teoria - pelo menos alguma expectativa ou teoria rudimentar - sempre vem primeiro, sempre precede a observação; e que o papel fundamental das observações e testes experimentais é mostrar que algumas de nossas teorias são falsas, estimulando-nos assim a produzir teorias melhores. Conseguintemente, digo que não partimos de observações, mas sempre de problemas - seja de problemas práticos ou de uma teoria que tenha topado com dificuldades."

    Historicamente, Popper está certo quando argumenta que uma teoria científica sempre partirá de um problema. A Teoria da Relatividade, por exemplo, partiu do problema da incompatibilidade entre a lei da propagação da luz no vácuo de James Maxwell e o Princípio da Relatividade. A teoria de Max Planck de que a energia era emitida em pacotes discretos denominados "quanta" partiu do problema da descontinuidade do espectro de absorção e emissão da radiação de corpos negros. Uma série de outros exemplos são encontrados na história da ciência. Mas tem uma objeção no falseacionismo popperiano que não é encontrada na história da ciência, aliás, seria desastrosa caso fosse. Refiro-me à obsessão de Popper com a falseação. Algumas passagens de seus livros reforçam o que eu digo:

    "Tenha por ambição refutar e substituir suas próprias teorias." (Objective Knowledge)

    "Todo teste genuíno de uma teoria é uma tentativa de falseá-la ou refutá-la". (Conjectures and Refutations)

    "Observações e experimentos funcionam na ciência como testes de nossas conjecturas ou hipóteses, i.e., como tentativas de refutação." Conjectures and Refutations)
    ResponderExcluir
  2. Por que digo que essa obsessão com a refutação teria sido desastrosa na história da ciência? Primeiro, nenhum cientista, quando cria uma teoria, tem o objetivo de refutá-la; ao contrário, o objetivo é sempre confirmá-la. Segundo, historicamente, se toda vez que uma observação contrariasse uma determinada teoria, ela fosse abandonada, nem mesmo as duas revoluções industriais europeias teriam sido possíveis. Tudo o que foi desenvolvido em tecnologia nas duas revoluções industriais europeias somente foi possível graças ao sucesso da mecânica newtoniana. Ocorre que se o falseacionismo popperiano fosse contemporâneo de Newton, a mecânica newtoniana deveria ter sido abandonada antes mesmo de Newton ser nomeado Sir, visto que tanto o movimento da Lua e de Urano quanto o periélio de Mercúrio contrariavam a mecânica newtoniana. E o prejuízo de se abandonar a mecânica newtoniana na época teria sido incalculável para a humanidade. O problema com o movimento da Lua somente seria superado no século XVIII quando se descobriu que o que estava incorreto não era a mecânica newtoniana, mas o modo como se calculava a trajetória da Lua. O movimento de Urano somente seria superado no século XIX com a suposição de que um planeta hipotético estaria alterando gravitacionalmente a trajetória de Urano. Esse planeta foi descoberto no mesmo século e foi denominado Netuno. Já o problema do periélio de Mercúrio somente seria superado em 1915 com a publicação da Teoria da Relatividade Geral de Einstein e a substituição da mecânica clássica pela mecânica relativística. Percebe-se que, ao final, Popper está certo. Mas, historicamente, o falseacionismo teria sido desastroso ao exigir o abandono precoce não somente da mecânica newtoniana, mas também de teorias importantíssimas como a lei das proporções constantes de Proust e até a teoria heliocêntrica de Copérnico. Por isso, ao propor o falseacionismo, para mim, Popper pressupõe que estamos em uma época segura o suficiente para abandonarmos sem qualquer remorso toda teoria que seja contrariada por uma observação, não importando quantas observações a confirmem.

    Um segundo problema do falseacionismo popperiano é apontado por Duhem-Quine. Para exemplificar, denominemos de L1, L2, L3 as três leis de Newton da mecânica e de G a lei da gravitação universal. Denominemos, ainda, de O1, O2, O3, ..., O n-ésima as leis da óptica. Com um telescópio, realizamos uma observação da órbita de um corpo celeste que contraria a mecânica newtoniana. Segundo o falseacionismo popperiano, deveríamos abandonar a mecânica newtoniana. Mas que motivos eu tenho para concluir que é a mecânica newtoniana que está incorreta e não as leis da óptica já que estamos usando um telescópio para fazer a observação? Segundo Duhem-Quine, nenhum motivo! Mesmo que as leis da óptica estejam mesmo corretas, a mecânica newtoniana é composta por muitas outras leis e não há como sabermos se todas ou uma delas está incorreta. Logo, em face de uma observação contrária, o número de leis principais e secundárias a serem avaliadas é relevante demais para rapidamente abandonarmos a teoria que queríamos confirmar. Nesse caso hipotético, temos em xeque não a mecânica newtoniana, mas L1, L2, L3, G, O1, O2, O3, ..., O n-ésima e todas as leis adjacentes.
    ResponderExcluir
  3. IMRE LAKATOS

    Melhor que Popper, é Lakatos. A proposta de um programa de pesquisa lakatosiano é muito mais próximo da realidade e da historicidade da ciência do que o falseacionismo popperiano. O programa de pesquisa lakatosiano se divide em heurística negativa e heurística positiva. Dentro da heurística negativa, uma teoria deve conter um corpo rígido (hard core) que seja constituído pelos postulados básicos da teoria. Esse corpo rígido deve estar imune a qualquer tentativa de refutação por um cinturão protetor. O cinturão protetor será, então, constituído de hipóteses auxiliares cujo objetivo é evitar que os postulados básicos do corpo rígido sejam refutados. Logo, apenas as hipóteses auxiliares estariam sujeitas à refutação. Dentro da heurística positiva, são determinados os critérios que nortearão de que modo as hipóteses auxiliares do cinturão protetor serão propostas. Nesse sentido, os programas de pesquisa são classificados em progressivos ou degenerantes. Progressivos são aqueles que conseguem, de modo satisfatório, resistir às possíveis refutações e oferecer explicações plausíveis para o fenômeno que assim objetivam. Já degenerantes são aqueles programas que não conseguem sobreviver às mais importantes refutações. Nesse contexto, o lakatosianismo é muito mais eficiente que o indutivismo e o falseacionismo. O critério indutivista é forte demais: para ele, nenhuma teoria é genuinamente científica, pois nenhuma teoria pode ser confirmada por todas as possíveis observações. O falseacionismo popperiano elimina demais: como nenhuma teoria pode ser rigoramente falseada, também nenhuma teoria é genuinamente científica. Já para o lakatosianismo, uma teoria para ser científica deve estar dentro de um programa de pesquisa, e este programa de pesquisa deve ser progressivo. Historicamente, é o que mais se aproxima da ciência. Propor, por exemplo, que um planeta hipotético deveria estar orbitando nas circunvizinhanças de Urano nada mais foi do que uma hipótese auxiliar para proteger o corpo rígido da mecânica newtoniana (as três Leis de Newton e a lei da gravitação universal). Já quando nem mesmo com o cinturão protetor o programa de pesquisa deixa de ser degenerante, a teoria é abandonada e substituída. Nesse caso, desde que exista uma teoria melhor. A impossibilidade evidente da mecânica newtoniana de explicar o periélio de Mercúrio foi decisiva para a sua substituição pela Relatividade Geral de Einstein, mas somente quando a Relatividade Geral foi publicada (1915), caso contrário, ter abandonado toda a mecânica newtoniana ainda no século XVII, teria sido um desastre que impossibilitaria as duas revoluções industriais europeias e todo o desenvolvimento tecnológico humano.
    ResponderExcluir
  4. Correção: troque "corpo rígido" por "núcleo rígido".
    ResponderExcluir
  5. Considerações iniciais
    Bom Patrick, partimos de um ótimo começo. Tenho uma interpretação levemente diferente da sua a respeito da importância relativa do Falsificacionismo Popperiano no desenvolvimento do método científico moderno. A proposta de falseabilidade de Popper, em seu contexto histórico, serviu para refutar o principio do probabilismo indutivista, que afirmava que a separação de uma teoria cientifica de uma não-científica era a probabilidade matemática dela estar correta face às evidências disponíveis. Além do óbvio problema metodológico relacionado ao cálculo dessa “probabilidade”, o probabilismo falha como um método de verificação de regularidade, tal qual foi exemplificado por Popper no exemplo dos cisnes de diferentes cores e que você abordou com sucesso. Desse contexto surge então o problema de se vincular e conciliar a criação de explicações fenomenológicas concisas (teoria) com evidências empíricas. Posto de outra forma, se um número infinito de evidências não é capaz de confirmar uma teoria e, portanto, todas as teorias são igualmente improváveis, como seria possível separar ciência de pseudociência? O princípio da falseabilidade de Popper resolve esse problema de forma perfeitamente elegante, ao anular a necessidade de “confirmações” e focando a definição de teoria científica à proposição de hipóteses falseáveis. Esse princípio, no seu cerne, fora pouquíssimo questionado e é de insubstituível importância para a ciência contemporânea.
    Nesse ponto, preciso apontar um equívoco seu ao afirmar que “nenhum cientista, quando cria uma teoria, tem o objetivo de refutá-la; ao contrário, o objetivo é sempre confirmá-la”. Na ciência contemporânea, praticamente todos os experimentos, observações e teorias são fundamentados em análises estatísticas (ANOVA, Teste T, Qui-quadrado, etc.) que visam exatamente analisar se os corpos de dados a serem comparados são diferentes entre si (geralmente a hipótese inicial do investigador, ou H1) ou não (hipótese nula, ou H0), i.e. se os resultados obtidos falsificam ou não sua hipótese inicial (Senn 1991). Por mais que psicologicamente um cientista possa ser influenciado pelo desejo de confirmar sua ideia, do ponto de vista prático e matemático ele analisa seus resultados sempre baseado no princípio da falseabilidade. Inclusive, a adoção de métodos estatísticos em praticamente todos os campos da ciência, da física, à medicina até as ciências sociais, ocorreu principalmente pela influência do Falsificacionismo, e com excelentes resultados práticos (Senn 1991).
    ResponderExcluir
  6. Dessa forma, não interpreto o foco na falseabilidade como uma “obsessão” de Popper, mas sim como um destacamento de um princípio crucial e central ao entendimento atual de método científico. No capítulo 4 do The Logic of Scientific Discovery, o próprio Popper deixa claro que o Falsificacionismo não deve ser interpretado como um fator absoluto na definição histórica do valor de cada teoria científica, mas sim como uma ferramenta metodológica de amplo espectro (Popper 2002). Um dos exemplos dessa interpretação pode ser visto na crítica de Popper à Teoria da evolução Darwiniana, que ele considera como não sendo uma teoria científica, mas sim um “programa de pesquisa metafísica”. No entanto, em suas próprias palavras, Popper afirma que:
    “(...) essa teoria (Darwinismo) tem um valor incalculável. Eu não consigo ver como que na sua ausência o nosso conhecimento teria crescido tanto como cresceu desde Darwin. (...) Apesar de metafísica, ela ilumina muito várias pesquisas muito concretas e práticas” (Popper 1982).
    Dessa forma, mesmo considerando o Darwinismo uma tautologia, Popper reitera a importância prática da teoria para o avanço científico, o que certamente me parece contrário à sua interpretação dele como um “obsecado” pela falseabilidade. É importante lembrar que no The Logic of Scientific Discovery ele faz comentários semelhantes em relação à importância histórica do indutivismo lógico, o que reforça a mensagem dele que a falseabilidade é um método epistemológico, e não deve ser interpretado de forma autoritária ou absolutista.
    Minha interpretação é de que as discordâncias entre os filósofos discutidos nesse debate advêm de dois principais conflitos: 1) a diferença entre o que cientistas fazem e o que eles deveriam fazer, e 2) a natureza prática das evidências. Popper aborda esses dois conflitos de forma extremamente teórica (alguns críticos dizem até “ingênua”); realmente, ele quase sempre discute o princípio da falseabilidade como uma metodologia ubíqua, ignorando se ela ou não seguida de fato, e considera as evidências como sendo, por definição, consistentes e absolutas. Nesse contexto, Thomas Kuhn avançou a definição de método científico ao conciliar aspectos psicológicos, históricos e sociológicos com a epistemologia científica. Acredito que agora posso introduzi-lo ao debate.

    Thomas Kuhn
    Em The Structure of Scientific Revolutions, Kuhn expõe uma visão de epistemologia e avanço científico que, embora não entre diretamente em embate com o Falsificacionismo, parte de uma base filosófica quase que diametralmente oposta. Ao invés de partir da lógica da produção de conhecimento para definir um método de investigação, Kuhn parte de uma análise histórica e sociológica da prática real da ciência, e a partir daí ele constrói uma teoria de produção de conhecimento. Segundo Kuhn, o progresso científico é constituído por períodos de produção de ciência normal, definida pela obediência às regras de um paradigma dominante, intercalados com períodos de crise e revolução, que culminam com a substituição do paradigma antigo por um novo. Esses últimos períodos são deflagrados face à incapacidade do paradigma atual de explicar novos fenômenos ou atender os anseios da comunidade, o que gera as chamadas crises de paradigma. Durante as crises, a comunidade científica de um determinado campo do conhecimento se polariza entre os defensores do paradigma antigo (geralmente pesquisadores mais antigos e com mais status) e defensores de um ou mais novos paradigmas (geralmente pesquisadores mais novos e com menos posição). A transição de um paradigma para outro é, quase sempre, lenta e árdua, devido à resistência da comunidade em aceitar os novos preceitos, mesmo em face de evidências inequívocas e teorias lógicas e concisas, até os limites da irracionalidade. A regra histórica é que se precisa de pelo menos uma geração para que um paradigma seja substituído.
    ResponderExcluir
  7. Segundo Kuhn (e esse é um ponto no qual eu discordo dele) essa resistência da comunidade a novos paradigmas não é um detrimento ao progresso científico, mas sim um fator essencial à validação do conhecimento. Ele afirma que a estrutura de revoluções científicas se fundamenta principalmente no poder de convencimento dos defensores do novo paradigma. Inclusive, segundo Kuhn o novo paradigma não precisa sequer explicar mais fenômenos ou ser mais acurado que o paradigma antigo. Fatores como consistência lógica e dados empíricos ajudam a persuasão da comunidade, mas não são os únicos. Fatores como a estrutura social e estética argumentativa podem ter o mesmo peso que elementos geralmente entendidos como “científicos”.
    Eu discordo veementemente das ideias de Kuhn sobre essa definição: em minha opinião as barreiras psicológicas e sociais da comunidade científica devem ser identificadas e otimizadas de forma a diminuir a subjetividade e as noções de autoritarismo inerentes a organizações sociais humanas. Eu reconheço que Popper fora muito idealista, mas não é porque algo acontece de uma determinada forma que ele deveria acontecer dessa forma. A análise Kuhniana é extremamente útil na identificação de barreiras à adoção de novos conhecimentos, porém é preciso dar um passo além e utilizar essa identificação para o desenvolvimento de estratégias institucionais e culturais que diminuam a influência de fatores irracionais na análise de teorias científicas.
    Nesse ponto, concordo com você Patrick que a síntese de Lakatos é extremamente feliz. Em suas obras Objective Knowledge, History of Science and Its Rational Reconstructions e The Methodology of Scientific Research Programmes, ele concilia a prática científica real e o Falsificacionismo Popperiano através da análise da real natureza das evidências científicas. Ao contrário de Popper, Lakatos reconhece explicitamente que pouquíssimas são as observações ou os experimentos que são capazes de refutar completamente uma teoria previamente estabelecida. Isso ocorre devido a limitações metodológicas, à variabilidade natural e a diversos outros elementos inerentes a qualquer forma de evidência empírica. O conceito de programas de pesquisa, portanto, explica a estrutura revolucionária descrita por Kuhn não como uma característica humana, mas como parte da lógica de avaliação de evidências dentro de um contexto histórico e baseado no princípio do falsificacionismo, já que as hipóteses auxiliares ao núcleo rígido são submetidas a sucessivas tentativas de “falseabilidade” e o progresso ou degeneração de diferentes programas (um termo que em vários aspectos se assemelha ao conceito de paradigma Kuhniano, com exceção da implicação de autoridade), que é definido pelo sucesso do programa em resistir as tentativas de refutação, determinaria a estrutura de revoluções científicas. A necessidade de se estabelecer múltiplas hipóteses auxiliares, produzir diversas evidências congruentes e analisar os programas de pesquisa em um contexto histórico são justificadas pela natureza incompleta das evidências em que os mesmos se sustentam.
    Deixo para você a introdução à Feyrabend. Pela a sua exaltação de Lakatos, imagino que sua opinião dele não deve ser das melhores; acho que nesse ponto também concordaremos.
    ResponderExcluir
  8. Caro duelista, o meu objetivo com esse duelo é o debate honesto de uma área tão fascinante como a filosofia da ciência. Eu confesso que fiquei um pouco surpreso com a forma como Karl Popper discorre sobre a questão do falseacionismo. Talvez eu não tenha refletido o bastante sobre não somente a importância, mas a revolução que o falseacionismo representou em face do indutivismo. Tínhamos um problema insuperável ao limitar o que é científico no número de confirmações da teoria. Como o número de formas de se variar as condições de um ou mais experimentos confirmativos é infinito, nenhuma teoria seria genuinamente científica. O falseacionismo, ao contrário, diz que científica não é a teoria que foi confirmada por muitos experimentos, mas aquela que ainda não foi falseada. Retirar a obrigação do que é científico da "confirmação" e passar para a "refutação" foi uma revolução sem precedentes no método científico, uma vez que uma única experiência discordante é suficiente para falsear a teoria. Você me convenceu. É a primeira vez que alguém me convence ainda durante o duelo do que está dizendo. Realmente não refleti o bastante sobre os desdobramentos da proposta popperiana. Assim como eu, você concorda que o falseacionismo, ainda assim, não é suficiente. Como nenhuma teoria pode ser rigorosamente falseada, precisamos definir um programa de pesquisa lakatosiano. Se uma teoria entra em xeque, o seu núcleo rígido é protegido pelas hipóteses auxiliares do cinturão protetor. E isso está em completo acordo com a história da ciência. Na física, que é a minha área, toda vez que uma teoria foi demonstrada não-geral, seja por observações discordantes, seja por incompatibilidade com outra teoria de igual ou maior sucesso na explicação dos fênomenos físicos, hipóteses auxiliares eram adicionadas a fim de proteger o núcleo rígido da teoria. Todavia, se mesmo com o cinturão protetor, a teoria permanecia degenerante, uma nova teoria era proposta. Acredito que na biologia e na medicina, áreas suas, não seja diferente. É importante esclarecer que o lakatosianismo não foi uma contra-proposta ao falseacionismo, mas uma extensão dele de modo a aliar o Princípio da Falseabilidade de Popper à realidade do desenvolvimento científico.
    ResponderExcluir
  9. Em relação ao Thomas Kuhn, gostaria de discorrer brevemente sobre as duas grandes revoluções científicas do início do século XX para exemplificar as minhas críticas a ele. No final do século XIX, William Thomson, o Lord Kelvin, disse que a física estava quase concluída, faltando apenas o refinamento de algumas medidas e a resolução de duas nuvens que pairavam sobre o céu da física. Uma dessas nuvens era a descontinuidade do espectro de absorção e emissão de elementos químicos, como o hidrogênio. A outra nuvem era a impossibilidade de se determinar a velocidade da Terra através do éter. A resolução da primeira nuvem veio com Max Planck, em 1900, ao propor que a luz, e as demais radiações eletromagnéticas, era emitida em pacotes discretos ("quanta", em latim) de energia E = hf cada um, onde f é a frequência da onda eletromagnética e h a Constante de Planck. Essa proposta foi rapidamente aceita pela comunidade científica, pois resolvia com estrondoso sucesso o problema da radiação de corpos negros, tornando Planck um dos mais notórios físicos desde Isaac Newton. Albert Einstein, em 1905, valendo-se da proposta de Planck de que a energia era quantizada, publicou um artigo explicando o efeito fotoelétrico (descoberto em 1889 por Heinrich Hertz) admitindo, para isso, o caráter corpuscular da luz. Desses dois artigos, Niels Bohr publicaria, em 1913, a ideia de órbitas eletrônicas estáveis. Em 1924, Louis de Broglie publicaria o seu artigo com a ideia de dualidade onda-partícula. Daí, seguiu-se Werner Heisenberg, Erwin Schrödinger, etc. Já a impossibilidade de se determinar a velocidade da Terra através do éter, que nada mais foi do que uma hipótese auxiliar para proteger o núcleo rígido da relatividade galileana (Teorema da Adição de Velocidades), seria somente resolvida com a eliminação do éter, visto que a teoria era degenerante, e a sua substituição pela Teoria da Relatividade Restrita de Einstein, em 1905. Por isso, eu também concordo com você que o desenvolvimento da ciência, tal como a condução de uma revolução científica, deve estar pautado não na influência ou na autoridade das instituições ou reuniões científicas (como a Royal Society e a Conferência de Solvay), mas no sucesso do novo paradigma em explicar o que o velho falhou. Historicamente, na verdade, é exatamente isso o que tem ocorrido nos últimos séculos de desenvolvimento científico, pelo menos na física. A condição de plebeu de Michael Faraday não foi suficiente para Humphry Davy impedi-lo de ser admitido na Royal Institution. E o sucesso de um novo paradigma, mesmo sendo liderado por uma nova geração de cientistas, é suficiente para que a geração anterior o aceite, ainda assim, pelo menos em física.
    ResponderExcluir
  10. Como o limite entre cada uma das participações é de 3 postagens, gostaria de tecer as principais críticas a Paul Feyerabend somente na tréplica. São tantas as minhas objeções à sua obra "Against Method" que serão necessárias 3 postagens. Ainda assim, gostaria de, ao menos, introduzi-lo ao debate. O que Feyerabend fez foi analisar a ciência do ponto de vista histórico para, então, argumentar que as grandes revoluções científicas somente foram possíveis devido à ausência de um único método. Desse modo, seria contraproducente exigir da comunidade científica a adoção de um único método ao invés de um pluralismo metodológico. Sobre isso, 2 objeções. Primeiro, a análise de Paul Feyerabend é do período em que a ciência surgia. A filosofia natural, fundamentada no método aristotélico, ia, pouco a pouco, sendo substituída pelo método científico galileano, a ciência propriamente dita. E como um ser vivo, pouco a pouco, ia se desenvolvendo, acertando de um lado, errando de outro. Mas somente os trabalhos identificados com o que Lakatos, séculos depois, formalizou, tiveram sucesso em face dos tropeços de uma ciência ainda muito jovem. O sucesso prático, principalmente da física, da química e da biologia, exigiram uma padronização com uma teorização sobre o método a ser seguido em ciência que culminou no surgimento da filosofia da ciência. Da impossibilidade do indutivismo de separar ciência de pseudo-ciência, como você já disse, foi proposto o falseacionismo. Da análise histórica das mais importantes teorias da história da ciência, Lakatos criou um programa de pesquisa a ser seguido. E, de fato, as teorias que mais contribuíram para o desenvolvimento da ciência, foram teorias que, embora não conscientemente, obedeceram, de uma forma ou de outra, um programa de pesquisa que mais tarde seria formalizado por Lakatos. O que eu vejo, historicamente, é que, embora existisse um pluralismo metodológico, apenas aquelas teorias identificadas com o que mais tarde seria conhecido como um programa de pesquisa lakatosiano, tiveram sucesso. Foi assim com Nicolau Copérnico, Johannes Kepler e Isaac Newton. Além disso (essa é a segunda objeção), um dadaísmo metodológico inviabilizaria toda e qualquer cooperação internacional em determinada pesquisa, pois se cada um usar o método que desejar, ninguém entenderá um ao outro. Isso me lembra o renascimento comercial europeu, quando cada país tinha uma tabela diferente de conversão de medidas, prejudicando a troca comercial entre os países. Disso, fez-se fundamental a padronização com a adoção de uma tabela de conversão de medidas comum entre os países que trocavam mercadorias. Por isso, o pluralismo metodológico vai contra a ideia de unidade na ciência.
    ResponderExcluir
  11. Réplica

    Caro Patrick, estou muito feliz que estamos chegando a uma opinião semelhante. Esse debate tem sido muito profícuo para mim também.

    Sobre a questão do autoritarismo e da estrutura Kuhniana das revoluções científicas, concordo com você que as revoluções ocorridas na física no início do século XXI foram exemplares em termos de boa prática científica. No entanto, essas revoluções foram um caso sui-generes na história da ciência, e não podem ser consideradas representativas da estrutura do progresso científico como um todo. Em ambos os casos que você citou, um fator determinante para a objetiva consideração das evidências foi o fato de que ideias em antagonismo ao paradigma vigente foram rapidamente adotadas por cientistas visionários influentes e com autoridade para se opor a resistência de outros membros da comunidade. No caso da revolução da física quântica, por exemplo, ouve o fator notório da forte de resistência de Einstein aos preceitos da mecânica quântica probabilística, em particular ao princípio da incerteza de Heisenberg, mesmo com a grande quantidade de evidências experimentais a favor dessa interpretação. A mecânica quântica só continuou avançando porque Niels Bohr defendeu seu ex-aluno (Heisenberg), inclusive avançando suas ideias com a proposição da interpretação de Copenhagen. Nesse contexto, a mecânica quântica pode continuar ganhando adeptos mesmo com a resistência de grande parte da comunidade. Talvez o avanço científico da época não fosse o mesmo caso Heisenberg tivesse sido deixado para defender sozinho sua teoria, ou se ele não tivesse sido ex-aluno de Bohr. Uma boa análise das questões políticas por trás da revolução da física quântica do inicio do século XX pode ser encontrado no livro The Making of the Atom Bomb, por Richard Rhodes (2008). Esse livro rendeu o Prêmio Pullitzer ao autor e é simplesmente espetacular; recomendo-o a todos.

    Talvez o caso histórico mais triste e impactante de como o autoritarismo restringe o progresso científico foi a rejeição de Ignaz Semmelweiz no começo da revolução da microbiologia, ocorrida no começo do século XIX. Semmelweiz era um médico húngaro especializado em obstetrícia que clinicava no Hospital Geral de Vienna e 1846. Na época, o principal problema na prática obstétrica era a chamada febre puerperal, uma doença infecciosa que quase sempre resultava na morte da mãe e do recém-nascido. Era conhecido que partos realizados por médicos (todos homens e graduados) resultavam em consideravelmente mais mortes por febre puerperal (10% de mortalidade média) do que partos realizados por parteiras (mulheres, geralmente com pouca instrução formal) (4% de mortalidade média).

    Semmelweiz, através de cuidadosa observação, conectou a incidência da febre com a prática, extremamente comum entre os médicos, de atenderem aos partos logo após estarem inspecionando cadáveres e outros materiais putrefatos. Através de uma pesquisa extremamente criteriosa, até para parâmetros atuais, Semmelweiz chegou à conclusão que a transferência de material contaminado dos cadáveres para os pacientes era o fator responsável pela altíssima incidência da febre puerperal entre os atendidos pelos médicos. Dessa forma, ele estabeleceu que todos os médicos do seu departamento teriam que lavar suas mão antes de realizar partos, algo que hoje nos parece tão banal. Com esse simples procedimento, ele conseguiu reduzir a mortalidade por febre puerperal para até menos de 1% (!).
    ResponderExcluir
  12. No entanto, a proposição de Semmelweiz foi recebida com escárnio e até ódio pela comunidade médica e científica europeia. Ela contrariava o paradigma da época de que doenças eram causadas por “maus ares” ou “miasmas”. Além disso, a ideia de que homens de alta posição social, como os médicos, pudessem ter mão “sujas” foi vista como insultante. Semmelweiz também sofria com o preconceito por ser Húngaro, sendo, portanto, considerado inferior pelos Austríacos. Pelo seu esforço, ele foi demitido do hospital e jamais conseguiu se empregar em medicina em Vienna novamente. Vários médicos, para desafiar as conclusões dele, passaram a deliberadamente manipular cadáveres antese de realizar partos, o que levou aumentou em seis vezes (!) a taxa de mortalidade por essa doença entre os pacientes do Hospital Geral de Vienna. Face ao que ele considerou uma extrema injustiça e cruel irracionalidade, Semmelweiz teve um colapso nervoso e foi internado compulsoriamente em uma instituição para doentes mentais, onde ele morreu duas semanas depois de infecções provavelmente geradas pelos maus tratos diários. A ideia de assepsia médica só foi ser adotada pela comunidade médica europeia após a demonstração da teoria microbiana das doenças por Louis Pasteur (na época já um pesquisador com autoridade), mais de 20 anos após a demonstração clínica e epidemiológica de Semmelweiz. Acredita-se que, só em Vienna, a rejeição das idéias de Semmelweiz resultaram na morte de mais de 14000 mulheres e crianças recém-nascidas.

    Além desse triste exemplo, existem vários outros que não terei tempo para abordar, como a rejeição quase total por mais de três décadas da teoria das placas tectônicas de Wegener, a permanência da teoria flogística na comunidade química mesmo anos após a demonstração da combustão oxídativa por Lavosier, dentre vários outros.

    Esses casos mostram que Kunh tem sim razão ao destacar a importância de fatores sociológicos na história da ciência e a sua análise historiográfica é extremamente acurada, infelizmente. Só que enquanto ele defende que essa características sejam incorporados à epistemologia científica, eu acredito que isso é um equívoco. Os exemplos anteriores deixam claro como o preconceito, autoritarismo e irracionalidade podem atrasar em décadas, as vezes séculos, o progresso da ciência. Em um contexto Lakatosioano, não acho que seja útil para a comunidade científica que esse tipo de fator interfira na degeneração ou progressão de um programa de pesquisa; estes devem ser avaliados, de forma mais fidedigna possível, dento dos parâmetros do falseacionismo e da força das hipóteses auxiliares e do corpo de evidência sustentando o núcleo rígido.
    ResponderExcluir
  13. Sobre Feyrabend, acho que está claro que nenhum de nós concorda com ele. Admitimos que ele parte de uma observação que é sim correta: todas as várias interpretações da verdade científica, da lógica Aristotélica, ao empiricismo Baconiano, passando pelo indutivismo lógico e chagando ao faleacionismo Popperiano, tiveram sim, cada uma em seu dado tempo, grande importância e produziram bons resultados. Ou seja, do ponto de vista histórico, não há um único “método científico”, o que até certo ponto real. No entanto, a partir dessa observação ele deduz, a meu ver erroneamente, que cada método é igualmente válido e que, portanto, não há como privilegiar um sobre o outro. Na interpretação dele, não faz sentido, e seria inclusive “desumano” tentar forçar toda a comunida acadêmica a seguir uma única forma de lógica.

    Eu acredito que o erro de Feyrabend foi duplo: 1) o de avaliar cada método como sendo igual aos demais, e 2) considerar que a estrutura real da produção científica é capaz de sustentar a prática do dadaísmo metodológico. O fato de que cada método teve sua importância não significa que todos sejam igualmente lógicos, válidos ou eficientes, como discutirei abaixo. Esse fato significa que cada cientista, assim como as agências de fomento que financiam seu trabalho, tem a responsabilidade de escolher qual método epistemológico norteará a sua pesquisa. Devido ao fato de que os recursos financeiros, estruturais e humanos dedicados à pesquisa científica são limitados, é crucial que pesquisadores, universidade e agências de fomento tomem decisões administrativas que privilegiam o método que tem maiores chances de produzir resultados cientificamente relevantes e úteis.

    Mas como definir que método seria esse? Em minha análise, poderíamos classificar cada diferente “método científico” como sendo em si um paradigma Kuhniano, ou um programa de pesquisa Lakatosiano, só que englobando todos os outros paradigmas e programas que foram desenvolvidos dentro da sua lógica epistemológica. Nesse contexto, a validade e a aceitação de cada método científico seriam definidas historicamente de acordo com as mesmas leis que gerem a estrutura das revoluções científicas Kuhnianas, e idealmente de acordo com regras semelhantes às definidas por Lakatos para a progressão e degeneração de programas de pesquisa. Nesse contexto, um “método científico” substituiria outro a medida que os programas de pesquisa desenvolvidos utilizando sua lógica epistemológica se demonstrassem mais acurados em suas predições, mais úteis em suas aplicação e mais abrangentes em suas explicações do que os programas desenvolvidos sob a ótica do método concorrente. O “método cientifico” dominante seria, portanto, definido de acordo com uma análise utilitarista, sendo julgado de acordo com os resultados que ele produz. Dentro desse framework, o falseacionismo Popperiano apresentou grandes vantagens e fomentou programas muito mais bem sucedidos do que o indutivismo lógico, a exemplo de todos os programas que hoje utilizam análises estatísticas para validar seus resultados. A própria síntese de Lakatos é totalmente baseada no princípio da falseabilidade. Portanto, os princípios epistemológicos Popperianos devem sim ser privilegiados em detrimento de métodos mais antigos. Porém, sempre há possibilidade para a evolução da lógica científica, desde que a mesma seja baseada em evidências e teorias concisas, o que em minha opinião anula a crítica de Feyrabend de que a imposição metodológica é desumana. Acredito que essa interpretação se assemelha mais ao que tem acontecido de forma histórica no desenvolvimento científico e se encaixa bem nas limitações estruturais da atividade científica moderna.
    Enfim, não terei mais espaço para expor o resto das minhas ideias sobre essa interpretação aqui na réplica. Passo a bola para você caro Patrick. Estou ansioso para saber sua opinião sobre esses assuntos.
    ResponderExcluir
  14. Finalizando minha crítica a Paul Feyerabend:

    Eu concordo que o grande erro de Feyerabend foi, partindo da ideia de que as revoluções científicas somente foram possíveis devido a um pluralismo metodológico, admitir que todos os métodos são igualmente válidos e, por isso, o pluralismo metodológico anarquista deveria ser inserido na epistemologia científica. Um contra-exemplo consistente à epistemologia feyerabendiana é a hipótese "ad hoc", que em física nunca teve sucesso. Quando Michelson e Morley não conseguiram medir a velocidade da Terra através do éter e muito menos medir velocidades diferentes para a luz em referenciais inerciais distintos, Lorentz, via hipótese "ad hoc", a fim de salvar do fracasso o éter luminífero, que, na verdade, era uma hipótese auxiliar do cinturão que protegia o núcleo rígido da relatividade de Galileu (Teorema da Adição de Velocidades), admitiu que corpos que se moviam através do éter tinham o tempo dilatado e o espaço contraído. Lorentz não tinha nenhuma evidência de que isso realmente ocorria. Na verdade, a dilatação do tempo e a contração espacial nada mais foram do que uma hipótese "ad hoc" para comportar, ao menos matematicamente, os resultados do experimento de Michelson-Morley e, desse modo, sustentar o éter. Einstein, em 1905, argumentaria em favor da validade do Princípio da Relatividade para, então, abandonar o Teorema da Adição de Velocidades de Galileu e o éter, assumindo o caráter absoluto da velocidade da luz no vácuo. Fazendo um paralelo com a Mecânica Quântica, a admissão de hipóteses "ad hoc" ou de postulados sem quaisquer evidências empíricas em favor deles também nunca teve sucesso. Bohr, em seu modelo atômico, assumiu 4 postulados, dos quais 1 está incorreto e 1 parcialmente correto. Ele assim fez para poder explicar a dificuldade até então insuperável entre a mecânica clássica e a teoria atômica. Apesar de explicar relativamente bem o átomo de hidrogênio, o modelo atômico de Bohr foi um fracasso em relação aos demais átomos. Somente com o princípio da incerteza de Heisenberg e a equação de função de onda de Schrödinger que o átomo pôde, enfim, ser explicado em sua totalidade. Logo, Feyerabend está errado quando diz que o progresso científico sob um critério monista não é possível em um contexto metodológico pluralista. Incluir o dadaísmo anarquista feyerabendiano na epistemologia científica seria um equívoco, pois somente o método pautado em um programa de pesquisa lakatosiano e no falseacionismo popperiano é eficaz no que diz respeito ao desenvolvimento científico. Ainda que o pluralismo metodológico seja uma realidade - Einstein partiu da afirmação do Princípio da Relatividade e do eletromagnetismo de Maxwell-Lorentz para formular sua mecânica e a plêiade de físicos do início do século XX partiram da total negação da mecânica clássica em favor da evidência da natureza probabilística do elétron para construir a mecânica quântica - nem todos os métodos são igualmente válidos, mas apenas aqueles que estão em harmonia com o lakatosianismo e o falseacionismo popperiano. Ainda que teorias como a mecânica clássica e a Teoria da Relatividade Geral sejam incomensuráveis entre si, a falta de correspondência entre uma e outra não sustenta a adoção do dadaísmo anarquista feyerabendiano na epistemologia científica.
    ResponderExcluir
  15. No mais, eu também concordo que o autoritarismo em ciência seria desastroso. E como foi! Foram o ressentimento e a inveja dos professores aristotélicos que culminaram no julgamento e na prisão domiciliar de Galileu. Devemos, portanto, afastar da epistemologia científica quaisquer autoritarismo, subjetividade, paixão do teórico com a sua teoria e valores morais dos cientistas. Ainda assim, devemos ser rigorosos em relação aos experimentos que falseiam uma teoria, sendo ela de grande importância para a ciência. Cito, por exemplo, a mecânica relativística, que proíbe que partículas sejam aceleradas a velocidades superiores a da luz. No experimento do laboratório de Gran Sasso, neutrinos teriam sido acelerados a velocidades superiores a da luz. Repetiram o experimento 15 mil vezes e sempre o mesmo resultado. Segundo o falseacionismo popperiano, depois de um experimento ser repetido à exaustão 15 mil vezes e, em todas as vezes, falsear uma determinada teoria, ela deveria ser abandonada. Descobriu-se, mais tarde, no mesmo laboratório, que havia uma má conexão entre o GPS e um dos computadores, o que provocava um delay e, portanto, um erro sistemático no experimento. Então, caro duelista, pergunto-lhe: quando, na sua opinião, é seguro admitir como falseada uma teoria?
    ResponderExcluir
  16. Tréplica

    Muito bem Patrick. Continuamos evoluindo a um bom ritmo. Antes de entrar na tréplica propriamente dita, gostaria só de comentar algumas de suas afirmações. Nós claramente concordamos em relação à origem do erro máximo de Feyrabend: considerar que todos os métodos são igualmente válidos. No entanto, preciso alertar que a sua afirmação de que “nem todos os métodos são igualmente válidos, mas apenas aqueles que estão em harmonia com o lakatosianismo e o falseacionismo popperiano” é absolutista demais. Em minha opinião, o mais correto seria: “atualmente os métodos mais eficientes (ou válidos, lógicos, etc.) são aqueles que estão em harmonia com o lakatosianismo e o falseacionismo popperiano”. É preciso deixar claro que a filosofia da ciência e a própria concepção do método científico não são entidades estáticas, mas sim dinâmicas e passíveis de revisão e mudança. Isso é crucial, pois é na capacidade de auto-revisão e mudança que a ciência tem uma das suas maiores forças. Acho extremamente improvável que o avanço da epistemologia científica tenha morrido com Popper e Lakatos. Nada impede que no futuro esses conceitos sejam completamente revolucionados.

    Gostei muito da sua pergunta sobre o que seria necessário para falsear uma teoria. Estava querendo abordar esse assunto desde o início do debate, e agora tenho a deixa perfeita. Atualmente, na prática científica, o padrão ouro para que uma teoria seja falseada é quando as evidências contrárias à mesma são produzidas de forma independente por pelo menos dois grupos de pesquisa, de preferência utilizando métodos distintos. O melhor exemplo que conheço foi a recente revolução no estudo do tecido adiposo marrom (TAM) em humanos adultos. O TAM é um tipo específico de tecido adiposo com propriedades termogênicas, e era conhecido que ele era particularmente abundante em pequenos mamíferos (principalmente aqueles habitantes de regiões frias) e em bebês humanos. A teoria vigente até abril de 2009 era de que humanos adultos não teriam TAM funcional, ou seja, que esse tecido se degeneraria durante o processo de maturação humana normal. No entanto, em abril de 2009, três grupos, trabalhando independentemente e utilizando métodos relativamente distintos (variando de PET scans até a análise de RNAs mensageiros), publicaram três artigos com evidências experimentais claras de que humanos adultos possuem sim TAM funcional, todos na mesma edição do “New England Journal of Medicine”, o periódico com maior fator de impacto na área de pesquisas médicas (van Marken Lichtenbelt et al. 2009; Virtanen et al. 2009; Cypess et al. 2009). Devido à consistência das evidências apresentadas e o fato delas terem sido produzidas por grupos diferentes (analisando populações distintas e usando métodos complementares) a teoria anterior foi completamente dizimada em apenas uma edição de um periódico.

    Em contraste com o exemplo que você deu (o dos neutrinos ultrapassando a velocidade da luz), todos os pontos amostrais foram produzidos por apenas um grupo, utilizando apenas uma abordagem metodológica. Nesse caso, a evidência apresentada possui pouca força e permanece sob suspeita, visto a grande possibilidade dos resultados produzidos terem sido enviesados pelos pesquisadores ou serem apenas artefatos metodológicos (como foi o caso do experimento de Gran Sasso). No mundo altamente competitivo da ciência moderna, é muito comum que grupos realizem experimentos visando derrubar as evidências propostas por outro laboratório ou tentando ver se determinada proposta já publicada se sustenta em diferentes situações experimentais ou em populações distintas. Esse processo de confirmação por grupos independentes é crucial para a validação de evidências e, portanto, para o estabelecimento da falseabilidade de teorias e o avanço dos programas de pesquisa.
    ResponderExcluir
  17. Preciso deixar claro, porém, que esse processo dificilmente é tão claro como no caso do TAM (de fato, esse foi um exemplo bastante raro). A maioria dos processos de falseação de uma teoria demora anos, até décadas. Um caso que me é bem querido (foi parte integral da minha pesquisa de Mestrado) é o da recente reinterpretação das interações entre células da glia e neurônios. Quando das primeiras análises histológicas do tecido nervoso no final do século XIX, as células do cérebro foram divididas em neurônios e células gliais. Os neurônios foram postulados desde muito cedo como sendo os principais componentes do tecido nervoso, devido as suas morfologias exuberantes. As demais células do cérebro foram definidas por Virchow (um dos pais da histologia moderna) como sendo somente “cola” para os neurônios, e daí surgiu o nome células da “glia” (“cola” em grego). Essa teoria, de que as glias seriam somente células de suporte para os neurônios, perdurou até o inicio da década de 90, quando o advento de novas técnicas para investigação celular, em conjunto com a inquietação de vários laboratórios independentes que questionavam essa definição de quase 150 anos, levou a produção de várias evidências experimentais que indicam que as células da glia na verdade não dão apenas suporte para neurônios, mas sim executam processos bioquímicos e de computação neural essenciais para a formação de novas memórias, controle comportamental e vários outros processos do cérebro (Haydon and Carmignoto 2006; Perea, Navarrete, and Araque 2009). Dessa forma, se pensaria que esta revolução estaria completa: a teoria anterior, de que células da glia teriam somente função de suporte, caiu por terra e outra teoria a suplantou. No entanto, da mesma forma que se produziu (e ainda se produz) evidências a favor de uma participação mais ativa da glia no processamento neural, outros grupos, de forma independente e usando métodos levemente distintos, produziram (e continuam produzindo) evidências que indicam exatamente o oposto! Esses outros grupos se contrapõem aos defensores da nova teoria afirmando que as evidências apresentadas pelos mesmos são primariamente artefatos metodológicos e que seus resultados estão sendo “super-interpretados”, i.e. estão tendo conclusões que não se justificam nas evidências (Fiacco, Agulhon, and McCarthy 2009; Nedergaard and Verkhratsky 2012). Recentemente, o periódico Nature publicou um editorial abordando exatamente a polarização entre esses grupos e a força que esse debate está tendo na comunidade neurocientífica mundial (Smith 2010).

    Dessa forma, como então decidir quem tem razão? Simplesmente não há como. Ainda serão precisos vários anos de novos experimentos, o desenvolvimento de novas técnicas e inúmeros debates entre grupos em oposição para se decidir quem tem razão. No contexto desse debate, os dois programas de pesquisa em oposição nessa área ainda estão competindo de forma igualitária, e não há uma perspectiva clara de qual deles irá eventualmente progredir e qual irá degenerar. Pelo menos na minha área essa é a situação da grande maioria das principais teorias. O mesmo é verdade para a física de partículas, onde atualmente há uma grande competição entre pesquisadores defensores de abordagens de física quântica mais clássicas e defensores das diversas teoria das cordas (incluindo a teoria das supercordas e a teoria da matriz de cordas) estão em competição ativa para determinar qual abordagem levará a uma teoria unificada das forças físicas. Para mim é exatamente aí que está a grande força da proposição de Lakatos: ela é capaz de explicar não somente porque uma teoria deve ser abandonada em função de outra, mas também o porque esse processo não é instantâneo. Lakatos fornece uma explicação lógica e real para os processos de debate e competição que são a regra da prática científica atual, sem a necessidade de glorificar as relações de autoridade, como fez Kuhn.
    ResponderExcluir
  18. Finalizando, o padrão ouro atual para que uma teoria seja falseada é quando as evidências contrárias são produzidas de forma independente por vários grupos de pesquisa e utilizando métodos distintos, mas a duração do processo de falseação (que segue as regras de degeneração e progressão de programas de pesquisa definidas por Lakatos) pode variar de alguns dias até décadas dependendo da área do conhecimento, das abordagens metodológicas evolvidas e, é claro, dos pesquisadores engajados com o problema.

    Referências

    Cypess, Aaron M., Sanaz Lehman, Gethin Williams, Ilan Tal, Dean Rodman, Allison B. Goldfine, Frank C. Kuo, et al. 2009. “Identification and Importance of Brown Adipose Tissue in Adult Humans.” New England Journal of Medicine 360 (15): 1509–1517. doi:10.1056/NEJMoa0810780.

    Fiacco, Todd A, Cendra Agulhon, and Ken D McCarthy. 2009. “Sorting Out Astrocyte Physiology from Pharmacology.” Annual Review of Pharmacology and Toxicology 49: 151–174. doi:10.1146/annurev.pharmtox.011008.145602.

    Haydon, Philip G, and Giorgio Carmignoto. 2006. “Astrocyte Control of Synaptic Transmission and Neurovascular Coupling.” Physiological Reviews 86 (3) (July): 1009–1031. doi:10.1152/physrev.00049.2005.

    van Marken Lichtenbelt, Wouter D., Joost W. Vanhommerig, Nanda M. Smulders, Jamie M.A.F.L. Drossaerts, Gerrit J. Kemerink, Nicole D. Bouvy, Patrick Schrauwen, and G.J. Jaap Teule. 2009. “Cold-Activated Brown Adipose Tissue in Healthy Men.” New England Journal of Medicine 360 (15): 1500–1508. doi:10.1056/NEJMoa0808718.

    Nedergaard, Maiken, and Alexei Verkhratsky. 2012. “Artifact Versus reality—How Astrocytes Contribute to Synaptic Events.” Glia 60 (7): 1013–1023. doi:10.1002/glia.22288.

    Perea, Gertrudis, Marta Navarrete, and Alfonso Araque. 2009. “Tripartite Synapses: Astrocytes Process and Control Synaptic Information.” Trends in Neurosciences 32 (8) (August): 421–431. doi:10.1016/j.tins.2009.05.001.

    Smith, Kerri. 2010. “Neuroscience: Settling the Great Glia Debate.” Nature 468 (7321) (November 11): 160–162. doi:10.1038/468160a.

    Virtanen, Kirsi A., Martin E. Lidell, Janne Orava, Mikael Heglind, Rickard Westergren, Tarja Niemi, Markku Taittonen, et al. 2009. “Functional Brown Adipose Tissue in Healthy Adults.” New England Journal of Medicine 360 (15) (April 9): 1518–1525. doi:10.1056/NEJMoa0808949.
    ResponderExcluir
  19. Kauê, esse é, sem dúvida, o melhor duelo que travei no grupo Duelos Retóricos. Ambos ganharam com ele. Ainda assim, acredito que eu ganhei mais. Você respondeu brilhantemente todas as questões que lhe apresentei. Com isso, pude refletir sobre as minhas leituras em relação ao Karl Popper, que são recentes, confesso. Sua tréplica, em minha opinião, encerrou de modo igualmente brilhante esse duelo. Por isso, gostaria de lhe pedir licença para que, em minhas considerações finais, faça um paralelo com outro duelo que está sendo travado no grupo Duelos Retóricos, o duelo entre o Chico e o Jadiel sobre relativismo moral. Eu discordo veementemente de muitas colocações do Jadiel; para mim, fruto de ou falta de leitura dos autores que ele citou ou desonestidade mesmo, objetivando, dessa maneira, vencer seu oponente a qualquer preço. Para não ser acusado por ele de deturpar as palavras dele, vou, passo a passo, copiando e colando o que ele disse para, então, em seguida, contra-argumentar. Em suas considerações finais, gostaria que você, Kauê, também fizesse a sua análise.

    "O Chico confundi um pouco os conceitos e a minha introdução irá ajudá-lo. Primeiro, meu caro, a filosofia pragmática, no qual faz parte Popper, não descarta a existência de algo Absoluto, tanto os pragmáticos quanto os analíticos buscaram uma conceituação nova para o termo filosófico e passaram aceitar uma ideia de absoluto que fosse mais próximo da realidade cotidiana e fugir de qualquer caráter metafisico. O Absoluto no sentido pragmático seria algo que mesmo passando pela análise de refutabilidade ainda sim se mantém irrefutável. É um “objeto” que é passível de análise e crítica mas que se mostra absoluto não conseguindo refutar. Você está pensando o termo Absoluto como os metafísicos e quase esbarrando no dogmatismo teológico. Um dogma, como o citado da Imaculada Conceição, seria o caso de absoluto metafísico que importa apenas a afirmação e não a observação, e um assunto que nem chega perto da mente de um pragmático ou um analítico, como o Popper, por ser um “objeto” que não tem uma conclusão e nem se dá ao luxo da refutabilidade. Não tem como!" Jadiel

    Essa passagem eu deixo para você analisar, Kauê, uma vez que leu mais Popper do que eu. Pelos 2 livros que li dele, a saber, "Objective Knowledge" e "Conjectures and Refutations", para Popper, uma teoria somente seria científica se, a princípio, pudesse ser falseada, isto é, admitisse, através de uma contra-evidência, ser demonstrada falsa. Teorias como o marxismo são exemplos de teorias não-científicas, pois não há nenhum experimento capaz de falseá-las. Gostaria que você, Kauê, falasse um pouco sobre o que Popper disse sobre a questão do "absoluto", se é que ele disse alguma palavra sobre isso.

    "Então, o absoluto existe no pragmatismo DESDE QUE ele se mantenha irrefutável pela análise ou método de refutabilidade. Um exemplo de absoluto pragmático seria a partícula indivisível ou a famosa partícula de Deus, que os cientistas do CERN tanto procuram no acelerador. Desde os atomistas na Grécia, Demócrito e Leucipo, se procura o famoso “átomo” (do grego, indivisível), mas sabemos que não é o átomo a menor partícula, depois descobrimos os elétrons, prótons, nêutrons, quárks, neutrinos, hádrons, porém, a menor partícula, aquela que não pode mais ser dividida seria algo absoluto e mesmo que em um futuro distante, com um novo acelerador, essa partícula se manteria indivisível. Apesar de ser algo que pode ser refutado, a partícula indivisível continuará absoluta no seu conceito." Jadiel
    ResponderExcluir
  20. Eu não sei se rio ou se choro com essa passagem. Vê-se que o Jadiel fez um malabarismo vergonhoso com a palavra "absoluto". Faço questão de dizer em letras garrafais que NÃO HÁ ABSOLUTO EM CIÊNCIA! O nome que é dada à partícula que é indivisível não é "partícula absoluta", Jadiel, é "partícula elementar". É comum pessoas como você, que pouco ou nada sabem de física, cometerem erros primários como esse. São várias as partículas INDIVISÍVEIS e, portanto, ELEMENTARES já descobertas, a saber: o elétron, os 6 quarks, o múon, o tau, o neutrino do elétron, o neutrino do múon, o neutrino do tau, o glúon, os bósons W e Z, o fóton, o gráviton e o bóson de Higgs (as 2 últimas ainda não confirmadas). Essas partículas, repito, são indivisíveis e denominadas "elementares" (ou, ainda, "fundamentais"). A denominação "absoluta" é demasiado imprópria e infeliz.

    "Parece simples, é assim mesmo para explicar o conceito. Já citei o fato da existência do sol ser algo absoluto e a partícula indivisível, mas parece que você está falando em conhecimento absoluto no sentido de se conhecer tudo até mesmo de conhecimento de tudo que envolva apenas um tema. Eu já falo não de uma sabedoria de tudo sobre todas as coisas, mas de algo que seja um princípio, como a partícula indivisível que seria o princípio da matéria, a partícula absoluta que não depende de nenhuma outra partícula para se formar."

    Engraçado que o Jadiel chama de partícula absoluta a partícula indivisível e, agora, também diz que a partícula indivisível não precisa de outra para se formar. Se ele realmente soubesse o assunto "física de partículas", saberia de um fenômeno denominado "decaimento beta", onde um nêutron (uma partícula divisível) decai (transforma-se) em um próton, um elétron e um anti-neutrino do elétron (sendo as 2 últimas, partículas INDIVISÍVEIS e, portanto, ABSOLUTAS segundo o Jadiel, o que contradiz a definição dele de absoluto: em si e por si). Se para ele "absoluto" é "em si e por si" e uma partícula indivisível é um absoluta, sendo o elétron uma partícula indivisível (e, por tanto, absoluta segundo o Jadiel), como conciliar isso com o fato de que o elétron pode ser formado (causado) em um decaimento radioativo, uma vez que, segundo o Jadiel, ele independe de outra partícula para se formar? Em outras palavras, como um absoluto pode ser causado?

    "A verdade científica é diferente da verdade filosófica. Uma verdade científica é aquela que não se altera pelo crivo da análise do método científico, pelo contrário é sempre confirmada. Por isso, a ação da amoxicilina contra bactérias é uma verdade científica e usada em remédios como confirmação de um fato ou verdade científica. Já a verdade filosófica é um mistério, algo constantemente perseguido e um conceito difícil de se afirmar. Então o absoluto pragmático é aquele que mesmo sendo objeto de refutação, se mantém irrefutável ao longo dos séculos." Jadiel

    "Na sua primeira pergunta, eu já mostrei que o conceito de absoluto também é aceito pelos pragmáticos, usando o método científico. E é com esse mesmo método que se confirma um fato e se aproxima da realidade. Existe uma diferença entre ser exato e ser preciso. A realidade científica é exata, próxima a realidade mas pode falhar na precisão, ou seja, o quanto consegue apreender e compreender a realidade. Um esquizofrênico vive sensações próprias, cria uma realidade própria que não são compartilhadas pelas demais pessoas." Jadiel
    ResponderExcluir
  21. "Acho que já respondi. O termo absoluto passa a ser considerado algo de difícil refutação ou aquele que se mantém inalterado pela análise crítica a partir dos filósofos pragmaticistas. Ao contrário do que você disse, o conhecimento científico é seguro porque possui um método de verificação de todas as suas afirmações, e não porque “admite que a explicação da realidade seja relativa”, independe se é relativo ou absoluto, mas sim se é verificado, testado ou examinado."

    Essas passagens também deixo para você analisar, Kauê.

    "A discussão NÃO é semântica, o termo absoluto tomado em sua raiz do latim, em si e por si, já resolve essa problemática sobre o uso do termo. Os filósofos pragmaticistas, como o Popper por exemplo, empregam o termo absoluto em seus artigos, quando falam por exemplo, dos estudos dos gases em volume e pressão [absoluta], no estudo da termologia, quando tratam a questão da temperatura [absoluta] ou no estudo da relatividade, quando tratam da velocidade da luz no vácuo como a velocidade limite do universo [absoluta], veja meu caro, que não é o valor de 300.000 km/s o “objeto” absoluto, mas sim a “velocidade” da luz. Enfim, esses exemplos foram para sepultar de uma vez por todas a questão da terminologia, estou indo na raiz latina do termo, sem me alongar nos inúmeros conceitos que este termo teve ao longo da filosofia." Jadiel

    "Agora, para os filósofos pragmaticistas, ou pragmáticos, ou analíticos, a verdade científica deve ser amparada pela experimentação e seguir o método científico, e enquanto se mantiver constante e ir se confirmando, aquele conceito se manterá absoluto. Enquanto a velocidade da luz no vácuo for o limite das velocidades no Universo, ela é um conceito absoluto para a ciência. O valor da velocidade pode até sofrer mudanças, seja ela 300 mil ou 301 mil, ou 400 mil, mas ainda sim será a velocidade da luz a velocidade absoluta do Universo." Jadiel
    ResponderExcluir
  22. Primeiro, sobre a velocidade da luz no vácuo. Quando Maxwell determinou, matematicamente, a velocidade da luz no vácuo (e de todas as outras ondas eletromagnéticas), chegou à conclusão de que essa velocidade, representada pela letra "c", independeria dos estados de movimento dos referenciais inerciais, o que violava o Teorema da Adição de Velocidades da Mecânica Clássica. Ao invés de abandonarem o referido teorema, em um primeiro momento, abandonaram o Princípio da Relatividade em favor de um referencial inercial absoluto, o éter. Michelson e Morley, com um interferômetro (cuja precisão era de 4 casas decimais), não mediram velocidades diferentes para a luz em referenciais inerciais distintos. Em favor do Princípio da Relatividade, Einstein abandonou o éter (repito, um referencial inercial absoluto) e postulou que a velocidade da luz seria a mesma para todos os referenciais inerciais. Por não ser uma velocidade relativa, diz-se que a velocidade da luz é absoluta. Mas o que está em questão aqui é o conceito de movimento relativo, do qual a luz não compartilha. Isso nada tem a ver com o que o Jadiel diz. Além disso, ele confunde "absoluto" com "limite". E mesmo que "absoluto" fosse "limite" de alguma coisa, pois quem disse para ele que o "zero absoluto" é o limite de temperatura? Jadiel, aviso-lhe, a Termodinâmica é, de longe, a matéria mais difícil de física. Isso é consenso mesmo entre professores-doutores. Você pode SIM chegar a temperaturas menores que o "zero absoluto"! É que isso não é ensinado no ensino médio. Mas se tivesse feito física ou engenharia em uma instituição como o ITA, saberia disso. Voltando para a velocidade da luz, ao contrário do que você disse em um comentário fora do duelo, esse não é um conceito absoluto em física. John Webb mesmo, em um artigo, teoriza sobre uma possível contra-evidência acerca da luz como velocidade limite do universo. Nenhum conceito de física é absoluto, mas sempre suscetível à mudança e revisão. Partículas que viajam mais rapidamente que a luz são previstas teoricamente, embora, ainda, não confirmadas. Pontos geométricos, por exemplo, viajam mais rapidamente que a luz (pesquise sobre o Paradoxo da Tesoura). Para a velocidade da luz ser um conceito absoluto 1) ela teria que ser não-científica e, portanto, irrefutável (segundo o falseacionismo de Popper) e 2) sua medição teria que ser precisão infinita. O interferômetro de Michelson-Morley tinha uma precisão de 4 casas decimais. O experimento de Fizeau, que também visa confirmar a constância e independência da velocidade da luz, tem um erro percentual inferior a 1% (de acordo com a última medida, feita por Zeeman).
    ResponderExcluir
  23. Bem Patrick, eu realmente não quero me envolver com nenhum outro debate além do nosso. Eu acho que por enquanto estamos demonstrando o quanto as atividades desenvolvidas dentro desse grupo podem ser profícuas para todos, desde que não haja insultos, picuinhas ou rusgas de cunho pessoal. Para manter o caráter exemplar do nosso debate, eu não irei comentar diretamente sobre afirmações feitas em outros debates. Além do mais, acho que já respondi bastante ao Jadiel nos comentários do Facebook.

    Nesse contexto, o que me disponho a fazer é responder uma das perguntas diretas que você me fez que eu achei altamente pertinente e útil dentro do contexto do nosso debate: qual a visão de Popper sobre o conceito de “absoluto” em ciência. Essa pergunta é crucial e é bastante discutido por Popper no “Conjectures and refutations”. No capítulo “Truth, rationality and the growth of knowlegde”, Popper reitera que deve existir uma “verdade absoluta” (ou verdades absolutas) que representa tudo o que acontece objetivamente no mundo real, ao estilo do que foi proposto por Xenofanes e Aristótele. Dessa forma, ele se autoafirma como um filósofo realista e se opõem a interpretações solipsistas e relativistas do mundo real. No entanto, dentro do contexto da epistemologia científica, Popper argumenta que nós nunca seremos capazes de classificar um dado conhecimento humano como sendo parte dessa verdade absoluta. Isso ocorre devido à dois principais fatores.

    Primeiramente, devido as restrições ao probabilismo, argumentadas durante a refutação do indutivismo lógico, não é possível calcular ou estimar o quanto uma determinada teoria está próxima da verdade absoluta; nós podemos somente, como demonstrado na proposição do falseacionismo, saber se uma dada teoria não se adéqua a realidade observável.

    Segundo, não há um método objetivo de se determinar se uma dada teoria, mesmo que ela não tenha ainda sido falseada, corresponde à verdade absoluta. Popper compara essa situação a um alpinista escalando uma montanha cujo pico está sempre coberto por nuvens. O alpinista, além de ter vários problemas para escalar a montanha, não tem certeza de quando ele realmente chegou no pico, já que as nuvens impedem-no de distinguir o verdadeiro topo da montanha de um pico subsidiário. Isso não afeta de nenhuma forma a existência do pico da montanha, e o próprio alpinista, ao reconhecer sua dúvida “será que cheguei ao topo?” reconhece a existência objetiva do pico. Da mesma forma, embora o alpinista não saiba se ele chegou ao pico, ele pode reconhecer quando ele não chegou lá, seja pela inclinação do solo ou pelo encontro com uma nova parede de pedra. Da mesma forma, somos incapazes de determinar se realmente alcançamos uma teoria que corresponde a verdade absoluta (mesmo que essa correspondência seja verdadeira), mas podemos sim determinar se uma dada teoria não corresponde à essa verdade.
    ResponderExcluir
  24. Com esse exemplo (acrescido obviamente de outros argumentos), Popper deixa muito explícito que ele acredita na existência objetiva de uma verdade absoluta, mas que essa verdade é alheia à ciência, no sentido que nenhum de nossos métodos é capaz de determinar o real entendimento da realidade. Ele defende o princípio da falseabilidade como uma estratégia de se aproximar da verdade, mas é claro em sua opinião de que a verdade absoluta não pode ser alcançada por métodos epistemológicos humanos. Mais uma vez, quero deixar bem claro que isso não significa que todos os métodos sejam igualmente válidos; segundo Popper, a ciência guiada pelo princípio da falseabilidade é a forma mais acurada e eficiente de se aproximar da realidade absoluta.

    Nesse contexto, Popper deixa bem claro que não faz sentido atribuir o conceito de “absoluto” (no sentido de realidade objetiva) às teorias ou evidências científicas. Assim como o alpinista que dúvida se realmente atingiu o pico da montanha nublada, o cientista, por definição, sempre dúvida se a teoria vigente (não-falseada) no seu respectivo campo é realmente correspondente com a realidade. A ideia de que uma realidade científica possa vista como absoluta é, portanto, explicitamente atacada e refutada por Popper. Espero com esse texto ter respondido sua pergunta Patrick.
    ResponderExcluir
  25. Gostaria de finalizar o debate com um breve resumo do mesmo. Esse foi um embate um tanto atípico, no sentido que os debatedores concordaram em mais pontos do que discordaram. Tanto eu quanto o Patrick concordamos que o conceito de programas de pesquisa proposto por Lakatos (que é apoiado fundamentalmente no principio da falseabilidade de Popper) é atualmente a melhor forma de explicar o progresso científico. Concordamos também que a proposta de dadaísmo metodológico proposta por Feyrabend é equivocada, tanto em sua interpretação histórica quanto na sua “contribuição” para a epistemologia científica. Dessa forma, darei destaque aos poucos pontos onde discordamos e, posteriormente, passamos a concordar:

    1) Patrick iniciou o debate se contrapondo à uma percebida “obcessão” de Popper com a falseabilidade. Eu contra-argumentei demonstrando que, em obras posteriores, Popper reconhece a falseabilidade como um princípio geral, o que está em acordo com a reinterpretação de Lakatos. Esse argumento, segundo o relato do Patrick, o convenceu.

    2) Ao discutirmos Kuhn, Patrick utilizou o exemplo da revolução da física quântica do inicio do século XX para argumentar que nem todas as revolução são fortemente influenciadas por fatores sociais. Eu respondi ao Patrick demonstrando que, mesmo nessa revolução, que foi um exemplo histórico de objetividade e polidez, fatores como autoridade e influência tiveram um grande papel. Utilizando outros exemplos históricos, mostrei que a interpretação historiográfica de Kuhn é, infelizmente, altamente acurada. Posteriormente, tanto eu quanto Patrick concordamos que os fatores sociológicos apontados por Kuhn não devem ser incorporados à epistemologia científica, mas sim devem ser identificados e combatidos, de forma a privilegiar a lógica e objetividade, como propôs Lakatos.

    3) Em sua rejeição, muito bem exposta, à teoria de Feyrabend, Patrick afirmou que “nem todos os métodos são igualmente válidos, mas apenas aqueles que estão em harmonia com o lakatosianismo e o falseacionismo popperiano”. Eu considerei essa afirmação demasiadamente absolutista, propondo a alternativa: “atualmente os métodos mais eficientes (ou válidos, lógicos, etc.) são aqueles que estão em harmonia com o lakatosianismo e o falseacionismo popperiano”. Essa questão, aparentemente de pequena importância, é crucial, pois em minha opinião devemos sempre deixar claro que a ciência, mesmo em seus fundamentos epistemológicos, é constituída de conceitos dinâmicos, que estão sempre vulneráveis à refutação, evolução e reinterpretações.

    Além desses pontos explícitos de concordância e discordância, tanto eu quanto o Patrick abordamos diversos exemplos históricos e experimentos lógicos para demonstrar o fundamento das teorias de Popper, Lakatos, Kuhn e Feyrabend, o que por si só faz desse debate um ótimo exercício de leitura e reflexão.

    Finalizo assim o debate congratulando meu oponente, Patrick. Espero que todos apreciem o conteúdo produzido por ele e por mim.

25 comentários:

  1. KARL POPPER

    Para Karl Popper, científica é a teoria que, partindo de alguns postulados simples, possibilita uma explicação eficaz para um determinado problema e faz previsões passivas de verificação. Nesse sentido, uma teoria somente será científica caso seja falseável, isto é, sujeita à refutação. Popper faz uma analogia entre a história da ciência com a seleção natural em seu livro "Objective Knowledge":

    "Nosso conhecimento consiste, em cada momento, daquelas hipóteses que mostram sua (relativa) adaptação, por terem até então sobrevivido em sua luta pela existência, uma luta competitiva que elimina as hipóteses não-adaptadas."

    O sucesso do falseacionismo popperiano se deve ao fato de substituir o empirismo justificacionista e indutivista pelo empirismo não-justificacionista e não-indutivista. O problema do empirismo justificacionista e indutivista seria, objetivando teorizar a natureza a partir de observações, como justificar a regularidade da natureza. Sempre observar cisnes brancos não anula a possibilidade de se observar, no futuro, um cisne preto. Esse problema era considerado um entrave insuperável para o desenvolvimento científico. Popper argumenta que o problema não era somente a impossibilidade de se justificar a regularidade da natureza, mas exigir que uma teoria científica, obrigatoriamente, deve partir de um número tão grande de observações, feitas das mais variadas formas, de modo a eliminar qualquer observação futura contrária à teoria. Para Popper, nunca poderemos assegurar que uma observação futura contrariará uma teoria, visto o número incontável de maneiras diferentes de se fazer uma observação. Nesse contexto, nunca partiremos de uma observação, mas de um problema, como argumentou Popper, novamente, em seu livro "Objective Knowledge":

    "Acredito que a teoria - pelo menos alguma expectativa ou teoria rudimentar - sempre vem primeiro, sempre precede a observação; e que o papel fundamental das observações e testes experimentais é mostrar que algumas de nossas teorias são falsas, estimulando-nos assim a produzir teorias melhores. Conseguintemente, digo que não partimos de observações, mas sempre de problemas - seja de problemas práticos ou de uma teoria que tenha topado com dificuldades."

    Historicamente, Popper está certo quando argumenta que uma teoria científica sempre partirá de um problema. A Teoria da Relatividade, por exemplo, partiu do problema da incompatibilidade entre a lei da propagação da luz no vácuo de James Maxwell e o Princípio da Relatividade. A teoria de Max Planck de que a energia era emitida em pacotes discretos denominados "quanta" partiu do problema da descontinuidade do espectro de absorção e emissão da radiação de corpos negros. Uma série de outros exemplos são encontrados na história da ciência. Mas tem uma objeção no falseacionismo popperiano que não é encontrada na história da ciência, aliás, seria desastrosa caso fosse. Refiro-me à obsessão de Popper com a falseação. Algumas passagens de seus livros reforçam o que eu digo:

    "Tenha por ambição refutar e substituir suas próprias teorias." (Objective Knowledge)

    "Todo teste genuíno de uma teoria é uma tentativa de falseá-la ou refutá-la". (Conjectures and Refutations)

    "Observações e experimentos funcionam na ciência como testes de nossas conjecturas ou hipóteses, i.e., como tentativas de refutação." Conjectures and Refutations)

    ResponderExcluir
  2. Por que digo que essa obsessão com a refutação teria sido desastrosa na história da ciência? Primeiro, nenhum cientista, quando cria uma teoria, tem o objetivo de refutá-la; ao contrário, o objetivo é sempre confirmá-la. Segundo, historicamente, se toda vez que uma observação contrariasse uma determinada teoria, ela fosse abandonada, nem mesmo as duas revoluções industriais europeias teriam sido possíveis. Tudo o que foi desenvolvido em tecnologia nas duas revoluções industriais europeias somente foi possível graças ao sucesso da mecânica newtoniana. Ocorre que se o falseacionismo popperiano fosse contemporâneo de Newton, a mecânica newtoniana deveria ter sido abandonada antes mesmo de Newton ser nomeado Sir, visto que tanto o movimento da Lua e de Urano quanto o periélio de Mercúrio contrariavam a mecânica newtoniana. E o prejuízo de se abandonar a mecânica newtoniana na época teria sido incalculável para a humanidade. O problema com o movimento da Lua somente seria superado no século XVIII quando se descobriu que o que estava incorreto não era a mecânica newtoniana, mas o modo como se calculava a trajetória da Lua. O movimento de Urano somente seria superado no século XIX com a suposição de que um planeta hipotético estaria alterando gravitacionalmente a trajetória de Urano. Esse planeta foi descoberto no mesmo século e foi denominado Netuno. Já o problema do periélio de Mercúrio somente seria superado em 1915 com a publicação da Teoria da Relatividade Geral de Einstein e a substituição da mecânica clássica pela mecânica relativística. Percebe-se que, ao final, Popper está certo. Mas, historicamente, o falseacionismo teria sido desastroso ao exigir o abandono precoce não somente da mecânica newtoniana, mas também de teorias importantíssimas como a lei das proporções constantes de Proust e até a teoria heliocêntrica de Copérnico. Por isso, ao propor o falseacionismo, para mim, Popper pressupõe que estamos em uma época segura o suficiente para abandonarmos sem qualquer remorso toda teoria que seja contrariada por uma observação, não importando quantas observações a confirmem.

    Um segundo problema do falseacionismo popperiano é apontado por Duhem-Quine. Para exemplificar, denominemos de L1, L2, L3 as três leis de Newton da mecânica e de G a lei da gravitação universal. Denominemos, ainda, de O1, O2, O3, ..., O n-ésima as leis da óptica. Com um telescópio, realizamos uma observação da órbita de um corpo celeste que contraria a mecânica newtoniana. Segundo o falseacionismo popperiano, deveríamos abandonar a mecânica newtoniana. Mas que motivos eu tenho para concluir que é a mecânica newtoniana que está incorreta e não as leis da óptica já que estamos usando um telescópio para fazer a observação? Segundo Duhem-Quine, nenhum motivo! Mesmo que as leis da óptica estejam mesmo corretas, a mecânica newtoniana é composta por muitas outras leis e não há como sabermos se todas ou uma delas está incorreta. Logo, em face de uma observação contrária, o número de leis principais e secundárias a serem avaliadas é relevante demais para rapidamente abandonarmos a teoria que queríamos confirmar. Nesse caso hipotético, temos em xeque não a mecânica newtoniana, mas L1, L2, L3, G, O1, O2, O3, ..., O n-ésima e todas as leis adjacentes.

    ResponderExcluir
  3. IMRE LAKATOS

    Melhor que Popper, é Lakatos. A proposta de um programa de pesquisa lakatosiano é muito mais próximo da realidade e da historicidade da ciência do que o falseacionismo popperiano. O programa de pesquisa lakatosiano se divide em heurística negativa e heurística positiva. Dentro da heurística negativa, uma teoria deve conter um corpo rígido (hard core) que seja constituído pelos postulados básicos da teoria. Esse corpo rígido deve estar imune a qualquer tentativa de refutação por um cinturão protetor. O cinturão protetor será, então, constituído de hipóteses auxiliares cujo objetivo é evitar que os postulados básicos do corpo rígido sejam refutados. Logo, apenas as hipóteses auxiliares estariam sujeitas à refutação. Dentro da heurística positiva, são determinados os critérios que nortearão de que modo as hipóteses auxiliares do cinturão protetor serão propostas. Nesse sentido, os programas de pesquisa são classificados em progressivos ou degenerantes. Progressivos são aqueles que conseguem, de modo satisfatório, resistir às possíveis refutações e oferecer explicações plausíveis para o fenômeno que assim objetivam. Já degenerantes são aqueles programas que não conseguem sobreviver às mais importantes refutações. Nesse contexto, o lakatosianismo é muito mais eficiente que o indutivismo e o falseacionismo. O critério indutivista é forte demais: para ele, nenhuma teoria é genuinamente científica, pois nenhuma teoria pode ser confirmada por todas as possíveis observações. O falseacionismo popperiano elimina demais: como nenhuma teoria pode ser rigoramente falseada, também nenhuma teoria é genuinamente científica. Já para o lakatosianismo, uma teoria para ser científica deve estar dentro de um programa de pesquisa, e este programa de pesquisa deve ser progressivo. Historicamente, é o que mais se aproxima da ciência. Propor, por exemplo, que um planeta hipotético deveria estar orbitando nas circunvizinhanças de Urano nada mais foi do que uma hipótese auxiliar para proteger o corpo rígido da mecânica newtoniana (as três Leis de Newton e a lei da gravitação universal). Já quando nem mesmo com o cinturão protetor o programa de pesquisa deixa de ser degenerante, a teoria é abandonada e substituída. Nesse caso, desde que exista uma teoria melhor. A impossibilidade evidente da mecânica newtoniana de explicar o periélio de Mercúrio foi decisiva para a sua substituição pela Relatividade Geral de Einstein, mas somente quando a Relatividade Geral foi publicada (1915), caso contrário, ter abandonado toda a mecânica newtoniana ainda no século XVII, teria sido um desastre que impossibilitaria as duas revoluções industriais europeias e todo o desenvolvimento tecnológico humano.

    ResponderExcluir
  4. Correção: troque "corpo rígido" por "núcleo rígido".

    ResponderExcluir
  5. Considerações iniciais
    Bom Patrick, partimos de um ótimo começo. Tenho uma interpretação levemente diferente da sua a respeito da importância relativa do Falsificacionismo Popperiano no desenvolvimento do método científico moderno. A proposta de falseabilidade de Popper, em seu contexto histórico, serviu para refutar o principio do probabilismo indutivista, que afirmava que a separação de uma teoria cientifica de uma não-científica era a probabilidade matemática dela estar correta face às evidências disponíveis. Além do óbvio problema metodológico relacionado ao cálculo dessa “probabilidade”, o probabilismo falha como um método de verificação de regularidade, tal qual foi exemplificado por Popper no exemplo dos cisnes de diferentes cores e que você abordou com sucesso. Desse contexto surge então o problema de se vincular e conciliar a criação de explicações fenomenológicas concisas (teoria) com evidências empíricas. Posto de outra forma, se um número infinito de evidências não é capaz de confirmar uma teoria e, portanto, todas as teorias são igualmente improváveis, como seria possível separar ciência de pseudociência? O princípio da falseabilidade de Popper resolve esse problema de forma perfeitamente elegante, ao anular a necessidade de “confirmações” e focando a definição de teoria científica à proposição de hipóteses falseáveis. Esse princípio, no seu cerne, fora pouquíssimo questionado e é de insubstituível importância para a ciência contemporânea.
    Nesse ponto, preciso apontar um equívoco seu ao afirmar que “nenhum cientista, quando cria uma teoria, tem o objetivo de refutá-la; ao contrário, o objetivo é sempre confirmá-la”. Na ciência contemporânea, praticamente todos os experimentos, observações e teorias são fundamentados em análises estatísticas (ANOVA, Teste T, Qui-quadrado, etc.) que visam exatamente analisar se os corpos de dados a serem comparados são diferentes entre si (geralmente a hipótese inicial do investigador, ou H1) ou não (hipótese nula, ou H0), i.e. se os resultados obtidos falsificam ou não sua hipótese inicial (Senn 1991). Por mais que psicologicamente um cientista possa ser influenciado pelo desejo de confirmar sua ideia, do ponto de vista prático e matemático ele analisa seus resultados sempre baseado no princípio da falseabilidade. Inclusive, a adoção de métodos estatísticos em praticamente todos os campos da ciência, da física, à medicina até as ciências sociais, ocorreu principalmente pela influência do Falsificacionismo, e com excelentes resultados práticos (Senn 1991).

    ResponderExcluir
  6. Dessa forma, não interpreto o foco na falseabilidade como uma “obsessão” de Popper, mas sim como um destacamento de um princípio crucial e central ao entendimento atual de método científico. No capítulo 4 do The Logic of Scientific Discovery, o próprio Popper deixa claro que o Falsificacionismo não deve ser interpretado como um fator absoluto na definição histórica do valor de cada teoria científica, mas sim como uma ferramenta metodológica de amplo espectro (Popper 2002). Um dos exemplos dessa interpretação pode ser visto na crítica de Popper à Teoria da evolução Darwiniana, que ele considera como não sendo uma teoria científica, mas sim um “programa de pesquisa metafísica”. No entanto, em suas próprias palavras, Popper afirma que:
    “(...) essa teoria (Darwinismo) tem um valor incalculável. Eu não consigo ver como que na sua ausência o nosso conhecimento teria crescido tanto como cresceu desde Darwin. (...) Apesar de metafísica, ela ilumina muito várias pesquisas muito concretas e práticas” (Popper 1982).
    Dessa forma, mesmo considerando o Darwinismo uma tautologia, Popper reitera a importância prática da teoria para o avanço científico, o que certamente me parece contrário à sua interpretação dele como um “obsecado” pela falseabilidade. É importante lembrar que no The Logic of Scientific Discovery ele faz comentários semelhantes em relação à importância histórica do indutivismo lógico, o que reforça a mensagem dele que a falseabilidade é um método epistemológico, e não deve ser interpretado de forma autoritária ou absolutista.
    Minha interpretação é de que as discordâncias entre os filósofos discutidos nesse debate advêm de dois principais conflitos: 1) a diferença entre o que cientistas fazem e o que eles deveriam fazer, e 2) a natureza prática das evidências. Popper aborda esses dois conflitos de forma extremamente teórica (alguns críticos dizem até “ingênua”); realmente, ele quase sempre discute o princípio da falseabilidade como uma metodologia ubíqua, ignorando se ela ou não seguida de fato, e considera as evidências como sendo, por definição, consistentes e absolutas. Nesse contexto, Thomas Kuhn avançou a definição de método científico ao conciliar aspectos psicológicos, históricos e sociológicos com a epistemologia científica. Acredito que agora posso introduzi-lo ao debate.

    Thomas Kuhn
    Em The Structure of Scientific Revolutions, Kuhn expõe uma visão de epistemologia e avanço científico que, embora não entre diretamente em embate com o Falsificacionismo, parte de uma base filosófica quase que diametralmente oposta. Ao invés de partir da lógica da produção de conhecimento para definir um método de investigação, Kuhn parte de uma análise histórica e sociológica da prática real da ciência, e a partir daí ele constrói uma teoria de produção de conhecimento. Segundo Kuhn, o progresso científico é constituído por períodos de produção de ciência normal, definida pela obediência às regras de um paradigma dominante, intercalados com períodos de crise e revolução, que culminam com a substituição do paradigma antigo por um novo. Esses últimos períodos são deflagrados face à incapacidade do paradigma atual de explicar novos fenômenos ou atender os anseios da comunidade, o que gera as chamadas crises de paradigma. Durante as crises, a comunidade científica de um determinado campo do conhecimento se polariza entre os defensores do paradigma antigo (geralmente pesquisadores mais antigos e com mais status) e defensores de um ou mais novos paradigmas (geralmente pesquisadores mais novos e com menos posição). A transição de um paradigma para outro é, quase sempre, lenta e árdua, devido à resistência da comunidade em aceitar os novos preceitos, mesmo em face de evidências inequívocas e teorias lógicas e concisas, até os limites da irracionalidade. A regra histórica é que se precisa de pelo menos uma geração para que um paradigma seja substituído.

    ResponderExcluir
  7. Segundo Kuhn (e esse é um ponto no qual eu discordo dele) essa resistência da comunidade a novos paradigmas não é um detrimento ao progresso científico, mas sim um fator essencial à validação do conhecimento. Ele afirma que a estrutura de revoluções científicas se fundamenta principalmente no poder de convencimento dos defensores do novo paradigma. Inclusive, segundo Kuhn o novo paradigma não precisa sequer explicar mais fenômenos ou ser mais acurado que o paradigma antigo. Fatores como consistência lógica e dados empíricos ajudam a persuasão da comunidade, mas não são os únicos. Fatores como a estrutura social e estética argumentativa podem ter o mesmo peso que elementos geralmente entendidos como “científicos”.
    Eu discordo veementemente das ideias de Kuhn sobre essa definição: em minha opinião as barreiras psicológicas e sociais da comunidade científica devem ser identificadas e otimizadas de forma a diminuir a subjetividade e as noções de autoritarismo inerentes a organizações sociais humanas. Eu reconheço que Popper fora muito idealista, mas não é porque algo acontece de uma determinada forma que ele deveria acontecer dessa forma. A análise Kuhniana é extremamente útil na identificação de barreiras à adoção de novos conhecimentos, porém é preciso dar um passo além e utilizar essa identificação para o desenvolvimento de estratégias institucionais e culturais que diminuam a influência de fatores irracionais na análise de teorias científicas.
    Nesse ponto, concordo com você Patrick que a síntese de Lakatos é extremamente feliz. Em suas obras Objective Knowledge, History of Science and Its Rational Reconstructions e The Methodology of Scientific Research Programmes, ele concilia a prática científica real e o Falsificacionismo Popperiano através da análise da real natureza das evidências científicas. Ao contrário de Popper, Lakatos reconhece explicitamente que pouquíssimas são as observações ou os experimentos que são capazes de refutar completamente uma teoria previamente estabelecida. Isso ocorre devido a limitações metodológicas, à variabilidade natural e a diversos outros elementos inerentes a qualquer forma de evidência empírica. O conceito de programas de pesquisa, portanto, explica a estrutura revolucionária descrita por Kuhn não como uma característica humana, mas como parte da lógica de avaliação de evidências dentro de um contexto histórico e baseado no princípio do falsificacionismo, já que as hipóteses auxiliares ao núcleo rígido são submetidas a sucessivas tentativas de “falseabilidade” e o progresso ou degeneração de diferentes programas (um termo que em vários aspectos se assemelha ao conceito de paradigma Kuhniano, com exceção da implicação de autoridade), que é definido pelo sucesso do programa em resistir as tentativas de refutação, determinaria a estrutura de revoluções científicas. A necessidade de se estabelecer múltiplas hipóteses auxiliares, produzir diversas evidências congruentes e analisar os programas de pesquisa em um contexto histórico são justificadas pela natureza incompleta das evidências em que os mesmos se sustentam.
    Deixo para você a introdução à Feyrabend. Pela a sua exaltação de Lakatos, imagino que sua opinião dele não deve ser das melhores; acho que nesse ponto também concordaremos.

    ResponderExcluir
  8. Caro duelista, o meu objetivo com esse duelo é o debate honesto de uma área tão fascinante como a filosofia da ciência. Eu confesso que fiquei um pouco surpreso com a forma como Karl Popper discorre sobre a questão do falseacionismo. Talvez eu não tenha refletido o bastante sobre não somente a importância, mas a revolução que o falseacionismo representou em face do indutivismo. Tínhamos um problema insuperável ao limitar o que é científico no número de confirmações da teoria. Como o número de formas de se variar as condições de um ou mais experimentos confirmativos é infinito, nenhuma teoria seria genuinamente científica. O falseacionismo, ao contrário, diz que científica não é a teoria que foi confirmada por muitos experimentos, mas aquela que ainda não foi falseada. Retirar a obrigação do que é científico da "confirmação" e passar para a "refutação" foi uma revolução sem precedentes no método científico, uma vez que uma única experiência discordante é suficiente para falsear a teoria. Você me convenceu. É a primeira vez que alguém me convence ainda durante o duelo do que está dizendo. Realmente não refleti o bastante sobre os desdobramentos da proposta popperiana. Assim como eu, você concorda que o falseacionismo, ainda assim, não é suficiente. Como nenhuma teoria pode ser rigorosamente falseada, precisamos definir um programa de pesquisa lakatosiano. Se uma teoria entra em xeque, o seu núcleo rígido é protegido pelas hipóteses auxiliares do cinturão protetor. E isso está em completo acordo com a história da ciência. Na física, que é a minha área, toda vez que uma teoria foi demonstrada não-geral, seja por observações discordantes, seja por incompatibilidade com outra teoria de igual ou maior sucesso na explicação dos fênomenos físicos, hipóteses auxiliares eram adicionadas a fim de proteger o núcleo rígido da teoria. Todavia, se mesmo com o cinturão protetor, a teoria permanecia degenerante, uma nova teoria era proposta. Acredito que na biologia e na medicina, áreas suas, não seja diferente. É importante esclarecer que o lakatosianismo não foi uma contra-proposta ao falseacionismo, mas uma extensão dele de modo a aliar o Princípio da Falseabilidade de Popper à realidade do desenvolvimento científico.

    ResponderExcluir
  9. Em relação ao Thomas Kuhn, gostaria de discorrer brevemente sobre as duas grandes revoluções científicas do início do século XX para exemplificar as minhas críticas a ele. No final do século XIX, William Thomson, o Lord Kelvin, disse que a física estava quase concluída, faltando apenas o refinamento de algumas medidas e a resolução de duas nuvens que pairavam sobre o céu da física. Uma dessas nuvens era a descontinuidade do espectro de absorção e emissão de elementos químicos, como o hidrogênio. A outra nuvem era a impossibilidade de se determinar a velocidade da Terra através do éter. A resolução da primeira nuvem veio com Max Planck, em 1900, ao propor que a luz, e as demais radiações eletromagnéticas, era emitida em pacotes discretos ("quanta", em latim) de energia E = hf cada um, onde f é a frequência da onda eletromagnética e h a Constante de Planck. Essa proposta foi rapidamente aceita pela comunidade científica, pois resolvia com estrondoso sucesso o problema da radiação de corpos negros, tornando Planck um dos mais notórios físicos desde Isaac Newton. Albert Einstein, em 1905, valendo-se da proposta de Planck de que a energia era quantizada, publicou um artigo explicando o efeito fotoelétrico (descoberto em 1889 por Heinrich Hertz) admitindo, para isso, o caráter corpuscular da luz. Desses dois artigos, Niels Bohr publicaria, em 1913, a ideia de órbitas eletrônicas estáveis. Em 1924, Louis de Broglie publicaria o seu artigo com a ideia de dualidade onda-partícula. Daí, seguiu-se Werner Heisenberg, Erwin Schrödinger, etc. Já a impossibilidade de se determinar a velocidade da Terra através do éter, que nada mais foi do que uma hipótese auxiliar para proteger o núcleo rígido da relatividade galileana (Teorema da Adição de Velocidades), seria somente resolvida com a eliminação do éter, visto que a teoria era degenerante, e a sua substituição pela Teoria da Relatividade Restrita de Einstein, em 1905. Por isso, eu também concordo com você que o desenvolvimento da ciência, tal como a condução de uma revolução científica, deve estar pautado não na influência ou na autoridade das instituições ou reuniões científicas (como a Royal Society e a Conferência de Solvay), mas no sucesso do novo paradigma em explicar o que o velho falhou. Historicamente, na verdade, é exatamente isso o que tem ocorrido nos últimos séculos de desenvolvimento científico, pelo menos na física. A condição de plebeu de Michael Faraday não foi suficiente para Humphry Davy impedi-lo de ser admitido na Royal Institution. E o sucesso de um novo paradigma, mesmo sendo liderado por uma nova geração de cientistas, é suficiente para que a geração anterior o aceite, ainda assim, pelo menos em física.

    ResponderExcluir
  10. Como o limite entre cada uma das participações é de 3 postagens, gostaria de tecer as principais críticas a Paul Feyerabend somente na tréplica. São tantas as minhas objeções à sua obra "Against Method" que serão necessárias 3 postagens. Ainda assim, gostaria de, ao menos, introduzi-lo ao debate. O que Feyerabend fez foi analisar a ciência do ponto de vista histórico para, então, argumentar que as grandes revoluções científicas somente foram possíveis devido à ausência de um único método. Desse modo, seria contraproducente exigir da comunidade científica a adoção de um único método ao invés de um pluralismo metodológico. Sobre isso, 2 objeções. Primeiro, a análise de Paul Feyerabend é do período em que a ciência surgia. A filosofia natural, fundamentada no método aristotélico, ia, pouco a pouco, sendo substituída pelo método científico galileano, a ciência propriamente dita. E como um ser vivo, pouco a pouco, ia se desenvolvendo, acertando de um lado, errando de outro. Mas somente os trabalhos identificados com o que Lakatos, séculos depois, formalizou, tiveram sucesso em face dos tropeços de uma ciência ainda muito jovem. O sucesso prático, principalmente da física, da química e da biologia, exigiram uma padronização com uma teorização sobre o método a ser seguido em ciência que culminou no surgimento da filosofia da ciência. Da impossibilidade do indutivismo de separar ciência de pseudo-ciência, como você já disse, foi proposto o falseacionismo. Da análise histórica das mais importantes teorias da história da ciência, Lakatos criou um programa de pesquisa a ser seguido. E, de fato, as teorias que mais contribuíram para o desenvolvimento da ciência, foram teorias que, embora não conscientemente, obedeceram, de uma forma ou de outra, um programa de pesquisa que mais tarde seria formalizado por Lakatos. O que eu vejo, historicamente, é que, embora existisse um pluralismo metodológico, apenas aquelas teorias identificadas com o que mais tarde seria conhecido como um programa de pesquisa lakatosiano, tiveram sucesso. Foi assim com Nicolau Copérnico, Johannes Kepler e Isaac Newton. Além disso (essa é a segunda objeção), um dadaísmo metodológico inviabilizaria toda e qualquer cooperação internacional em determinada pesquisa, pois se cada um usar o método que desejar, ninguém entenderá um ao outro. Isso me lembra o renascimento comercial europeu, quando cada país tinha uma tabela diferente de conversão de medidas, prejudicando a troca comercial entre os países. Disso, fez-se fundamental a padronização com a adoção de uma tabela de conversão de medidas comum entre os países que trocavam mercadorias. Por isso, o pluralismo metodológico vai contra a ideia de unidade na ciência.

    ResponderExcluir
  11. Réplica

    Caro Patrick, estou muito feliz que estamos chegando a uma opinião semelhante. Esse debate tem sido muito profícuo para mim também.

    Sobre a questão do autoritarismo e da estrutura Kuhniana das revoluções científicas, concordo com você que as revoluções ocorridas na física no início do século XXI foram exemplares em termos de boa prática científica. No entanto, essas revoluções foram um caso sui-generes na história da ciência, e não podem ser consideradas representativas da estrutura do progresso científico como um todo. Em ambos os casos que você citou, um fator determinante para a objetiva consideração das evidências foi o fato de que ideias em antagonismo ao paradigma vigente foram rapidamente adotadas por cientistas visionários influentes e com autoridade para se opor a resistência de outros membros da comunidade. No caso da revolução da física quântica, por exemplo, ouve o fator notório da forte de resistência de Einstein aos preceitos da mecânica quântica probabilística, em particular ao princípio da incerteza de Heisenberg, mesmo com a grande quantidade de evidências experimentais a favor dessa interpretação. A mecânica quântica só continuou avançando porque Niels Bohr defendeu seu ex-aluno (Heisenberg), inclusive avançando suas ideias com a proposição da interpretação de Copenhagen. Nesse contexto, a mecânica quântica pode continuar ganhando adeptos mesmo com a resistência de grande parte da comunidade. Talvez o avanço científico da época não fosse o mesmo caso Heisenberg tivesse sido deixado para defender sozinho sua teoria, ou se ele não tivesse sido ex-aluno de Bohr. Uma boa análise das questões políticas por trás da revolução da física quântica do inicio do século XX pode ser encontrado no livro The Making of the Atom Bomb, por Richard Rhodes (2008). Esse livro rendeu o Prêmio Pullitzer ao autor e é simplesmente espetacular; recomendo-o a todos.

    Talvez o caso histórico mais triste e impactante de como o autoritarismo restringe o progresso científico foi a rejeição de Ignaz Semmelweiz no começo da revolução da microbiologia, ocorrida no começo do século XIX. Semmelweiz era um médico húngaro especializado em obstetrícia que clinicava no Hospital Geral de Vienna e 1846. Na época, o principal problema na prática obstétrica era a chamada febre puerperal, uma doença infecciosa que quase sempre resultava na morte da mãe e do recém-nascido. Era conhecido que partos realizados por médicos (todos homens e graduados) resultavam em consideravelmente mais mortes por febre puerperal (10% de mortalidade média) do que partos realizados por parteiras (mulheres, geralmente com pouca instrução formal) (4% de mortalidade média).

    Semmelweiz, através de cuidadosa observação, conectou a incidência da febre com a prática, extremamente comum entre os médicos, de atenderem aos partos logo após estarem inspecionando cadáveres e outros materiais putrefatos. Através de uma pesquisa extremamente criteriosa, até para parâmetros atuais, Semmelweiz chegou à conclusão que a transferência de material contaminado dos cadáveres para os pacientes era o fator responsável pela altíssima incidência da febre puerperal entre os atendidos pelos médicos. Dessa forma, ele estabeleceu que todos os médicos do seu departamento teriam que lavar suas mão antes de realizar partos, algo que hoje nos parece tão banal. Com esse simples procedimento, ele conseguiu reduzir a mortalidade por febre puerperal para até menos de 1% (!).

    ResponderExcluir
  12. No entanto, a proposição de Semmelweiz foi recebida com escárnio e até ódio pela comunidade médica e científica europeia. Ela contrariava o paradigma da época de que doenças eram causadas por “maus ares” ou “miasmas”. Além disso, a ideia de que homens de alta posição social, como os médicos, pudessem ter mão “sujas” foi vista como insultante. Semmelweiz também sofria com o preconceito por ser Húngaro, sendo, portanto, considerado inferior pelos Austríacos. Pelo seu esforço, ele foi demitido do hospital e jamais conseguiu se empregar em medicina em Vienna novamente. Vários médicos, para desafiar as conclusões dele, passaram a deliberadamente manipular cadáveres antese de realizar partos, o que levou aumentou em seis vezes (!) a taxa de mortalidade por essa doença entre os pacientes do Hospital Geral de Vienna. Face ao que ele considerou uma extrema injustiça e cruel irracionalidade, Semmelweiz teve um colapso nervoso e foi internado compulsoriamente em uma instituição para doentes mentais, onde ele morreu duas semanas depois de infecções provavelmente geradas pelos maus tratos diários. A ideia de assepsia médica só foi ser adotada pela comunidade médica europeia após a demonstração da teoria microbiana das doenças por Louis Pasteur (na época já um pesquisador com autoridade), mais de 20 anos após a demonstração clínica e epidemiológica de Semmelweiz. Acredita-se que, só em Vienna, a rejeição das idéias de Semmelweiz resultaram na morte de mais de 14000 mulheres e crianças recém-nascidas.

    Além desse triste exemplo, existem vários outros que não terei tempo para abordar, como a rejeição quase total por mais de três décadas da teoria das placas tectônicas de Wegener, a permanência da teoria flogística na comunidade química mesmo anos após a demonstração da combustão oxídativa por Lavosier, dentre vários outros.

    Esses casos mostram que Kunh tem sim razão ao destacar a importância de fatores sociológicos na história da ciência e a sua análise historiográfica é extremamente acurada, infelizmente. Só que enquanto ele defende que essa características sejam incorporados à epistemologia científica, eu acredito que isso é um equívoco. Os exemplos anteriores deixam claro como o preconceito, autoritarismo e irracionalidade podem atrasar em décadas, as vezes séculos, o progresso da ciência. Em um contexto Lakatosioano, não acho que seja útil para a comunidade científica que esse tipo de fator interfira na degeneração ou progressão de um programa de pesquisa; estes devem ser avaliados, de forma mais fidedigna possível, dento dos parâmetros do falseacionismo e da força das hipóteses auxiliares e do corpo de evidência sustentando o núcleo rígido.

    ResponderExcluir
  13. Sobre Feyrabend, acho que está claro que nenhum de nós concorda com ele. Admitimos que ele parte de uma observação que é sim correta: todas as várias interpretações da verdade científica, da lógica Aristotélica, ao empiricismo Baconiano, passando pelo indutivismo lógico e chagando ao faleacionismo Popperiano, tiveram sim, cada uma em seu dado tempo, grande importância e produziram bons resultados. Ou seja, do ponto de vista histórico, não há um único “método científico”, o que até certo ponto real. No entanto, a partir dessa observação ele deduz, a meu ver erroneamente, que cada método é igualmente válido e que, portanto, não há como privilegiar um sobre o outro. Na interpretação dele, não faz sentido, e seria inclusive “desumano” tentar forçar toda a comunida acadêmica a seguir uma única forma de lógica.

    Eu acredito que o erro de Feyrabend foi duplo: 1) o de avaliar cada método como sendo igual aos demais, e 2) considerar que a estrutura real da produção científica é capaz de sustentar a prática do dadaísmo metodológico. O fato de que cada método teve sua importância não significa que todos sejam igualmente lógicos, válidos ou eficientes, como discutirei abaixo. Esse fato significa que cada cientista, assim como as agências de fomento que financiam seu trabalho, tem a responsabilidade de escolher qual método epistemológico norteará a sua pesquisa. Devido ao fato de que os recursos financeiros, estruturais e humanos dedicados à pesquisa científica são limitados, é crucial que pesquisadores, universidade e agências de fomento tomem decisões administrativas que privilegiam o método que tem maiores chances de produzir resultados cientificamente relevantes e úteis.

    Mas como definir que método seria esse? Em minha análise, poderíamos classificar cada diferente “método científico” como sendo em si um paradigma Kuhniano, ou um programa de pesquisa Lakatosiano, só que englobando todos os outros paradigmas e programas que foram desenvolvidos dentro da sua lógica epistemológica. Nesse contexto, a validade e a aceitação de cada método científico seriam definidas historicamente de acordo com as mesmas leis que gerem a estrutura das revoluções científicas Kuhnianas, e idealmente de acordo com regras semelhantes às definidas por Lakatos para a progressão e degeneração de programas de pesquisa. Nesse contexto, um “método científico” substituiria outro a medida que os programas de pesquisa desenvolvidos utilizando sua lógica epistemológica se demonstrassem mais acurados em suas predições, mais úteis em suas aplicação e mais abrangentes em suas explicações do que os programas desenvolvidos sob a ótica do método concorrente. O “método cientifico” dominante seria, portanto, definido de acordo com uma análise utilitarista, sendo julgado de acordo com os resultados que ele produz. Dentro desse framework, o falseacionismo Popperiano apresentou grandes vantagens e fomentou programas muito mais bem sucedidos do que o indutivismo lógico, a exemplo de todos os programas que hoje utilizam análises estatísticas para validar seus resultados. A própria síntese de Lakatos é totalmente baseada no princípio da falseabilidade. Portanto, os princípios epistemológicos Popperianos devem sim ser privilegiados em detrimento de métodos mais antigos. Porém, sempre há possibilidade para a evolução da lógica científica, desde que a mesma seja baseada em evidências e teorias concisas, o que em minha opinião anula a crítica de Feyrabend de que a imposição metodológica é desumana. Acredito que essa interpretação se assemelha mais ao que tem acontecido de forma histórica no desenvolvimento científico e se encaixa bem nas limitações estruturais da atividade científica moderna.
    Enfim, não terei mais espaço para expor o resto das minhas ideias sobre essa interpretação aqui na réplica. Passo a bola para você caro Patrick. Estou ansioso para saber sua opinião sobre esses assuntos.

    ResponderExcluir
  14. Finalizando minha crítica a Paul Feyerabend:

    Eu concordo que o grande erro de Feyerabend foi, partindo da ideia de que as revoluções científicas somente foram possíveis devido a um pluralismo metodológico, admitir que todos os métodos são igualmente válidos e, por isso, o pluralismo metodológico anarquista deveria ser inserido na epistemologia científica. Um contra-exemplo consistente à epistemologia feyerabendiana é a hipótese "ad hoc", que em física nunca teve sucesso. Quando Michelson e Morley não conseguiram medir a velocidade da Terra através do éter e muito menos medir velocidades diferentes para a luz em referenciais inerciais distintos, Lorentz, via hipótese "ad hoc", a fim de salvar do fracasso o éter luminífero, que, na verdade, era uma hipótese auxiliar do cinturão que protegia o núcleo rígido da relatividade de Galileu (Teorema da Adição de Velocidades), admitiu que corpos que se moviam através do éter tinham o tempo dilatado e o espaço contraído. Lorentz não tinha nenhuma evidência de que isso realmente ocorria. Na verdade, a dilatação do tempo e a contração espacial nada mais foram do que uma hipótese "ad hoc" para comportar, ao menos matematicamente, os resultados do experimento de Michelson-Morley e, desse modo, sustentar o éter. Einstein, em 1905, argumentaria em favor da validade do Princípio da Relatividade para, então, abandonar o Teorema da Adição de Velocidades de Galileu e o éter, assumindo o caráter absoluto da velocidade da luz no vácuo. Fazendo um paralelo com a Mecânica Quântica, a admissão de hipóteses "ad hoc" ou de postulados sem quaisquer evidências empíricas em favor deles também nunca teve sucesso. Bohr, em seu modelo atômico, assumiu 4 postulados, dos quais 1 está incorreto e 1 parcialmente correto. Ele assim fez para poder explicar a dificuldade até então insuperável entre a mecânica clássica e a teoria atômica. Apesar de explicar relativamente bem o átomo de hidrogênio, o modelo atômico de Bohr foi um fracasso em relação aos demais átomos. Somente com o princípio da incerteza de Heisenberg e a equação de função de onda de Schrödinger que o átomo pôde, enfim, ser explicado em sua totalidade. Logo, Feyerabend está errado quando diz que o progresso científico sob um critério monista não é possível em um contexto metodológico pluralista. Incluir o dadaísmo anarquista feyerabendiano na epistemologia científica seria um equívoco, pois somente o método pautado em um programa de pesquisa lakatosiano e no falseacionismo popperiano é eficaz no que diz respeito ao desenvolvimento científico. Ainda que o pluralismo metodológico seja uma realidade - Einstein partiu da afirmação do Princípio da Relatividade e do eletromagnetismo de Maxwell-Lorentz para formular sua mecânica e a plêiade de físicos do início do século XX partiram da total negação da mecânica clássica em favor da evidência da natureza probabilística do elétron para construir a mecânica quântica - nem todos os métodos são igualmente válidos, mas apenas aqueles que estão em harmonia com o lakatosianismo e o falseacionismo popperiano. Ainda que teorias como a mecânica clássica e a Teoria da Relatividade Geral sejam incomensuráveis entre si, a falta de correspondência entre uma e outra não sustenta a adoção do dadaísmo anarquista feyerabendiano na epistemologia científica.

    ResponderExcluir
  15. No mais, eu também concordo que o autoritarismo em ciência seria desastroso. E como foi! Foram o ressentimento e a inveja dos professores aristotélicos que culminaram no julgamento e na prisão domiciliar de Galileu. Devemos, portanto, afastar da epistemologia científica quaisquer autoritarismo, subjetividade, paixão do teórico com a sua teoria e valores morais dos cientistas. Ainda assim, devemos ser rigorosos em relação aos experimentos que falseiam uma teoria, sendo ela de grande importância para a ciência. Cito, por exemplo, a mecânica relativística, que proíbe que partículas sejam aceleradas a velocidades superiores a da luz. No experimento do laboratório de Gran Sasso, neutrinos teriam sido acelerados a velocidades superiores a da luz. Repetiram o experimento 15 mil vezes e sempre o mesmo resultado. Segundo o falseacionismo popperiano, depois de um experimento ser repetido à exaustão 15 mil vezes e, em todas as vezes, falsear uma determinada teoria, ela deveria ser abandonada. Descobriu-se, mais tarde, no mesmo laboratório, que havia uma má conexão entre o GPS e um dos computadores, o que provocava um delay e, portanto, um erro sistemático no experimento. Então, caro duelista, pergunto-lhe: quando, na sua opinião, é seguro admitir como falseada uma teoria?

    ResponderExcluir
  16. Tréplica

    Muito bem Patrick. Continuamos evoluindo a um bom ritmo. Antes de entrar na tréplica propriamente dita, gostaria só de comentar algumas de suas afirmações. Nós claramente concordamos em relação à origem do erro máximo de Feyrabend: considerar que todos os métodos são igualmente válidos. No entanto, preciso alertar que a sua afirmação de que “nem todos os métodos são igualmente válidos, mas apenas aqueles que estão em harmonia com o lakatosianismo e o falseacionismo popperiano” é absolutista demais. Em minha opinião, o mais correto seria: “atualmente os métodos mais eficientes (ou válidos, lógicos, etc.) são aqueles que estão em harmonia com o lakatosianismo e o falseacionismo popperiano”. É preciso deixar claro que a filosofia da ciência e a própria concepção do método científico não são entidades estáticas, mas sim dinâmicas e passíveis de revisão e mudança. Isso é crucial, pois é na capacidade de auto-revisão e mudança que a ciência tem uma das suas maiores forças. Acho extremamente improvável que o avanço da epistemologia científica tenha morrido com Popper e Lakatos. Nada impede que no futuro esses conceitos sejam completamente revolucionados.

    Gostei muito da sua pergunta sobre o que seria necessário para falsear uma teoria. Estava querendo abordar esse assunto desde o início do debate, e agora tenho a deixa perfeita. Atualmente, na prática científica, o padrão ouro para que uma teoria seja falseada é quando as evidências contrárias à mesma são produzidas de forma independente por pelo menos dois grupos de pesquisa, de preferência utilizando métodos distintos. O melhor exemplo que conheço foi a recente revolução no estudo do tecido adiposo marrom (TAM) em humanos adultos. O TAM é um tipo específico de tecido adiposo com propriedades termogênicas, e era conhecido que ele era particularmente abundante em pequenos mamíferos (principalmente aqueles habitantes de regiões frias) e em bebês humanos. A teoria vigente até abril de 2009 era de que humanos adultos não teriam TAM funcional, ou seja, que esse tecido se degeneraria durante o processo de maturação humana normal. No entanto, em abril de 2009, três grupos, trabalhando independentemente e utilizando métodos relativamente distintos (variando de PET scans até a análise de RNAs mensageiros), publicaram três artigos com evidências experimentais claras de que humanos adultos possuem sim TAM funcional, todos na mesma edição do “New England Journal of Medicine”, o periódico com maior fator de impacto na área de pesquisas médicas (van Marken Lichtenbelt et al. 2009; Virtanen et al. 2009; Cypess et al. 2009). Devido à consistência das evidências apresentadas e o fato delas terem sido produzidas por grupos diferentes (analisando populações distintas e usando métodos complementares) a teoria anterior foi completamente dizimada em apenas uma edição de um periódico.

    Em contraste com o exemplo que você deu (o dos neutrinos ultrapassando a velocidade da luz), todos os pontos amostrais foram produzidos por apenas um grupo, utilizando apenas uma abordagem metodológica. Nesse caso, a evidência apresentada possui pouca força e permanece sob suspeita, visto a grande possibilidade dos resultados produzidos terem sido enviesados pelos pesquisadores ou serem apenas artefatos metodológicos (como foi o caso do experimento de Gran Sasso). No mundo altamente competitivo da ciência moderna, é muito comum que grupos realizem experimentos visando derrubar as evidências propostas por outro laboratório ou tentando ver se determinada proposta já publicada se sustenta em diferentes situações experimentais ou em populações distintas. Esse processo de confirmação por grupos independentes é crucial para a validação de evidências e, portanto, para o estabelecimento da falseabilidade de teorias e o avanço dos programas de pesquisa.

    ResponderExcluir
  17. Preciso deixar claro, porém, que esse processo dificilmente é tão claro como no caso do TAM (de fato, esse foi um exemplo bastante raro). A maioria dos processos de falseação de uma teoria demora anos, até décadas. Um caso que me é bem querido (foi parte integral da minha pesquisa de Mestrado) é o da recente reinterpretação das interações entre células da glia e neurônios. Quando das primeiras análises histológicas do tecido nervoso no final do século XIX, as células do cérebro foram divididas em neurônios e células gliais. Os neurônios foram postulados desde muito cedo como sendo os principais componentes do tecido nervoso, devido as suas morfologias exuberantes. As demais células do cérebro foram definidas por Virchow (um dos pais da histologia moderna) como sendo somente “cola” para os neurônios, e daí surgiu o nome células da “glia” (“cola” em grego). Essa teoria, de que as glias seriam somente células de suporte para os neurônios, perdurou até o inicio da década de 90, quando o advento de novas técnicas para investigação celular, em conjunto com a inquietação de vários laboratórios independentes que questionavam essa definição de quase 150 anos, levou a produção de várias evidências experimentais que indicam que as células da glia na verdade não dão apenas suporte para neurônios, mas sim executam processos bioquímicos e de computação neural essenciais para a formação de novas memórias, controle comportamental e vários outros processos do cérebro (Haydon and Carmignoto 2006; Perea, Navarrete, and Araque 2009). Dessa forma, se pensaria que esta revolução estaria completa: a teoria anterior, de que células da glia teriam somente função de suporte, caiu por terra e outra teoria a suplantou. No entanto, da mesma forma que se produziu (e ainda se produz) evidências a favor de uma participação mais ativa da glia no processamento neural, outros grupos, de forma independente e usando métodos levemente distintos, produziram (e continuam produzindo) evidências que indicam exatamente o oposto! Esses outros grupos se contrapõem aos defensores da nova teoria afirmando que as evidências apresentadas pelos mesmos são primariamente artefatos metodológicos e que seus resultados estão sendo “super-interpretados”, i.e. estão tendo conclusões que não se justificam nas evidências (Fiacco, Agulhon, and McCarthy 2009; Nedergaard and Verkhratsky 2012). Recentemente, o periódico Nature publicou um editorial abordando exatamente a polarização entre esses grupos e a força que esse debate está tendo na comunidade neurocientífica mundial (Smith 2010).

    Dessa forma, como então decidir quem tem razão? Simplesmente não há como. Ainda serão precisos vários anos de novos experimentos, o desenvolvimento de novas técnicas e inúmeros debates entre grupos em oposição para se decidir quem tem razão. No contexto desse debate, os dois programas de pesquisa em oposição nessa área ainda estão competindo de forma igualitária, e não há uma perspectiva clara de qual deles irá eventualmente progredir e qual irá degenerar. Pelo menos na minha área essa é a situação da grande maioria das principais teorias. O mesmo é verdade para a física de partículas, onde atualmente há uma grande competição entre pesquisadores defensores de abordagens de física quântica mais clássicas e defensores das diversas teoria das cordas (incluindo a teoria das supercordas e a teoria da matriz de cordas) estão em competição ativa para determinar qual abordagem levará a uma teoria unificada das forças físicas. Para mim é exatamente aí que está a grande força da proposição de Lakatos: ela é capaz de explicar não somente porque uma teoria deve ser abandonada em função de outra, mas também o porque esse processo não é instantâneo. Lakatos fornece uma explicação lógica e real para os processos de debate e competição que são a regra da prática científica atual, sem a necessidade de glorificar as relações de autoridade, como fez Kuhn.

    ResponderExcluir
  18. Finalizando, o padrão ouro atual para que uma teoria seja falseada é quando as evidências contrárias são produzidas de forma independente por vários grupos de pesquisa e utilizando métodos distintos, mas a duração do processo de falseação (que segue as regras de degeneração e progressão de programas de pesquisa definidas por Lakatos) pode variar de alguns dias até décadas dependendo da área do conhecimento, das abordagens metodológicas evolvidas e, é claro, dos pesquisadores engajados com o problema.

    Referências

    Cypess, Aaron M., Sanaz Lehman, Gethin Williams, Ilan Tal, Dean Rodman, Allison B. Goldfine, Frank C. Kuo, et al. 2009. “Identification and Importance of Brown Adipose Tissue in Adult Humans.” New England Journal of Medicine 360 (15): 1509–1517. doi:10.1056/NEJMoa0810780.

    Fiacco, Todd A, Cendra Agulhon, and Ken D McCarthy. 2009. “Sorting Out Astrocyte Physiology from Pharmacology.” Annual Review of Pharmacology and Toxicology 49: 151–174. doi:10.1146/annurev.pharmtox.011008.145602.

    Haydon, Philip G, and Giorgio Carmignoto. 2006. “Astrocyte Control of Synaptic Transmission and Neurovascular Coupling.” Physiological Reviews 86 (3) (July): 1009–1031. doi:10.1152/physrev.00049.2005.

    van Marken Lichtenbelt, Wouter D., Joost W. Vanhommerig, Nanda M. Smulders, Jamie M.A.F.L. Drossaerts, Gerrit J. Kemerink, Nicole D. Bouvy, Patrick Schrauwen, and G.J. Jaap Teule. 2009. “Cold-Activated Brown Adipose Tissue in Healthy Men.” New England Journal of Medicine 360 (15): 1500–1508. doi:10.1056/NEJMoa0808718.

    Nedergaard, Maiken, and Alexei Verkhratsky. 2012. “Artifact Versus reality—How Astrocytes Contribute to Synaptic Events.” Glia 60 (7): 1013–1023. doi:10.1002/glia.22288.

    Perea, Gertrudis, Marta Navarrete, and Alfonso Araque. 2009. “Tripartite Synapses: Astrocytes Process and Control Synaptic Information.” Trends in Neurosciences 32 (8) (August): 421–431. doi:10.1016/j.tins.2009.05.001.

    Smith, Kerri. 2010. “Neuroscience: Settling the Great Glia Debate.” Nature 468 (7321) (November 11): 160–162. doi:10.1038/468160a.

    Virtanen, Kirsi A., Martin E. Lidell, Janne Orava, Mikael Heglind, Rickard Westergren, Tarja Niemi, Markku Taittonen, et al. 2009. “Functional Brown Adipose Tissue in Healthy Adults.” New England Journal of Medicine 360 (15) (April 9): 1518–1525. doi:10.1056/NEJMoa0808949.

    ResponderExcluir
  19. Kauê, esse é, sem dúvida, o melhor duelo que travei no grupo Duelos Retóricos. Ambos ganharam com ele. Ainda assim, acredito que eu ganhei mais. Você respondeu brilhantemente todas as questões que lhe apresentei. Com isso, pude refletir sobre as minhas leituras em relação ao Karl Popper, que são recentes, confesso. Sua tréplica, em minha opinião, encerrou de modo igualmente brilhante esse duelo. Por isso, gostaria de lhe pedir licença para que, em minhas considerações finais, faça um paralelo com outro duelo que está sendo travado no grupo Duelos Retóricos, o duelo entre o Chico e o Jadiel sobre relativismo moral. Eu discordo veementemente de muitas colocações do Jadiel; para mim, fruto de ou falta de leitura dos autores que ele citou ou desonestidade mesmo, objetivando, dessa maneira, vencer seu oponente a qualquer preço. Para não ser acusado por ele de deturpar as palavras dele, vou, passo a passo, copiando e colando o que ele disse para, então, em seguida, contra-argumentar. Em suas considerações finais, gostaria que você, Kauê, também fizesse a sua análise.

    "O Chico confundi um pouco os conceitos e a minha introdução irá ajudá-lo. Primeiro, meu caro, a filosofia pragmática, no qual faz parte Popper, não descarta a existência de algo Absoluto, tanto os pragmáticos quanto os analíticos buscaram uma conceituação nova para o termo filosófico e passaram aceitar uma ideia de absoluto que fosse mais próximo da realidade cotidiana e fugir de qualquer caráter metafisico. O Absoluto no sentido pragmático seria algo que mesmo passando pela análise de refutabilidade ainda sim se mantém irrefutável. É um “objeto” que é passível de análise e crítica mas que se mostra absoluto não conseguindo refutar. Você está pensando o termo Absoluto como os metafísicos e quase esbarrando no dogmatismo teológico. Um dogma, como o citado da Imaculada Conceição, seria o caso de absoluto metafísico que importa apenas a afirmação e não a observação, e um assunto que nem chega perto da mente de um pragmático ou um analítico, como o Popper, por ser um “objeto” que não tem uma conclusão e nem se dá ao luxo da refutabilidade. Não tem como!" Jadiel

    Essa passagem eu deixo para você analisar, Kauê, uma vez que leu mais Popper do que eu. Pelos 2 livros que li dele, a saber, "Objective Knowledge" e "Conjectures and Refutations", para Popper, uma teoria somente seria científica se, a princípio, pudesse ser falseada, isto é, admitisse, através de uma contra-evidência, ser demonstrada falsa. Teorias como o marxismo são exemplos de teorias não-científicas, pois não há nenhum experimento capaz de falseá-las. Gostaria que você, Kauê, falasse um pouco sobre o que Popper disse sobre a questão do "absoluto", se é que ele disse alguma palavra sobre isso.

    "Então, o absoluto existe no pragmatismo DESDE QUE ele se mantenha irrefutável pela análise ou método de refutabilidade. Um exemplo de absoluto pragmático seria a partícula indivisível ou a famosa partícula de Deus, que os cientistas do CERN tanto procuram no acelerador. Desde os atomistas na Grécia, Demócrito e Leucipo, se procura o famoso “átomo” (do grego, indivisível), mas sabemos que não é o átomo a menor partícula, depois descobrimos os elétrons, prótons, nêutrons, quárks, neutrinos, hádrons, porém, a menor partícula, aquela que não pode mais ser dividida seria algo absoluto e mesmo que em um futuro distante, com um novo acelerador, essa partícula se manteria indivisível. Apesar de ser algo que pode ser refutado, a partícula indivisível continuará absoluta no seu conceito." Jadiel

    ResponderExcluir
  20. Eu não sei se rio ou se choro com essa passagem. Vê-se que o Jadiel fez um malabarismo vergonhoso com a palavra "absoluto". Faço questão de dizer em letras garrafais que NÃO HÁ ABSOLUTO EM CIÊNCIA! O nome que é dada à partícula que é indivisível não é "partícula absoluta", Jadiel, é "partícula elementar". É comum pessoas como você, que pouco ou nada sabem de física, cometerem erros primários como esse. São várias as partículas INDIVISÍVEIS e, portanto, ELEMENTARES já descobertas, a saber: o elétron, os 6 quarks, o múon, o tau, o neutrino do elétron, o neutrino do múon, o neutrino do tau, o glúon, os bósons W e Z, o fóton, o gráviton e o bóson de Higgs (as 2 últimas ainda não confirmadas). Essas partículas, repito, são indivisíveis e denominadas "elementares" (ou, ainda, "fundamentais"). A denominação "absoluta" é demasiado imprópria e infeliz.

    "Parece simples, é assim mesmo para explicar o conceito. Já citei o fato da existência do sol ser algo absoluto e a partícula indivisível, mas parece que você está falando em conhecimento absoluto no sentido de se conhecer tudo até mesmo de conhecimento de tudo que envolva apenas um tema. Eu já falo não de uma sabedoria de tudo sobre todas as coisas, mas de algo que seja um princípio, como a partícula indivisível que seria o princípio da matéria, a partícula absoluta que não depende de nenhuma outra partícula para se formar."

    Engraçado que o Jadiel chama de partícula absoluta a partícula indivisível e, agora, também diz que a partícula indivisível não precisa de outra para se formar. Se ele realmente soubesse o assunto "física de partículas", saberia de um fenômeno denominado "decaimento beta", onde um nêutron (uma partícula divisível) decai (transforma-se) em um próton, um elétron e um anti-neutrino do elétron (sendo as 2 últimas, partículas INDIVISÍVEIS e, portanto, ABSOLUTAS segundo o Jadiel, o que contradiz a definição dele de absoluto: em si e por si). Se para ele "absoluto" é "em si e por si" e uma partícula indivisível é um absoluta, sendo o elétron uma partícula indivisível (e, por tanto, absoluta segundo o Jadiel), como conciliar isso com o fato de que o elétron pode ser formado (causado) em um decaimento radioativo, uma vez que, segundo o Jadiel, ele independe de outra partícula para se formar? Em outras palavras, como um absoluto pode ser causado?

    "A verdade científica é diferente da verdade filosófica. Uma verdade científica é aquela que não se altera pelo crivo da análise do método científico, pelo contrário é sempre confirmada. Por isso, a ação da amoxicilina contra bactérias é uma verdade científica e usada em remédios como confirmação de um fato ou verdade científica. Já a verdade filosófica é um mistério, algo constantemente perseguido e um conceito difícil de se afirmar. Então o absoluto pragmático é aquele que mesmo sendo objeto de refutação, se mantém irrefutável ao longo dos séculos." Jadiel

    "Na sua primeira pergunta, eu já mostrei que o conceito de absoluto também é aceito pelos pragmáticos, usando o método científico. E é com esse mesmo método que se confirma um fato e se aproxima da realidade. Existe uma diferença entre ser exato e ser preciso. A realidade científica é exata, próxima a realidade mas pode falhar na precisão, ou seja, o quanto consegue apreender e compreender a realidade. Um esquizofrênico vive sensações próprias, cria uma realidade própria que não são compartilhadas pelas demais pessoas." Jadiel

    ResponderExcluir
  21. "Acho que já respondi. O termo absoluto passa a ser considerado algo de difícil refutação ou aquele que se mantém inalterado pela análise crítica a partir dos filósofos pragmaticistas. Ao contrário do que você disse, o conhecimento científico é seguro porque possui um método de verificação de todas as suas afirmações, e não porque “admite que a explicação da realidade seja relativa”, independe se é relativo ou absoluto, mas sim se é verificado, testado ou examinado."

    Essas passagens também deixo para você analisar, Kauê.

    "A discussão NÃO é semântica, o termo absoluto tomado em sua raiz do latim, em si e por si, já resolve essa problemática sobre o uso do termo. Os filósofos pragmaticistas, como o Popper por exemplo, empregam o termo absoluto em seus artigos, quando falam por exemplo, dos estudos dos gases em volume e pressão [absoluta], no estudo da termologia, quando tratam a questão da temperatura [absoluta] ou no estudo da relatividade, quando tratam da velocidade da luz no vácuo como a velocidade limite do universo [absoluta], veja meu caro, que não é o valor de 300.000 km/s o “objeto” absoluto, mas sim a “velocidade” da luz. Enfim, esses exemplos foram para sepultar de uma vez por todas a questão da terminologia, estou indo na raiz latina do termo, sem me alongar nos inúmeros conceitos que este termo teve ao longo da filosofia." Jadiel

    "Agora, para os filósofos pragmaticistas, ou pragmáticos, ou analíticos, a verdade científica deve ser amparada pela experimentação e seguir o método científico, e enquanto se mantiver constante e ir se confirmando, aquele conceito se manterá absoluto. Enquanto a velocidade da luz no vácuo for o limite das velocidades no Universo, ela é um conceito absoluto para a ciência. O valor da velocidade pode até sofrer mudanças, seja ela 300 mil ou 301 mil, ou 400 mil, mas ainda sim será a velocidade da luz a velocidade absoluta do Universo." Jadiel

    ResponderExcluir
  22. Primeiro, sobre a velocidade da luz no vácuo. Quando Maxwell determinou, matematicamente, a velocidade da luz no vácuo (e de todas as outras ondas eletromagnéticas), chegou à conclusão de que essa velocidade, representada pela letra "c", independeria dos estados de movimento dos referenciais inerciais, o que violava o Teorema da Adição de Velocidades da Mecânica Clássica. Ao invés de abandonarem o referido teorema, em um primeiro momento, abandonaram o Princípio da Relatividade em favor de um referencial inercial absoluto, o éter. Michelson e Morley, com um interferômetro (cuja precisão era de 4 casas decimais), não mediram velocidades diferentes para a luz em referenciais inerciais distintos. Em favor do Princípio da Relatividade, Einstein abandonou o éter (repito, um referencial inercial absoluto) e postulou que a velocidade da luz seria a mesma para todos os referenciais inerciais. Por não ser uma velocidade relativa, diz-se que a velocidade da luz é absoluta. Mas o que está em questão aqui é o conceito de movimento relativo, do qual a luz não compartilha. Isso nada tem a ver com o que o Jadiel diz. Além disso, ele confunde "absoluto" com "limite". E mesmo que "absoluto" fosse "limite" de alguma coisa, pois quem disse para ele que o "zero absoluto" é o limite de temperatura? Jadiel, aviso-lhe, a Termodinâmica é, de longe, a matéria mais difícil de física. Isso é consenso mesmo entre professores-doutores. Você pode SIM chegar a temperaturas menores que o "zero absoluto"! É que isso não é ensinado no ensino médio. Mas se tivesse feito física ou engenharia em uma instituição como o ITA, saberia disso. Voltando para a velocidade da luz, ao contrário do que você disse em um comentário fora do duelo, esse não é um conceito absoluto em física. John Webb mesmo, em um artigo, teoriza sobre uma possível contra-evidência acerca da luz como velocidade limite do universo. Nenhum conceito de física é absoluto, mas sempre suscetível à mudança e revisão. Partículas que viajam mais rapidamente que a luz são previstas teoricamente, embora, ainda, não confirmadas. Pontos geométricos, por exemplo, viajam mais rapidamente que a luz (pesquise sobre o Paradoxo da Tesoura). Para a velocidade da luz ser um conceito absoluto 1) ela teria que ser não-científica e, portanto, irrefutável (segundo o falseacionismo de Popper) e 2) sua medição teria que ser precisão infinita. O interferômetro de Michelson-Morley tinha uma precisão de 4 casas decimais. O experimento de Fizeau, que também visa confirmar a constância e independência da velocidade da luz, tem um erro percentual inferior a 1% (de acordo com a última medida, feita por Zeeman).

    ResponderExcluir
  23. Bem Patrick, eu realmente não quero me envolver com nenhum outro debate além do nosso. Eu acho que por enquanto estamos demonstrando o quanto as atividades desenvolvidas dentro desse grupo podem ser profícuas para todos, desde que não haja insultos, picuinhas ou rusgas de cunho pessoal. Para manter o caráter exemplar do nosso debate, eu não irei comentar diretamente sobre afirmações feitas em outros debates. Além do mais, acho que já respondi bastante ao Jadiel nos comentários do Facebook.

    Nesse contexto, o que me disponho a fazer é responder uma das perguntas diretas que você me fez que eu achei altamente pertinente e útil dentro do contexto do nosso debate: qual a visão de Popper sobre o conceito de “absoluto” em ciência. Essa pergunta é crucial e é bastante discutido por Popper no “Conjectures and refutations”. No capítulo “Truth, rationality and the growth of knowlegde”, Popper reitera que deve existir uma “verdade absoluta” (ou verdades absolutas) que representa tudo o que acontece objetivamente no mundo real, ao estilo do que foi proposto por Xenofanes e Aristótele. Dessa forma, ele se autoafirma como um filósofo realista e se opõem a interpretações solipsistas e relativistas do mundo real. No entanto, dentro do contexto da epistemologia científica, Popper argumenta que nós nunca seremos capazes de classificar um dado conhecimento humano como sendo parte dessa verdade absoluta. Isso ocorre devido à dois principais fatores.

    Primeiramente, devido as restrições ao probabilismo, argumentadas durante a refutação do indutivismo lógico, não é possível calcular ou estimar o quanto uma determinada teoria está próxima da verdade absoluta; nós podemos somente, como demonstrado na proposição do falseacionismo, saber se uma dada teoria não se adéqua a realidade observável.

    Segundo, não há um método objetivo de se determinar se uma dada teoria, mesmo que ela não tenha ainda sido falseada, corresponde à verdade absoluta. Popper compara essa situação a um alpinista escalando uma montanha cujo pico está sempre coberto por nuvens. O alpinista, além de ter vários problemas para escalar a montanha, não tem certeza de quando ele realmente chegou no pico, já que as nuvens impedem-no de distinguir o verdadeiro topo da montanha de um pico subsidiário. Isso não afeta de nenhuma forma a existência do pico da montanha, e o próprio alpinista, ao reconhecer sua dúvida “será que cheguei ao topo?” reconhece a existência objetiva do pico. Da mesma forma, embora o alpinista não saiba se ele chegou ao pico, ele pode reconhecer quando ele não chegou lá, seja pela inclinação do solo ou pelo encontro com uma nova parede de pedra. Da mesma forma, somos incapazes de determinar se realmente alcançamos uma teoria que corresponde a verdade absoluta (mesmo que essa correspondência seja verdadeira), mas podemos sim determinar se uma dada teoria não corresponde à essa verdade.

    ResponderExcluir
  24. Com esse exemplo (acrescido obviamente de outros argumentos), Popper deixa muito explícito que ele acredita na existência objetiva de uma verdade absoluta, mas que essa verdade é alheia à ciência, no sentido que nenhum de nossos métodos é capaz de determinar o real entendimento da realidade. Ele defende o princípio da falseabilidade como uma estratégia de se aproximar da verdade, mas é claro em sua opinião de que a verdade absoluta não pode ser alcançada por métodos epistemológicos humanos. Mais uma vez, quero deixar bem claro que isso não significa que todos os métodos sejam igualmente válidos; segundo Popper, a ciência guiada pelo princípio da falseabilidade é a forma mais acurada e eficiente de se aproximar da realidade absoluta.

    Nesse contexto, Popper deixa bem claro que não faz sentido atribuir o conceito de “absoluto” (no sentido de realidade objetiva) às teorias ou evidências científicas. Assim como o alpinista que dúvida se realmente atingiu o pico da montanha nublada, o cientista, por definição, sempre dúvida se a teoria vigente (não-falseada) no seu respectivo campo é realmente correspondente com a realidade. A ideia de que uma realidade científica possa vista como absoluta é, portanto, explicitamente atacada e refutada por Popper. Espero com esse texto ter respondido sua pergunta Patrick.

    ResponderExcluir
  25. Gostaria de finalizar o debate com um breve resumo do mesmo. Esse foi um embate um tanto atípico, no sentido que os debatedores concordaram em mais pontos do que discordaram. Tanto eu quanto o Patrick concordamos que o conceito de programas de pesquisa proposto por Lakatos (que é apoiado fundamentalmente no principio da falseabilidade de Popper) é atualmente a melhor forma de explicar o progresso científico. Concordamos também que a proposta de dadaísmo metodológico proposta por Feyrabend é equivocada, tanto em sua interpretação histórica quanto na sua “contribuição” para a epistemologia científica. Dessa forma, darei destaque aos poucos pontos onde discordamos e, posteriormente, passamos a concordar:

    1) Patrick iniciou o debate se contrapondo à uma percebida “obcessão” de Popper com a falseabilidade. Eu contra-argumentei demonstrando que, em obras posteriores, Popper reconhece a falseabilidade como um princípio geral, o que está em acordo com a reinterpretação de Lakatos. Esse argumento, segundo o relato do Patrick, o convenceu.

    2) Ao discutirmos Kuhn, Patrick utilizou o exemplo da revolução da física quântica do inicio do século XX para argumentar que nem todas as revolução são fortemente influenciadas por fatores sociais. Eu respondi ao Patrick demonstrando que, mesmo nessa revolução, que foi um exemplo histórico de objetividade e polidez, fatores como autoridade e influência tiveram um grande papel. Utilizando outros exemplos históricos, mostrei que a interpretação historiográfica de Kuhn é, infelizmente, altamente acurada. Posteriormente, tanto eu quanto Patrick concordamos que os fatores sociológicos apontados por Kuhn não devem ser incorporados à epistemologia científica, mas sim devem ser identificados e combatidos, de forma a privilegiar a lógica e objetividade, como propôs Lakatos.

    3) Em sua rejeição, muito bem exposta, à teoria de Feyrabend, Patrick afirmou que “nem todos os métodos são igualmente válidos, mas apenas aqueles que estão em harmonia com o lakatosianismo e o falseacionismo popperiano”. Eu considerei essa afirmação demasiadamente absolutista, propondo a alternativa: “atualmente os métodos mais eficientes (ou válidos, lógicos, etc.) são aqueles que estão em harmonia com o lakatosianismo e o falseacionismo popperiano”. Essa questão, aparentemente de pequena importância, é crucial, pois em minha opinião devemos sempre deixar claro que a ciência, mesmo em seus fundamentos epistemológicos, é constituída de conceitos dinâmicos, que estão sempre vulneráveis à refutação, evolução e reinterpretações.

    Além desses pontos explícitos de concordância e discordância, tanto eu quanto o Patrick abordamos diversos exemplos históricos e experimentos lógicos para demonstrar o fundamento das teorias de Popper, Lakatos, Kuhn e Feyrabend, o que por si só faz desse debate um ótimo exercício de leitura e reflexão.

    Finalizo assim o debate congratulando meu oponente, Patrick. Espero que todos apreciem o conteúdo produzido por ele e por mim.

    ResponderExcluir