martes, 26 de marzo de 2013

La cuestión del lenguaje y el positivismo lógico

      En el siglo XX, la "revolución en filosofía" consistió en desplazar el objeto de la "crítica del conocimiento" hacia el análisis del lenguaje. Durante la primera mitad del siglo pasado, en el  ámbito anglosajón sometido a la influencia del positivismo lógico, se produce esta transición desde la "crítica del conocimiento" al "análisis del lenguaje". Entre los motivos de esta evolución podemos señalar:
  • la influencia del desarrollo de la lógica matemática de simiente leibniciana y de la distinción fregeana entre Sinn, "sentido" y Bedeutung, "significado" (comúnmente traducido como "referencia"). Hasta Frege, los analistas del lenguaje distinguían entre "signo" o "expresión lingüística" y "contenido significativo". Frege reconoce, dentro del "contenido significativo" una diferencia entre el "sentido" o "valor cognitivo" de una proposición y la "referencia" o el "objeto mentado" o "denotado" por ella.
  • la "sospecha" introducida por Wittgenstein en el Tractatus logico-philosophicus (1921) acerca de que las proposiciones filosóficas y sus problemas no son "falsos", sino simplemente "carentes de sentido". Sospecha a partir de la cual se instalan los problemas del "significado" de las proposiciones. A partir de aquí, el Círculo de Viena sanciona la diferencia entre "proposiciones" (Sätze) y "pseudoproposiciones" (Scheinbarsätze), y las disputas metafísicas quedan eliminadas por expresar "irremediablemente" un sinsentido.
  • la preeminencia del principio de "verificación" instituido por el positivismo lógico, que disuelve a la metafísica por producir proposiciones fuera de las condiciones o "reglas" según las cuales una proposición puede ser "significativa". Conforme al criterio de "verificabilidad" definido por A. Ayer (Lenguaje, verdad y lógica, 1936) no podemos llamar "significativo" a ningún enunciado al que no podemos asignarle un "procedimiento de verificación" (o al menos de "confirmación"). Los únicos procedimientos de que disponemos son los usados en matemática y lógica (procedimientos de derivación de enunciados a partir de definiciones y axiomas) y en las ciencias empíricas (procedimientos de confirmación mediante la referencia a la experiencia sensorial).
      Tomaremos como punto de partida de nuestro desarrollo acerca del lenguaje, la posición de Bertrand Russell, para identificar de qué modo el criterio de significado como criterio de demarcación se va a imponer en la reflexión posterior acerca de “la cientificidad  de la ciencia”.
      En un artículo de 1923 ("Vagueness"), Russell considera que la "vaguedad" es un concepto aplicable a todo sistema representativo. La reflexión sobre los problemas filosóficos, está conectada, en mayor medida de lo que aparenta, con los principios del simbolismo, esto es, "con la relación entre lo que significa y lo que es significado". Todo pensamiento filosófico, en cuanto expresado a través del lenguaje, puede incurrir en "falacias" derivadas de ir desde "los símbolos" a "las cosas".
      Russell sostiene una "tesis representacionalista" del lenguaje, que se juega en la oposición transparencia/opacidad del signo. Un signo es una representación, es "signo" de algo. La relación entre el signo y la cosa significada es una relación de significación: el signo designa "algo". Un signo es "transparente" cuando deja ver (como un vidrio) una "cosa", la cosa que "significa".
      Una representación puede ser "vaga" o "ambigua". Un término es "vago" cuando no se puede precisar aquello que significa. Un término es "ambiguo" cuando designa dos o más cosas significadas. El lenguaje natural es, según Russell, por su naturaleza, "vago". El lenguaje artificial de la ciencia se crea justamente para evitar esa "vaguedad". El lenguaje natural puede inducirnos a cometer lo que Russell llama una "falacia de verbalismo". Esta falacia consiste en tomar las propiedades de las palabras como propiedades de las cosas.
 
       ...La vaguedad y la precisión son características que sólo pueden pertenecer a la representación, de la cual el lenguaje es un ejemplo. Tienen que ver con la relación entre una representación y aquello que esta representa. Fuera de la representación, sea cognoscitiva o mecánica, no puede haber cosa tal como vaguedad o precisión: las cosas son lo que son, y eso es todo... (Russell,1923,  en Antología semántica, 1960, p. 15)
 
     Para definir la "vaguedad", Russell apelará al concepto de "precisión", que es justamente su contrario. Una representación es precisa cuando se da entre el "sistema representativo" y el "sistema representado" una relación biunívoca, esto es, cuando se da una relación término a término entre los dos sistemas y entre sus relaciones. De este modo, una representación será "precisa", si se da una relación de correspondencia entre los términos de un sistema y los términos del otro. Más específicamente, una representación resultará  "precisa", cuando un solo hecho puede verificarla; y ser  "exacta" cuando la representación sea "verdadera". Esto habilita una distinción entre una expresión "significativa" y una expresión "verdadera". Russell establece así las bases para una teoría de la verdad como correspondencia y para una teoría de la ciencia centrada en el “significado” de los términos y de las proposiciones.
      Para resolver los problemas de la metafísica, Russell adopta los criterios establecidos por Wittgenstein en el Tractatus logico-philosophicus. En la Introducción de 1922 considera un "acontecimiento de suma importancia en el mundo filosófico" la publicación del Tractatus, debido a que, "partiendo de los principios del simbolismo y de las relaciones necesarias entre las palabras y las cosas en cualquier lenguaje, aplica el resultado de esta investigación a las varias ramas de la filosofía tradicional" mostrando cómo los problemas de la filosofía clásica no son más que derivados del "mal empleo del lenguaje".
      Según Russell, Wittgenstein estudia las condiciones de un "correcto simbolismo", para estipular de qué modo las proposiciones pueden "significar" algo suficientemente definido. Según Russell, estos son los problemas lógicos que Wittgenstein tratará de resolver: a) las condiciones bajo las cuales las proposiciones, entendidas como combinaciones de signos, serán "significativas", b) las condiciones para que exista univocidad de significado en las proposiciones a partir de su "referencia".
      Como sabemos, el positivismo lógico sostiene que las proposiciones de la ciencia natural son una "representación del mundo", y si no lo son, carecen de sentido. La supuesta investigación llevada a cabo por Wittgenstein en el Tractatus, implica el reconocimiento de la tesis representacionalista, según la cual el lenguaje debe servir para "describir el mundo". Pero en esta concepción del lenguaje, viene implícita una "teoría del conocimiento", que implica una serie de supuestos no explicitados: a) que "el mundo" se puede conocer; b) que el conocimiento es una "figura del mundo"; c) que las proposiciones científicas no hacen sino "representar" en el sentido de "reproducir" el mundo; y d) que el "uso" legítimo del lenguaje debe estar restringido a "describir" el mundo.
     El problema del "significado" de los términos y de las proposiciones metafísicas se instala entonces en el centro del debate. Sólo una proposición con "sentido" podrá  ser "verdadera". Una proposición sin sentido, no resultará  ni verdadera ni falsa, ni siquiera pertenecerá  al ámbito de la ciencia. La filosofía del "lenguaje ideal" llevada a cabo por Russell y el positivismo lógico, tendrá por objetivo establecer el "significado" preciso de las proposiciones, y su resultado será la resolución, por la vía de la disolución, de los problemas de la metafísica.

      Antes de continuar, recordemos las tres "dimensiones" del lenguaje reconocidas por Morris en sus Fundamentos de la teoría de los signos (1938):
      Para Morris, la semiótica es la "ciencia de los signos". Un signo es aquello que "funciona" como tal en un proceso de semiosis. Este proceso implica tres (o cuatro) factores: 1.un vehículo- señal: aquello que funciona como signo; 2.un designatum: aquello a que se refiere el signo; 3.un interpretante: el efecto por el cual "algo" es signo para 4.un intérprete: el usuario del signo.
      Estos cuatro factores intervienen en el proceso de semiosis de un modo relacional: se implican entre sí. Algo es "signo" porque es interpretado como tal por un intérprete. Por lo tanto, la semiótica no se ocupa de una clase particular de "objetos", sino de los signos en tanto participan del proceso de semiosis.
      Según Morris, a partir de los términos correlatos del proceso de la semiosis, es posible extraer una cantidad de relaciones diádicas que caracterizan tres "dimensiones" de análisis del lenguaje, considerado como el "sistema de signos" por excelencia.
  • dimensión sintáctica: estudia las relaciones formales de los signos con otros signos; ya que no puede decirse que existan signos aislados y el lenguaje es un sistema de signos interconectados.
  • dimensión semántica: estudia las relaciones de los signos con sus "designata". Morris distingue aquí entre: el designatum de un signo, esto es, aquello a que el signo se refiere para el intérprete y su denotatum, esto es, los objetos realmente existentes designados por el signo.
  • dimensión pragmática: estudia las relaciones de los signos con el intérprete.
      Los estudios lógicos priorizaron en principio el abordaje de la sintaxis lógica del lenguaje, prescindiendo deliberadamente de las dimensiones semántica  y pragmática, para limitarse a su estructura lógico-gramatical intentando dar una respuesta "científica" a los problemas de la filosofía.
 
      Entre los representantes del Círculo de Viena, Moritz Schlick y Rudolf Carnap, consideraron que era posible "superar" la metafísica mediante el análisis lógico del lenguaje. Schlick distingue entre "la ciencia" como sistema de proposiciones que enuncian "hechos" acerca del mundo, un conjunto de proposiciones empíricas verdaderas y la filosofía metafísica. Frente a esta definición positiva de la ciencia, la filosofía no es una ciencia: no hay un dominio de proposiciones que constituyan una especie de "verdades filosóficas". Sin embargo, esto no significa que no ocupe un lugar en el dominio del saber:
 
...La característica positiva del viraje del presente, se halla en el hecho de que reconozcamos a la filosofía como un sistema de actos en lugar de un sistema de conocimientos. La actividad mediante la cual se descubre o determina el sentido de los enunciados: esa es la filosofía. Por medio de la filosofía se aclaran las proposiciones, por medio de la ciencia se verifican. A esta última le interesa la verdad de los enunciados; a la primera lo que realmente significan; la actividad filosófica de dar sentido cubre la totalidad del campo del conocimiento científico...  (Moritz Schlick, El viraje de la filosofía, 1930-31)
 
      La filosofía se convierte así en "esclarecimiento del sentido de las proposiciones", dejando de lado la suposición de que puede proporcionar axiomas a priori, incondicionalmente verdaderos, ya que la filosofía no consiste en proposiciones.  Sólo si adopta esta forma, podrá  ser "honrada" como antiguamente, "reina de las ciencias".
      Por su parte, R. Carnap utilizará como "herramienta" el análisis lógico del "contenido cognoscitivo" de las proposiciones científicas y, a través de ellas, al análisis de las palabras. Según Carnap, este método, propio de la "lógica aplicada" o "teoría del  conocimiento", dio lugar a dos tipos de resultados: uno positivo y otro negativo.
 
...El resultado positivo es elaborado en el campo de la ciencia empírica: se esclarecen conceptos particulares de distintas ramas de la ciencia, se explicitan, tanto sus conexiones lógico-formales como epistemológicas. En el campo de la metafísica, (incluyendo la filosofía de los valores y la ciencia normativa), el análisis lógico ha conducido al resultado negativo de que las pretendidas proposiciones de dicho campo son totalmente carentes de sentido... (Rudolf Carnap, La superación de la metafísica mediante el análisis lógico del lenguaje, 1932)
 
      A partir de aquí, queda sancionada la "eliminación radical de toda metafísica" que, en cuanto carente de sentido, carece de fundamento. Eso es lo que la diferencia de la "legítima" ciencia. Como vemos, el positivismo lógico fue una apuesta a la "razón científica" capaz de legitimar determinados espacios de saber (física, lógica, matemática) y de destituir a la metafísica del dominio de la ciencia.


Bibliografía citada:
- Ayer, A. Lenguaje, verdad y lógica. Universidad de Valencia, 1991
- Carnap, R. “La superación de la metafísica mediante el análisis lógico del lenguaje” en Ayer, A. El positivismo lógico, México, FCE, 1980.
- Morris, Ch. Fundamentos de la teoría de los signos. Buenos Aires, Paidós, 1985
- Russell, B. “Vaguedad” en Bunge, M. Antología semántica, Buenos Aires, Ed. Nueva Visión, 1960. Disponible en: http://www.clorenzano.com.ar/bibliografia/russell.pdf
- Schlick, Moritz “El viraje de la filosofía” en Ayer, A. El positivismo lógico. FCE, 1980. Disponible en: http://filosofiasinsentido.files.wordpress.com/2013/02/el-viraje-de-la-filosofc3ada-moritz-schlick.pdf
- Wittgenstein, L. Tractatus logico-philosophicus. Madrid, Alianza, 1984

  Actividades para los cursantes:  
  1. Seleccionar al menos 1 (un) texto de las lecturas recomendadas.
  2. Elaborar una síntesis para ser presentada en forma oral en el encuentro presencial.
  3. Escribir en 1 (una) carilla aquello que consideren que es lo más relevante para el debate epistemológico del siglo pasado.
  Lecturas recomendadas:
- Russell, B. Introducción al Tractatus logico-philosophicus de L. Wittgenstein,  Disponible en: http://www.filosofos.net/russell/otros_esc/otros_tractatus.htm
- Tamayo Valencia, A. “Enfoques de la filosofía del lenguaje de L. Wittgenstein” en Revista Virtual: Cuestiones de Filosofía, Universidad Pedagógica y Tecnológica de Colombia, Nro. 12, 2010. Disponible en: http://virtual.uptc.edu.co/revistas/index.php/cuestiones_filosofia/article/viewFile/888/825
- Schlick, Moritz “El viraje de la filosofía” en Ayer, A. El positivismo lógico. FCE, 1980. Disponible en: http://filosofiasinsentido.files.wordpress.com/2013/02/el-viraje-de-la-filosofc3ada-moritz-schlick.pdf




martes, 12 de marzo de 2013

El método axiomático en las ciencias físicas

por Alejandro Lavagnino
Profesorado en Física
IES Nro. 2 Mariano Acosta
CABA
 
Objetivo:

 

El objetivo de este trabajo es realizar un análisis de la relevancia del método axiomático, propio de los modelos matemáticos y las ciencias formales, frente al hipotético deductivo en las ciencias físicas y su aplicabilidad como correspondencia con la realidad.
 
Introducción:
El positivismo lógico desarrollado durante el siglo XIX fue el germen de una concepción de la ciencia, en particular la física, basada fuertemente en el empirismo y en la verificación de leyes mediante la lógica, la observación, la recolección de datos y la experimentación. Estas ideas tomaron fuerza a comienzos del siglo XX, mayormente en ámbitos como el Círculo de Viena, pero fueron cuestionadas, principalmente por Karl Popper, en cuanto al uso de la inducción como método de comprobación de la verdad y en cuanto a la metodología de validación de las teorías científicas.
Popper introdujo el concepto de “falsacionismo” y estableció al método hipotético deductivo, junto a la comprobación experimental, como el camino correcto que debe seguir una teoría válida para ser aceptada por la comunidad científica. Sin embargo, los avances en la física del siglo XX, en especial con la teoría cuántica y la física teórica, han puesto en duda esta metodología y comenzaron a surgir otras corrientes que ponderaban el aspecto semántico de las teorías por sobre su semejanza objetiva con la realidad. Se consideró que la tarea del científico era sobre todo elaborar modelos matemáticos de los fenómenos naturales para
luego realizar una interpretación acerca de su correspondencia con la realidad.
Tanto estos modelos matemáticos, como los nuevos modelos físicos, en tanto estructuras lógicas abstractas, están construidos sobre axiomas, por definición indemostrables y, por lo tanto, sin correspondencia alguna con la naturaleza, por lo que se puso así en duda el isomorfismo entre teoría y realidad que sostenía el positivismo lógico. El estructuralismo fue una de estas corrientes, que analizaba a las teorías científicas como estructuras semánticas interpretadas, mas allá de su formalismo lógico deductivo.
 
Popper y el falsacionismo:
 
Karl Popper (1902-1994) fue un filósofo, sociólogo y epistemólogo austríacobritánico. En la década del ’30 comenzó a dar clases universitarias de física y matemática, y tomó contacto con el Círculo de Viena, un grupo de científicos y filósofos, avocados a establecer los límites y el lenguaje de la ciencia, basados en el positivismo y el empirismo lógicos.
En 1935 publica su obra “La lógica de la investigación científica” en la cual critica el método de verificación empírica de las teorías propio de la época y establece una nueva metodología conocida posteriormente como “falsacionismo”. A grandes rasgos este método determina que una teoría científica, para poder ser incluida dentro del cuerpo de la ciencia, debe poder ser contrastable empíricamente. Es decir, debe existir un experimento que permita poner a prueba la teoría frente a un fenómeno natural. Dicha teoría debe poder superar las pruebas a la que es sometida, pudiendo explicar consistentemente los hechos de la realidad involucrados en el experimento. A medida que la teoría “sobrevive” a las experiencias, se dice que está siendo “corroborada”. Este término no implica que la teoría sea correcta o verdadera, sino que cada prueba superada va haciéndola “más fuerte” y la mantiene vigente. Esta situación se repite hasta que se encuentre un experimento que muestre una falla en la teoría, o algún suceso que ésta no pueda explicar o predecir correctamente. En esa ocasión, la teoría puesta a prueba, será declarada como falsa y desechada por “refutación” y se comenzará a elaborar su sucesora que, por lo general, deberá contenerla en su poder explicativo.
En este contexto, las teorías nunca llegan a ser verdaderas, sino que se van aproximando a la verdad, a medida que son contrastadas exitosamente con los resultados de los experimentos. Sin embargo pueden ser falsas y obsoletas cuando no puedan dar cuenta de alguno de estos resultados, y entonces deben ser reemplazadas. A tal fin existen algunas reglas básicas importantes para llevar a cabo dicho método:
  •  la naturaleza científica de una teoría se determina por su susceptibilidad a la falsación
  • una nueva teoría, para que se aceptada, deberá siempre contener mayor contenido empírico que sus predecesoras.
  • una nueva teoría aceptada debería ser capaz de explicar todos los éxitos pasados de sus predecesoras.
  • las teorías deberían siempre ser contrastadas tan rigurosamente como sea posible.
  • una teoría que ha sido experimentalmente refutada debería ser rechazada.
  • cualquier teoría refutada no debería retomarse en una etapa posterior
  • una teoría inconsistente es inaceptable
  • es necesario minimizar el número de axiomas a emplear
  • cualquier nueva teoría debería ser contrastable independientemente.
  •  
 Por otra parte, Popper critica al método inductivo y, en general, a cualquier método capaz de aplicar un criterio de verificación empírica de las teorías. En su libro enuncia: 
“Desde un punto de vista lógico, dista mucho de ser obvio que estemos justificados al inferir enunciados universales partiendo de enunciados singulares, por elevado que sea su número, pues cualquier conclusión que sacamos de este modo corre siempre el riesgo de resultar algún día falsa” (Popper, 1962).
Es decir, no existe forma de asegurarse por el método inductivo, que un evento será siempre verdadero, no importa cuántas muestras hayamos tomado. Con una mirada más contemporánea se podría decir que cada muestra verdadera aumenta las probabilidades de que la siguiente también sea verdadera, sin embargo, esa probabilidad nunca va a ser igual a uno. Por otra parte, con una sola muestra que sea falsa, basta para demostrar que el enunciado o la teoría no se cumplen y pasan a ser refutados.
Popper va más allá contra la verificabilidad empírica de las teorías cuando dice:
“Las teorías no son nunca verificables empíricamente. Si queremos evitar el error positivista de que nuestro criterio de demarcación elimine los sistemas teóricos de la ciencia natural, debemos elegir un criterio que nos permita admitir, en el dominio de la ciencia empírica incluso, enunciados que no puedan verificarse” (Popper, 1962).
Esta separación entre la ciencia natural y la verificación empírica es una confrontación al pensamiento positivista vigente en esos años, según el cual las ciencias podrían llegar algún día a describir todos los fenómenos naturales con exactitud. Pocos años más tarde, la física misma, a través del desarrollo de la teoría cuántica, ha demostrado que tal anhelo positivista es imposible, ya que por más que tengamos instrumentos de medición lo suficientemente potentes, no se pueden conocer con precisión absoluta todas las variables del estado de una partícula en un momento determinado. Esto se conoce como “principio de incertidumbre de Heisenberg”, donde se demuestra que la observación misma de un fenómeno, altera su comportamiento, por lo tanto la verificabilidad empírica de un enunciado en esta teoría pasa a pertenecer al mundo del cálculo probabilístico.
Con estas ideas Popper intenta establecer un método de clasificación de las teorías en científicas o no científicas, basado principalmente en su carácter de constrastable (o refutable) y en la no aplicación de la inducción como forma de verificación, para que sean consideradas dentro del cuerpo de la ciencia.
 
El método hipotético-deductivo:
El método hipotético deductivo es una metodología científica de formulación de teorías y leyes y, por ende, de generación de conocimiento. Muchos epistemólogos concuerdan en que éste es, a grandes rasgos y con algunas variantes, el método actual de la ciencia. Está compuesto de cuatro etapas principales:

1. Observación y planteo del problema
En esta etapa, el científico comienza su investigación partiendo de la observación de algún fenómeno natural, no explicado o explicado parcialmente, para plantear precisamente el problema de su explicación.
Existen problemas que no parten de la observación, sino que son derivaciones teóricas de modelos matemáticos, que podrían tener aplicación en las ciencias, pero que no pueden ser directamente observados sino a través de sus consecuencias. Son ejemplos de esto las teorías acerca del origen del universo, el Big Bang, los multiuniversos, las partículas subatómicas, e incluso la ya aceptada teoría de la relatividad.


2. Elaboración de Hipótesis
Una vez planteado el problema, se procede a elaborar enunciados que provean una posible explicación al fenómeno en cuestión. Estos enunciados deben ser contrastables empíricamente ya que, para producir conocimiento científico útil, es necesario que tanto la conclusión como las premisas sean verdaderas. Es posible que para un problema, existan más de una hipótesis, quedando a criterio del investigador con cuál quedarse para desarrollar una teoría. La “mejor” hipótesis será aquella que contenga mayor alcance explicativo, una demostración más sencilla o, en algunos casos, la que responda a determinados intereses científicos o de mercado.

3. Demostración de la hipótesis y de las consecuencias observacionales
En esta fase es necesario demostrar, mediante los recursos lógicodeductivos necesarios y correctos, la veracidad de la hipótesis, en base al conocimiento científico existente y con una lógica interna consistente.
Además, se debe inferir cuáles pueden ser los posibles experimentos que den cuenta del poder explicativo y predictivo de la teoría, de modo que se la pueda contrastar con observaciones y mediciones del mundo natural, en la etapa siguiente.
4. Contrastación empírica y verificación de la teoría
Una vez  que la hipótesis ha superado su demostración lógica y se tienen planteadas las experiencias que la deben validar empíricamente, es el momento de llevarlas a cabo. Dichas consecuencias observacionales no serán las únicas, pero serán las que, una vez superadas con éxito, permitan al resto de la comunidad científica, hacer uso de la flamante teoría. Con el tiempo, estas hipótesis seguirán siendo contrastadas con los datos experimentales hasta que surjan fenómenos relacionados con la teoría y que no puedan ser explicadas por ésta. En ese jaque, la teoría puede quedar obsoleta y tendrá que ser reemplazada, en una forma similar al refutacionismo de Popper.
En definitiva esta última etapa de la supervivencia de una teoría, se convierte en un pseudo inductivismo, en el cual se suceden eventos y experiencias que son, una y otra vez, explicadas exitosamente. Este proceso sólo tiene fin cuando la premisa: “Este suceso es explicado por la teoría”, sea falsa y vuelve también falsa a toda la teoría.


Este es un desarrollo simplificado del método científico, ya que existen cuestiones adicionales que hacen que una hipótesis sobreviva de todos modos, a pesar de no poder explicar ciertos fenómenos. De momento, hemos inferido que las teorías no son nunca verdades absolutas, sino sucesivas aproximaciones a la realidad, y que una de ellas se “aproxime” más que otra, no hace necesariamente que ésta última sea falsa en un sentido amplio. Las teorías suelen formularse estableciendo los límites de su aplicación, por lo que pueden representar una buena aproximación dentro de ciertos límites, aunque sea falsa fuera de ellos. Un caso emblemático es la mecánica newtoniana frente a la relativista. En los casos de bajas velocidades se sigue utilizando la newtoniana, incluso en los más avanzados campos de la física, por su gran precisión y por su baja complejidad matemática. Sin embargo, se conoce que la teoría es incompleta y no es aplicable a los eventos que involucran velocidades cercanas a la de la luz.
Otras corrientes establecen que es imposible un isomorfismo entre la realidad y la teoría, lo cual determina que, desde un principio, todas las teorías son falsas y ya no tendría sentido aplicarles un valor de verdad, sino que existen otros métodos de validación y vigencia para permanecer en la comunidad científica.

 
 Críticas al falsacionismo:
El método hipotético deductivo, como fue desarrollado hasta ahora, se lo conoce como la versión simple del método. Existen varios otros factores involucrados en la elaboración de teorías que ponen en duda la función del falsacionismo como validador, o bien refutador, de éstas. Algunas de estas consideraciones se aplican a la elaboración de hipótesis, puesto que, en su demostración, usualmente se hace uso de alguna teoría complementaria, cuya correcta aplicación también debe ser demostrada, por lo que también se convierte en una hipótesis, a la que llamaremos “subsidiaria”, mientras que a la hipótesis principal la denominamos “fundamental”. Un ejemplo del uso de estas hipótesis subsidiarias se encuentra en el desarrollo de las leyes de Newton, las cuales necesitaron, para su demostración, el desarrollo de una matemática nueva, inexistente en la época, y elaborada íntegramente por el científico británico. Todo este desarrollo matemático también tuvo que ser validado, puesto que debía ser verdadero para que sirva de soporte consistente de la lógica de demostración de las hipótesis fundamentales de estas leyes físicas.
Otros factores tienen injerencia en la constrastación de las consecuencias observacionales, ya que cuando se realizan las experiencias pertinentes a validar una premisa, se dan por verdaderas muchas hipótesis acerca del experimento, en cuanto a su elaboración misma, la precisión del instrumental,  las condiciones del material de trabajo o del material de estudio e incluso el ánimo o la concentración del experimentador. Es posible que una experiencia de laboratorio dé un resultado falso, no por una falla en la hipótesis fundamental, sino por algún problema en las hipótesis auxiliares del experimento, lo cual a veces sirve para demarcar el alcance de las hipótesis fundamentales, sus condiciones de contorno, o hacerle una mínima corrección, sin que ésta quede totalmente invalidada.
Inclusive habiendo revisado y validado las hipótesis subsidiarias y las auxiliares de la experimentación, de modo que todo el proceso que refuta una hipótesis fundamental puede ser considerado correcto, aún así, la teoría puede ser “salvada”, mediante pequeñas correcciones que se enuncian en forma de hipótesis “ad hoc”. Estas premisas, que funcionan a modo de “parche”, pueden establecer nuevos límites de aplicación de la teoría, o bien agregar excepciones particulares que más adelante pueden ser verificadas o incluidas en otra teoría más general. De esta forma las hipótesis fundamentales pueden superar la etapa de verificación y ser aceptadas por la comunidad científica, a pesar de haber sido refutadas, en sentido estricto, en alguna parte del proceso.
Sin embargo, estas críticas, sumadas a otras corrientes epistemológicas acerca de la elaboración de teorías, no han desplazado al método hipotético deductivo, junto al falsacionismo, como el método científico convenido como validador de nuevas leyes y teorías. Actualmente, en las ciencias, particularmente en la física, se siguen elaborando hipótesis surgidas de la observación o de la física teórica, y se siguen comprobando sus consecuencias observacionales en experimentos a tal fin. Si la hipótesis no puede ser refutada lógicamente o empíricamente, es aceptada, primero poruna parte y, si sigue vigente, con el tiempo, por la totalidad de la comunidad.



Por lo dicho hasta ahora, lo esperable es que, a partir de datos observados de la realidad, surjan hipótesis y teorías acerca de las causas de dichos datos, y que éstas puedan explicarlos y predecirlos. En ese contexto, la físicafue erigida, sobre todo a fines del siglo XIX, como la responsable de las explicaciones acerca del funcionamiento de la naturaleza, por la sola aplicación de la observación y la deducción. En un sentido positivita, a medida que las teorías iban mejorando, se aproximaban a un isomorfismo entre la teoría y la naturaleza.
 
Las matemáticas y el método axiomático:
 
Las matemáticas son el ejemplo de una ciencia que no cuenta con consecuencias observacionales. Sus hipótesis no pueden ser corroboradas experimentalmente. Sin embargo, debido a esto, no deja de haber refutacionismo, ya que las hipótesis que han sido validadas lógica y deductivamente, pueden ser sometidas a prueba mediante aplicar a sus soluciones, otras estructuras matemáticas convenientes, que puedan refutar la teoría. De todos modos, aquí el concepto de verdad es, por un lado, más “fuerte” que en otras ciencias, ya que por la propia deducción utilizada en la demostración, si es correcta, garantiza la conservación de la verdad, desde las premisas hasta la conclusión. En muchos casos, la matemática se construye a sí misma sin tener parámetros comparativos, mediante estructuras novedosas más generales. Por otro lado, y también debido a la abstracción propia de las matemáticas, el concepto de verdad es débil, en el sentido que toda teoría matemática tiene hipótesis fundamentales indemostrables, llamadas axiomas. Los axiomas surgen como conceptos abstractos. No tienen fundamentación ni sustento en la realidad. Por lo tanto, para poder utilizarlos en teorías, debe darse por supuesto su valor de verdad. Se las acepta entonces como verdaderas “per se”. En este sentido, es una verdad antojadiza, sólo con el fin de servir como pilar de la teoría.
Es razonable pensar que todo nuestro conocimiento pudo haber sido construido en base a otros axiomas, tan válidos como los actuales, que nos hubieran generado otras teorías diferentes a las que conocemos, con igual valor de verdad. Por lo tanto, la matemática se encarga de elaborar modelos y estructuras lógicamente correctas, que luego pueden ser utilizados por otras ciencias para explicar fenómenos, haciendo uso del valor de verdad garantizado de estos modelos, pero sabiendo del imposible isomorfismo de sus axiomas con la naturaleza.
 
El uso en la física de los modelos matemáticos y del método hipotético-deductivo:
 
Para Popper, la física es el claro ejemplo del uso del método hipotético deductivo, ya que, en principio, éste parecería ser el camino habitual de la actividad científica. Sin embargo, existen cuestiones que escapan a dicho método y, aún así, generan teorías válidas en la comunidad. Una es el uso de modelos matemáticos, axiomáticos, como soporte cuantitativo en la demostración de hipótesis. Esto supone que muchas teorías que hacen referencia a fenómenos naturales, son explicados en base a conceptos abstractos y sin comprobación empírica, por lo tanto, lo que se está haciendo, en definitiva, es formular una interpretación de un modelo matemático, lo más aproximada posible al evento que se pretende describir. Esta interpretación es puramente semántica e intenta establecer las relaciones conceptuales  entre los axiomas y los resultados del modelo con los sucesos empíricos. Estas relaciones también debe ser validadas científicamente, y para ello sí puede ser utilizado el método hipotético deductivo, aunque este proceso introduce algunas dificultades adicionales, relacionadas con la aplicación de términos específicos y con el uso del lenguaje.
Un ejemplo clásico de esto son también las leyes de Newton, para las cuales ya mencionamos que fue desarrollada toda una estructura matemática nueva, con sus axiomas, pero además fue desarrollado otro modelo físicomatemático con sus axiomas que creaban nuevos conceptos abstractos y su relación con fenómenos naturales, como la idea de fuerza, masa y aceleración. Estos tres conceptos no sólo son novedosos en la teoría, sino que matemáticamente se definen entre sí y no tienen realidad física sino a través de las relaciones que Newton estableció entre éstos y los eventos que intentan explicar. De hecho, al aplicar estas ideas en la teoría gravitatoria, surgen dos axiomas aparentemente indistinguibles entre sí, como son la masa inercial y la masa gravitatoria, cuestión que recién fue resuelta por Einstein en su teoría de la relatividad general, a principios del siglo XX.
Otra de las cuestiones que escapan al método hipotético deductivo en las ciencias físicas son las demostraciones relacionadas a métodos matemáticos estadísticos y probabilísticos. Algunos procesos son tan complejos o involucran un número tan grande de elementos que, para su explicación, se utilizan métodos que promedian comportamientos y sus resultados son índices de probabilidad. Esto dificulta en parte establecer la veracidad, o bien, refutar una hipótesis ya que en estos casos, una comprobación de una consecuencia observacional que dé falsa como resultado, no implica necesariamente una falla en las hipótesis. En estas ocasiones, las refutaciones son más complicadas e involucran una diferencia sustancial en los valores estadísticos predichos contra los observados, límite que no está bien definido y cuyos valores pueden, además, estar contemplados por la teoría.
 
Conclusión:
 
A pesar de que la física, como ciencia, siempre elaboró su conocimiento mediante teorías y leyes sustentadas matemáticamente, hasta mediados del siglo XX y, en menor medida actualmente, se hicieron intentos de establecer una relación unívoca entre la teoría y los fenómenos naturales que éstas describían. Como tanto los modelos matemáticos, y en ocasiones también los modelos físicos, se basan en axiomas incontrastables mediante experimentos con la realidad, esta relación unívoca se hace imposible en sentido estricto.
Los métodos matemáticos y axiomáticos son inseparables de la física como ciencia, según la concebimos actualmente. El científico, al elaborar sus teorías, realiza una interpretación de esos modelos con el fin de aplicarlos a las explicaciones y predicciones que sean significativos, según su consideración. A su vez, estas interpretaciones deben ser validadas por otros métodos, como el hipotético deductivo, para determinar si el modelo matemático es pertinente para su finalidad y luego, sometidas a las consecuencias observacionales.
Un resultado experimental falso puede, si es insalvable, reducir el alcance de la teoría, anularla por completo, o bien, redefinir su interpretación, es decir, la aplicación del modelo matemático y/o axiomático al fenómeno natural que intenta describir o predecir.
En la actualidad, gran parte del trabajo científico en física está enmarcado dentro de la teoría cuántica relativista o dentro de la física teórica, ambas con un alto grado de abstracción matemática y con elementos aún inobservables como las partículas subatómicas, algunas consecuencias de la deformación del tiempo, las múltiples dimensiones o las bases mismas de las teorías acerca de la formación del universo. Por lo tanto, gran parte de la investigación se realiza sobre los resultados de los modelos axiomáticos por sobre la observación o los resultados de los experimentos de laboratorio.
 
Bibliografía utilizada:
 
  • Popper, Karl. (1962) La lógica de la investigación científica. Madrid, Tecnos.
  • Klimovsky, Gregorio (2005) Las desventuras del conocimiento científico. Buenos Aires, A-Z  Editora.
  • Gómez López, r. (2004). Evolución científica y metodológica de la Economía. Texto completo disponible en: http://www.eumed.net/cursecon/libreria/
  • Capturado el 11 de marzo de 2013.
  • Chalmers, A. (1984) ¿Qué es esa cosa llamada ciencia? México, Siglo XXI