por Alejandro Lavagnino
Profesorado en Física
IES Nro. 2 Mariano Acosta
CABA
Objetivo:
El objetivo de este trabajo es realizar un análisis de la relevancia del método axiomático, propio de los modelos matemáticos y las ciencias formales, frente al hipotético deductivo en las ciencias físicas y su aplicabilidad como correspondencia con la realidad.
Introducción:
El positivismo lógico desarrollado durante el siglo XIX fue el germen de una concepción de la ciencia, en particular la física, basada fuertemente en el empirismo y en la verificación de leyes mediante la lógica, la observación, la recolección de datos y la experimentación. Estas ideas tomaron fuerza a comienzos del siglo XX, mayormente en ámbitos como el Círculo de Viena, pero fueron cuestionadas, principalmente por Karl Popper, en cuanto al uso de la inducción como método de comprobación de la verdad y en cuanto a la metodología de validación de las teorías científicas.
Popper introdujo el concepto de “falsacionismo” y estableció al método hipotético deductivo, junto a la comprobación experimental, como el camino correcto que debe seguir una teoría válida para ser aceptada por la comunidad científica. Sin embargo, los avances en la física del siglo XX, en especial con la teoría cuántica y la física teórica, han puesto en duda esta metodología y comenzaron a surgir otras corrientes que ponderaban el aspecto semántico de las teorías por sobre su semejanza objetiva con la realidad. Se consideró que la tarea del científico era sobre todo elaborar modelos matemáticos de los fenómenos naturales para
luego realizar una interpretación acerca de su correspondencia con la realidad.
Tanto estos modelos matemáticos, como los nuevos modelos físicos, en tanto estructuras lógicas abstractas, están construidos sobre axiomas, por definición indemostrables y, por lo tanto, sin correspondencia alguna con la naturaleza, por lo que se puso así en duda el isomorfismo entre teoría y realidad que sostenía el positivismo lógico. El estructuralismo fue una de estas corrientes, que analizaba a las teorías científicas como estructuras semánticas interpretadas, mas allá de su formalismo lógico deductivo.
Popper y el falsacionismo:
Karl Popper (1902-1994) fue un filósofo, sociólogo y epistemólogo austríacobritánico. En la década del ’30 comenzó a dar clases universitarias de física y matemática, y tomó contacto con el Círculo de Viena, un grupo de científicos y filósofos, avocados a establecer los límites y el lenguaje de la ciencia, basados en el positivismo y el empirismo lógicos.
En 1935 publica su obra “La lógica de la investigación científica” en la cual critica el método de verificación empírica de las teorías propio de la época y establece una nueva metodología conocida posteriormente como “falsacionismo”. A grandes rasgos este método determina que una teoría científica, para poder ser incluida dentro del cuerpo de la ciencia, debe poder ser contrastable empíricamente. Es decir, debe existir un experimento que permita poner a prueba la teoría frente a un fenómeno natural. Dicha teoría debe poder superar las pruebas a la que es sometida, pudiendo explicar consistentemente los hechos de la realidad involucrados en el experimento. A medida que la teoría “sobrevive” a las experiencias, se dice que está siendo “corroborada”. Este término no implica que la teoría sea correcta o verdadera, sino que cada prueba superada va haciéndola “más fuerte” y la mantiene vigente. Esta situación se repite hasta que se encuentre un experimento que muestre una falla en la teoría, o algún suceso que ésta no pueda explicar o predecir correctamente. En esa ocasión, la teoría puesta a prueba, será declarada como falsa y desechada por “refutación” y se comenzará a elaborar su sucesora que, por lo general, deberá contenerla en su poder explicativo.
En este contexto, las teorías nunca llegan a ser verdaderas, sino que se van aproximando a la verdad, a medida que son contrastadas exitosamente con los resultados de los experimentos. Sin embargo pueden ser falsas y obsoletas cuando no puedan dar cuenta de alguno de estos resultados, y entonces deben ser reemplazadas. A tal fin existen algunas reglas básicas importantes para llevar a cabo dicho método:
- la naturaleza científica de una teoría se determina por su susceptibilidad a la falsación
- una nueva teoría, para que se aceptada, deberá siempre contener mayor contenido empírico que sus predecesoras.
- una nueva teoría aceptada debería ser capaz de explicar todos los éxitos pasados de sus predecesoras.
- las teorías deberían siempre ser contrastadas tan rigurosamente como sea posible.
- una teoría que ha sido experimentalmente refutada debería ser rechazada.
- cualquier teoría refutada no debería retomarse en una etapa posterior
- una teoría inconsistente es inaceptable
- es necesario minimizar el número de axiomas a emplear
- cualquier nueva teoría debería ser contrastable independientemente.
Por otra parte, Popper critica al método inductivo y, en general, a cualquier método capaz de aplicar un criterio de verificación empírica de las teorías. En su libro enuncia:
“Desde un punto de vista lógico, dista mucho de ser obvio que estemos justificados al inferir enunciados universales partiendo de enunciados singulares, por elevado que sea su número, pues cualquier conclusión que sacamos de este modo corre siempre el riesgo de resultar algún día falsa” (Popper, 1962).
Es decir, no existe forma de asegurarse por el método inductivo, que un evento será siempre verdadero, no importa cuántas muestras hayamos tomado. Con una mirada más contemporánea se podría decir que cada muestra verdadera aumenta las probabilidades de que la siguiente también sea verdadera, sin embargo, esa probabilidad nunca va a ser igual a uno. Por otra parte, con una sola muestra que sea falsa, basta para demostrar que el enunciado o la teoría no se cumplen y pasan a ser refutados.
Popper va más allá contra la verificabilidad empírica de las teorías cuando dice:
“Las teorías no son nunca verificables empíricamente. Si queremos evitar el error positivista de que nuestro criterio de demarcación elimine los sistemas teóricos de la ciencia natural, debemos elegir un criterio que nos permita admitir, en el dominio de la ciencia empírica incluso, enunciados que no puedan verificarse” (Popper, 1962).
Esta separación entre la ciencia natural y la verificación empírica es una confrontación al pensamiento positivista vigente en esos años, según el cual las ciencias podrían llegar algún día a describir todos los fenómenos naturales con exactitud. Pocos años más tarde, la física misma, a través del desarrollo de la teoría cuántica, ha demostrado que tal anhelo positivista es imposible, ya que por más que tengamos instrumentos de medición lo suficientemente potentes, no se pueden conocer con precisión absoluta todas las variables del estado de una partícula en un momento determinado. Esto se conoce como “principio de incertidumbre de Heisenberg”, donde se demuestra que la observación misma de un fenómeno, altera su comportamiento, por lo tanto la verificabilidad empírica de un enunciado en esta teoría pasa a pertenecer al mundo del cálculo probabilístico.
Con estas ideas Popper intenta establecer un método de clasificación de las teorías en científicas o no científicas, basado principalmente en su carácter de constrastable (o refutable) y en la no aplicación de la inducción como forma de verificación, para que sean consideradas dentro del cuerpo de la ciencia.
El método hipotético-deductivo:
El método hipotético deductivo es una metodología científica de formulación de teorías y leyes y, por ende, de generación de conocimiento. Muchos epistemólogos concuerdan en que éste es, a grandes rasgos y con algunas variantes, el método actual de la ciencia. Está compuesto de cuatro etapas principales:
1. Observación y planteo del problema
En esta etapa, el científico comienza su investigación partiendo de la observación de algún fenómeno natural, no explicado o explicado parcialmente, para plantear precisamente el problema de su explicación.
Existen problemas que no parten de la observación, sino que son derivaciones teóricas de modelos matemáticos, que podrían tener aplicación en las ciencias, pero que no pueden ser directamente observados sino a través de sus consecuencias. Son ejemplos de esto las teorías acerca del origen del universo, el Big Bang, los multiuniversos, las partículas subatómicas, e incluso la ya aceptada teoría de la relatividad.
2. Elaboración de Hipótesis
Una vez planteado el problema, se procede a elaborar enunciados que provean una posible explicación al fenómeno en cuestión. Estos enunciados deben ser contrastables empíricamente ya que, para producir conocimiento científico útil, es necesario que tanto la conclusión como las premisas sean verdaderas. Es posible que para un problema, existan más de una hipótesis, quedando a criterio del investigador con cuál quedarse para desarrollar una teoría. La “mejor” hipótesis será aquella que contenga mayor alcance explicativo, una demostración más sencilla o, en algunos casos, la que responda a determinados intereses científicos o de mercado.
3. Demostración de la hipótesis y de las consecuencias observacionales
En esta fase es necesario demostrar, mediante los recursos lógicodeductivos necesarios y correctos, la veracidad de la hipótesis, en base al conocimiento científico existente y con una lógica interna consistente.
Además, se debe inferir cuáles pueden ser los posibles experimentos que den cuenta del poder explicativo y predictivo de la teoría, de modo que se la pueda contrastar con observaciones y mediciones del mundo natural, en la etapa siguiente.
4. Contrastación empírica y verificación de la teoría
Una vez que la hipótesis ha superado su demostración lógica y se tienen planteadas las experiencias que la deben validar empíricamente, es el momento de llevarlas a cabo. Dichas consecuencias observacionales no serán las únicas, pero serán las que, una vez superadas con éxito, permitan al resto de la comunidad científica, hacer uso de la flamante teoría. Con el tiempo, estas hipótesis seguirán siendo contrastadas con los datos experimentales hasta que surjan fenómenos relacionados con la teoría y que no puedan ser explicadas por ésta. En ese jaque, la teoría puede quedar obsoleta y tendrá que ser reemplazada, en una forma similar al refutacionismo de Popper.
En definitiva esta última etapa de la supervivencia de una teoría, se convierte en un pseudo inductivismo, en el cual se suceden eventos y experiencias que son, una y otra vez, explicadas exitosamente. Este proceso sólo tiene fin cuando la premisa: “Este suceso es explicado por la teoría”, sea falsa y vuelve también falsa a toda la teoría.
Este es un desarrollo simplificado del método científico, ya que existen cuestiones adicionales que hacen que una hipótesis sobreviva de todos modos, a pesar de no poder explicar ciertos fenómenos. De momento, hemos inferido que las teorías no son nunca verdades absolutas, sino sucesivas aproximaciones a la realidad, y que una de ellas se “aproxime” más que otra, no hace necesariamente que ésta última sea falsa en un sentido amplio. Las teorías suelen formularse estableciendo los límites de su aplicación, por lo que pueden representar una buena aproximación dentro de ciertos límites, aunque sea falsa fuera de ellos. Un caso emblemático es la mecánica newtoniana frente a la relativista. En los casos de bajas velocidades se sigue utilizando la newtoniana, incluso en los más avanzados campos de la física, por su gran precisión y por su baja complejidad matemática. Sin embargo, se conoce que la teoría es incompleta y no es aplicable a los eventos que involucran velocidades cercanas a la de la luz.
Otras corrientes establecen que es imposible un isomorfismo entre la realidad y la teoría, lo cual determina que, desde un principio, todas las teorías son falsas y ya no tendría sentido aplicarles un valor de verdad, sino que existen otros métodos de validación y vigencia para permanecer en la comunidad científica.
Críticas al falsacionismo:
El método hipotético deductivo, como fue desarrollado hasta ahora, se lo conoce como la versión simple del método. Existen varios otros factores involucrados en la elaboración de teorías que ponen en duda la función del falsacionismo como validador, o bien refutador, de éstas. Algunas de estas consideraciones se aplican a la elaboración de hipótesis, puesto que, en su demostración, usualmente se hace uso de alguna teoría complementaria, cuya correcta aplicación también debe ser demostrada, por lo que también se convierte en una hipótesis, a la que llamaremos “subsidiaria”, mientras que a la hipótesis principal la denominamos “fundamental”. Un ejemplo del uso de estas hipótesis subsidiarias se encuentra en el desarrollo de las leyes de Newton, las cuales necesitaron, para su demostración, el desarrollo de una matemática nueva, inexistente en la época, y elaborada íntegramente por el científico británico. Todo este desarrollo matemático también tuvo que ser validado, puesto que debía ser verdadero para que sirva de soporte consistente de la lógica de demostración de las hipótesis fundamentales de estas leyes físicas.
Otros factores tienen injerencia en la constrastación de las consecuencias observacionales, ya que cuando se realizan las experiencias pertinentes a validar una premisa, se dan por verdaderas muchas hipótesis acerca del experimento, en cuanto a su elaboración misma, la precisión del instrumental, las condiciones del material de trabajo o del material de estudio e incluso el ánimo o la concentración del experimentador. Es posible que una experiencia de laboratorio dé un resultado falso, no por una falla en la hipótesis fundamental, sino por algún problema en las hipótesis auxiliares del experimento, lo cual a veces sirve para demarcar el alcance de las hipótesis fundamentales, sus condiciones de contorno, o hacerle una mínima corrección, sin que ésta quede totalmente invalidada.
Inclusive habiendo revisado y validado las hipótesis subsidiarias y las auxiliares de la experimentación, de modo que todo el proceso que refuta una hipótesis fundamental puede ser considerado correcto, aún así, la teoría puede ser “salvada”, mediante pequeñas correcciones que se enuncian en forma de hipótesis “ad hoc”. Estas premisas, que funcionan a modo de “parche”, pueden establecer nuevos límites de aplicación de la teoría, o bien agregar excepciones particulares que más adelante pueden ser verificadas o incluidas en otra teoría más general. De esta forma las hipótesis fundamentales pueden superar la etapa de verificación y ser aceptadas por la comunidad científica, a pesar de haber sido refutadas, en sentido estricto, en alguna parte del proceso.
Sin embargo, estas críticas, sumadas a otras corrientes epistemológicas acerca de la elaboración de teorías, no han desplazado al método hipotético deductivo, junto al falsacionismo, como el método científico convenido como validador de nuevas leyes y teorías. Actualmente, en las ciencias, particularmente en la física, se siguen elaborando hipótesis surgidas de la observación o de la física teórica, y se siguen comprobando sus consecuencias observacionales en experimentos a tal fin. Si la hipótesis no puede ser refutada lógicamente o empíricamente, es aceptada, primero poruna parte y, si sigue vigente, con el tiempo, por la totalidad de la comunidad.
Por lo dicho hasta ahora, lo esperable es que, a partir de datos observados de la realidad, surjan hipótesis y teorías acerca de las causas de dichos datos, y que éstas puedan explicarlos y predecirlos. En ese contexto, la físicafue erigida, sobre todo a fines del siglo XIX, como la responsable de las explicaciones acerca del funcionamiento de la naturaleza, por la sola aplicación de la observación y la deducción. En un sentido positivita, a medida que las teorías iban mejorando, se aproximaban a un isomorfismo entre la teoría y la naturaleza.
Las matemáticas y el método axiomático:
Las matemáticas son el ejemplo de una ciencia que no cuenta con consecuencias observacionales. Sus hipótesis no pueden ser corroboradas experimentalmente. Sin embargo, debido a esto, no deja de haber refutacionismo, ya que las hipótesis que han sido validadas lógica y deductivamente, pueden ser sometidas a prueba mediante aplicar a sus soluciones, otras estructuras matemáticas convenientes, que puedan refutar la teoría. De todos modos, aquí el concepto de verdad es, por un lado, más “fuerte” que en otras ciencias, ya que por la propia deducción utilizada en la demostración, si es correcta, garantiza la conservación de la verdad, desde las premisas hasta la conclusión. En muchos casos, la matemática se construye a sí misma sin tener parámetros comparativos, mediante estructuras novedosas más generales. Por otro lado, y también debido a la abstracción propia de las matemáticas, el concepto de verdad es débil, en el sentido que toda teoría matemática tiene hipótesis fundamentales indemostrables, llamadas axiomas. Los axiomas surgen como conceptos abstractos. No tienen fundamentación ni sustento en la realidad. Por lo tanto, para poder utilizarlos en teorías, debe darse por supuesto su valor de verdad. Se las acepta entonces como verdaderas “per se”. En este sentido, es una verdad antojadiza, sólo con el fin de servir como pilar de la teoría.
Es razonable pensar que todo nuestro conocimiento pudo haber sido construido en base a otros axiomas, tan válidos como los actuales, que nos hubieran generado otras teorías diferentes a las que conocemos, con igual valor de verdad. Por lo tanto, la matemática se encarga de elaborar modelos y estructuras lógicamente correctas, que luego pueden ser utilizados por otras ciencias para explicar fenómenos, haciendo uso del valor de verdad garantizado de estos modelos, pero sabiendo del imposible isomorfismo de sus axiomas con la naturaleza.
El uso en la física de los modelos matemáticos y del método hipotético-deductivo:
Para Popper, la física es el claro ejemplo del uso del método hipotético deductivo, ya que, en principio, éste parecería ser el camino habitual de la actividad científica. Sin embargo, existen cuestiones que escapan a dicho método y, aún así, generan teorías válidas en la comunidad. Una es el uso de modelos matemáticos, axiomáticos, como soporte cuantitativo en la demostración de hipótesis. Esto supone que muchas teorías que hacen referencia a fenómenos naturales, son explicados en base a conceptos abstractos y sin comprobación empírica, por lo tanto, lo que se está haciendo, en definitiva, es formular una interpretación de un modelo matemático, lo más aproximada posible al evento que se pretende describir. Esta interpretación es puramente semántica e intenta establecer las relaciones conceptuales entre los axiomas y los resultados del modelo con los sucesos empíricos. Estas relaciones también debe ser validadas científicamente, y para ello sí puede ser utilizado el método hipotético deductivo, aunque este proceso introduce algunas dificultades adicionales, relacionadas con la aplicación de términos específicos y con el uso del lenguaje.
Un ejemplo clásico de esto son también las leyes de Newton, para las cuales ya mencionamos que fue desarrollada toda una estructura matemática nueva, con sus axiomas, pero además fue desarrollado otro modelo físicomatemático con sus axiomas que creaban nuevos conceptos abstractos y su relación con fenómenos naturales, como la idea de fuerza, masa y aceleración. Estos tres conceptos no sólo son novedosos en la teoría, sino que matemáticamente se definen entre sí y no tienen realidad física sino a través de las relaciones que Newton estableció entre éstos y los eventos que intentan explicar. De hecho, al aplicar estas ideas en la teoría gravitatoria, surgen dos axiomas aparentemente indistinguibles entre sí, como son la masa inercial y la masa gravitatoria, cuestión que recién fue resuelta por Einstein en su teoría de la relatividad general, a principios del siglo XX.
Otra de las cuestiones que escapan al método hipotético deductivo en las ciencias físicas son las demostraciones relacionadas a métodos matemáticos estadísticos y probabilísticos. Algunos procesos son tan complejos o involucran un número tan grande de elementos que, para su explicación, se utilizan métodos que promedian comportamientos y sus resultados son índices de probabilidad. Esto dificulta en parte establecer la veracidad, o bien, refutar una hipótesis ya que en estos casos, una comprobación de una consecuencia observacional que dé falsa como resultado, no implica necesariamente una falla en las hipótesis. En estas ocasiones, las refutaciones son más complicadas e involucran una diferencia sustancial en los valores estadísticos predichos contra los observados, límite que no está bien definido y cuyos valores pueden, además, estar contemplados por la teoría.
Conclusión:
A pesar de que la física, como ciencia, siempre elaboró su conocimiento mediante teorías y leyes sustentadas matemáticamente, hasta mediados del siglo XX y, en menor medida actualmente, se hicieron intentos de establecer una relación unívoca entre la teoría y los fenómenos naturales que éstas describían. Como tanto los modelos matemáticos, y en ocasiones también los modelos físicos, se basan en axiomas incontrastables mediante experimentos con la realidad, esta relación unívoca se hace imposible en sentido estricto.
Los métodos matemáticos y axiomáticos son inseparables de la física como ciencia, según la concebimos actualmente. El científico, al elaborar sus teorías, realiza una interpretación de esos modelos con el fin de aplicarlos a las explicaciones y predicciones que sean significativos, según su consideración. A su vez, estas interpretaciones deben ser validadas por otros métodos, como el hipotético deductivo, para determinar si el modelo matemático es pertinente para su finalidad y luego, sometidas a las consecuencias observacionales.
Un resultado experimental falso puede, si es insalvable, reducir el alcance de la teoría, anularla por completo, o bien, redefinir su interpretación, es decir, la aplicación del modelo matemático y/o axiomático al fenómeno natural que intenta describir o predecir.
En la actualidad, gran parte del trabajo científico en física está enmarcado dentro de la teoría cuántica relativista o dentro de la física teórica, ambas con un alto grado de abstracción matemática y con elementos aún inobservables como las partículas subatómicas, algunas consecuencias de la deformación del tiempo, las múltiples dimensiones o las bases mismas de las teorías acerca de la formación del universo. Por lo tanto, gran parte de la investigación se realiza sobre los resultados de los modelos axiomáticos por sobre la observación o los resultados de los experimentos de laboratorio.
Bibliografía utilizada:
- Popper, Karl. (1962) La lógica de la investigación científica. Madrid, Tecnos.
- Klimovsky, Gregorio (2005) Las desventuras del conocimiento científico. Buenos Aires, A-Z Editora.
- Gómez López, r. (2004). Evolución científica y metodológica de la Economía. Texto completo disponible en: http://www.eumed.net/cursecon/libreria/
- Capturado el 11 de marzo de 2013.
- Chalmers, A. (1984) ¿Qué es esa cosa llamada ciencia? México, Siglo XXI
No hay comentarios:
Publicar un comentario