DESARROLLOS DE LOS MICRO ENSAYOS

Miguel Cobaleda
01-03-2023


2
5-UN TERMÓMETRO MUY GORDO

Antes, la mayoría de los termómetros clínicos –hoy prohibidos y retirados– consistían en pequeñas cantidades de mercurio metidas en tubos capilares de vidrio, los cuales tenían impresa en su pared exterior una escala graduada desde los 34º centígrados hasta, generalmente, los 42º. Es de ellos de los que pretendo hablar en el primer ejemplo-problema de este micro-ensayo. Los sistemas nuevos para la medición clínica de la temperatura corporal –o para pequeñas muestras de líquidos, sólidos, etc.– son termómetros digitales, basados la mayoría en termistores y transductores para recibir datos de temperatura y para traducirlos a un sistema binario que permita luego su presentación en pantalla. Que conste que la problemática que voy a exponer como característica de los antiguos termómetros, puede utilizarse igualmente contra los nuevos, y con grado creciente de dificultad.

Supongamos que queremos medir la temperatura del agua contenida en un recipiente doméstico corriente, una olla que haga, por ejemplo, cuatro litros de capacidad. Siempre que no haya estado puesta al fuego y siempre que supongamos que su temperatura es la del ambiente –ambiente normal, no una sauna con 45º o más de temperatura, no un exterior siberiano con –40º, ya que en ambos casos el termómetro de vidrio estallaría en pedazos minúsculos y las micro-gotas de mercurio irían a parar a todos los rincones–, el sistema sería sencillo: introducir la varita de vidrio en el agua de la olla y esperar unos momentos mientras marca y se detiene. Pero nuestro ejemplo exige que vayamos poco a poco aumentando el tamaño del termómetro hasta convertirlo en un cilindro de tanto radio que quepa muy justito en la boca de la olla. Es entonces evidente que, si el cilindro en cuestión tiene una temperatura muy distinta del agua, siendo tan escasa la diferencia de volumen entre lo medido –el agua– y el objeto medidor –el termómetro– la temperatura de éste se volverá un obstáculo tremendo a la hora de confiar en el resultado, ya que un termómetro tan grande, si está mucho menos caliente que el agua cuya temperatura trata de medir, bajará la temperatura del agua cuando lo introduzcamos en ella por la escasa diferencia de tamaños, resultando entonces que, al medir, modificará lo medido falseando el resultado. La solución es negar, claro está, la exigencia un tanto rara del ejemplo, y dar por descontado que un cilindro de vidrio de poco más de dos milímetros de radio no variará la temperatura del agua de una olla que contenga cuatro litros cuando lo introduzcamos en ella. No hay termómetros clínicos que sean cilindros con un radio de 15 cm. o más y, si los hubiera, a nadie se le ocurriría medir con ellos la temperatura del agua en una olla de 35 centímetros de diámetro en la boca. Con una diferencia enorme de tamaño, el problema que el ejemplo plantea desaparece.

Lo que pasa es que no desaparece, ya que, sea cual sea la diferencia, por muy grande que sea la olla y muy fino que sea el termómetro, si su temperatura es diferente, el termómetro modificará la temperatura del agua cuando lo insertemos en ella; muy escasamente, inapreciablemente a ojos prácticos en un ensayo doméstico, pero en variaciones apreciables –y hasta desastrosas– cuando se trate de medidas de precisión científica y necesitemos conocer el resultado con aproximación de milésimas de grado. Una primera dificultad insalvable que parece menor en la práctica doméstica, pero que es esencial –contraviene principios lógicos– en la teoría científica.

Una segunda dificultad y mucho peor desde el punto de vista de los principios lógicos en cuestión, es que esos instrumentos de medida no son homogéneos con el parámetro que tratan de medir: miden temperaturas con longitudes. Si cualquier proceso de medición entraña grandes problemas, lo menos que se puede pedir es que las unidades de medida sean homogéneas con los parámetros que midan, medir longitudes con longitudes, resistencias con resistencias, pesos con pesos, temperaturas con temperaturas, pero no temperaturas con longitudes o pesos con resistencias. Los antiguos termómetros medían la temperatura por medio de la longitud que la columna de mercurio alcanzaba dentro del capilar de vidrio, y ése es un problema grave porque desnaturaliza por completo la esencia del proceso.

En este sentido, los termómetros digitales de la actualidad, con sus termistores, no están mejor, sino peor. Un termistor es un dispositivo capaz de percibir las diferencias de resistencia –aprecia los cambios de resistividad– en un semiconductor debidas a diferencias de temperatura, así que el proceso es: al variar la temperatura, la cantidad de portadores de corriente del semiconductor aumenta o disminuye –hay termistores para las dos clases–, con lo cual varía la resistencia; la variación de la resistencia es sentida por el termistor que, con el auxilio de la “traducción” de un transductor, convierte el voltaje –muy grosso modo– en una señal capaz de ser expresada en términos binarios y trasladada después a una pantalla convenientemente interpretada en el sistema que sea, Celsius o Farenheit o el que sea. Como se puede comprender, los problemas de no-homogeneidad aumentan bastante con estos nuevos sistemas termométricos.

Medir parece entrañar problemas muy serios, acaso insalvables. Ahora bien, sólo hemos hablado de medir temperaturas y de utilizar instrumentos no homogéneos. ¿Sucede lo mismo si tratamos de medir longitudes con longitudes, por ejemplo?... No sucede lo mismo, pero también entraña problemas de parecida gravedad.

Si un sastre que desea saber cuántos modelos troquelados de patronaje caben en un rollo de tela para trajes, y mide antes la pieza de tela de que dispone usando un metro que es una vara recta de madera de haya, con una longitud de dos metros exactos, por el procedimiento de poner varias veces, una a continuación de la otra, la vara metro encima de la tela hasta concluir que ha puesto la vara quince veces y, por lo tanto, la tela mide treinta metros, pensamos que está haciendo una medición correcta y sin problemas teóricos, ya que usa un instrumento homogéneo y, dentro de lo que cabe, escasamente expuesto a variaciones, sobre todo si sus extremos están protegidos del desgaste por cantoneras de metal. En términos prácticos y por lo que se refiere al ejemplo, la cosa es así, ya que, incluso si un error por imprecisión o por prisas en el proceso fuese de dos o tres centímetros, al sastre le daría igual. Pero sabemos que la exactitud científica exige a veces precisiones de nanómetros, y entonces el proceso de “poner el metro una vez a continuación de otra” se convierte en un insoluble. La parte terminal del metro patrón ¿cómo es de fina, pulida, equilibrada, exacta? ¿Se trata de una superficie sin huecos ni protuberancias –huecos nanométricos, protuberancias nanométricas–? ¿Cómo se marca el final de la primera medición para que la segunda comience en el punto exacto contiguo?... Es evidente que el sistema que sirve para el sastre en tamaños macroscópicos y sin precisiones científicas, no sirve en absoluto para tamaños cuánticos que necesiten rigor absoluto. Tendremos entonces que acudir a medidores láser, esto es, utilizar la luz para medir, pero ya podemos suponer a estas alturas que, en términos cuánticos, un metro fotónico y su onda asociada pueden ser equiparables los objetos que pretendan medir.

En fin, desde que Heisenberg enunció en 1925 el Principio de Indeterminación –vulgarmente conocido como Principio de Incertidumbre–, sabemos que la mecánica cuántica no respeta en absoluto el status quo convencional del mundo macroscópico al que estamos habituados; el propio Principio de Incertidumbre, cortando por lo sano nuestras “dificultades” de medición, nos asegura que, en esos mundos del sub-mundo, medir ni siquiera es posible, y que quien desee conocer con precisión la posición de una partícula, lo hará al coste insostenible de desconocer su masa y su velocidad porque no se puede medir lo uno sin “desmedir” lo otro, valga la campechanía de la expresión.

Puedo insertar aquí el teorema de Gódel, como último elemento de esta especie de prólogo al tema del ensayo, las implicaciones que los descubrimientos de este matemático y lógico genial han supuesto para la viabilidad de todo sistema formal, entre otros el de la excelsa Aritmética. Con un formato lógico similar al del Principio de Incertidumbre, Gódel demostró que todo lenguaje formal adolece de una imprecisión estructural gravísima que afecta a su capacidad como instrumento de expresión y de explicación: cualquier lenguaje formal que sea consistente (no contenga contradicciones) será incompleto en el sentido de que no pertenecerán a él proposiciones que sí le pertenecen (no serán derivables en el sistema); cualquier lenguaje formal que sea completo (que le pertenezcan todas las proposiciones que le pertenezcan: que sean derivables en el sistema todas sus proposiciones) será inconsistente, incoherente (tendrá contradicciones insolubles en su seno). Cualquier procedimiento que se proponga completar un lenguaje formal incompleto, provocará contradicciones en su seno; cualquier procedimiento que se proponga eliminar incoherencias de un lenguaje formal, le mutilará de ciertas proposiciones que siéndole propias, no le pertenecerán, quedarán fuera de su sistema (no serán derivables en él). Un corolario al parecer poco sustancioso, pero cada vez más importante vista la preponderancia actual teórica y práctica de la informática, es que el teorema significa, entre otras cosas, que los lenguajes formales no son completamente computables.

*** *** ***

Este micro-ensayo pretende analizar la extraña despreocupación que la ciencia tiene –y el desprecio=silencio que siente– por las dificultades teóricas que sus métodos presentan, dificultades insalvables muchas veces, irresueltas casi siempre o siempre, y que deberían haber paralizado la investigación científica al menos desde que Galileo decidió prescindir de la física aristotélica a como diese lugar, tuviera razón el Estagirita o no la tuviera, plantease problemas o no los plantease. Los ejemplos anteriores, pocos entre muchísimos, sólo pretendían introducir el asunto de una forma en cierto modo anecdótica, aunque veraz.

Si ponemos bajo la lupa el término “metafísica”, lo mismo podemos acudir a la anécdota de que fue una casualidad porque los soldados de Sila que encontraron abandonadas las obras aristotélicas, hallaron en el estante, en la parte de acá, los ocho libros de su Física, y en el mismo estante, pero más allá, otros libros no se sabe de qué pero, puesto que estaban más allá de la Física, fueron llamados metá-fisiká; como presentar la casi infinita colección de escritos sobre temas metafísicos clásicos, desde los del propio Aristóteles hasta los de Hegel y Kant (debeladores de la metafísica pero en términos metafísicos). Y, desde luego, usar la expresión en el sentido genuino y actual de asuntos que le interesarían a la ciencia física –porque son pre-supuestos ineludibles de su estudio– si le interesasen a la ciencia física, que no, esos presupuestos “meta-físicos”.

En este último sentido, cabe reconocer que la física –la ciencia actual en general– ha decidido prescindir por completo de semejantes ¿asuntos, cuestiones, problemas...? y actuar como si no existieran ni, de existir, como si no se refiriesen para nada a sus actividades propias. La ciencia actual mide, aunque la actividad métrica contiene problemas insolubles y no le importan nada los tales problemas. La ciencia actual se expresa en el lenguaje simbólico de las matemáticas, aunque las limitaciones demostradas por Gódel deberían producir cierta parálisis en esas traducciones que tan alegremente hace (aparte el hecho de que cada vez más toman la representación abstracta y simbólica de la naturaleza por la naturaleza misma). La ciencia actual utiliza la estadística pero también la relación causa-efecto, y las utiliza tanto que son columnas prevalentes de sus edificios conceptuales, pasando completamente del hecho de que son procedimientos contradictorios, ya que la causalidad (denostada por Hume hasta dejarla reducida a una sospechosa e injustificada costumbre) es la explicación contraria a la explicación estadística, que predice los fenómenos no porque las mismas causas produzcan siempre los mismos efectos, sino porque los números masivos globales pasados ¿permiten? adivinar los fenómenos concretos futuros. La ciencia actual, en fin, mezcla cualquier sistema que le permita dar un paso adelante con cualquier otro que le permita dar otro paso más, sin preocuparse de que los tales sistemas sean contradictorios, problemáticos, nada homogéneos, incluso probadamente incapaces. Así que:

¿Por qué lo hace?

¿Por qué, haciendo algo tan peligroso y tan raro, consigue resultados?

¿En realidad consigue resultados?

¿Los chismes tecnológicos son resultados de la investigación científica en el sentido de que la justifican?

¿Hay chismes tecnológicos nuevos vinculados a la investigación científica, o solamente hay magia?

Para responder a estas preguntas –al menos a algunas– es preciso admitir que cabe la posibilidad de que estemos ante una traslación del universo del discurso, y no sólo ante un cambio de paradigma estilo Khun. Vendrá bien un ejemplo pedagógico sencillo:

[Supongamos una conversación que tiene lugar a principios del siglo XX, digamos en el año 1901, “y también” en este mismo momento en que estamos, alguien que se encuentra en Europa y desea ir a América –por ejemplo Lisboa-Nueva York– para asistir a la boda de un hermano suyo, suceso del que, por una serie de circunstancias, se ha enterado tardísimo, con sólo un día de margen para poder acudir; y alguien que razona con él haciéndole ver que se trata de un imposible; los buques más rápidos, un carguero y un pequeño paquebote, tardan al menos seis días a toda máquina en cruzar el océano, y ninguno tiene previsto partir hasta tres semanas más tarde; además, hablando en teoría, incluso saliendo en ese mismo momento, la velocidad de navegación para poder salir de Lisboa y llegar a Nueva-York en menos de 24 horas, debería ser tal que el simple rozamiento de las planchas del buque las haría arder por la extrema velocidad, habida cuenta por otra parte de la potencia que habría de tener el motor que consiguiese imprimir tal velocidad incluso a una nave pequeña; luego además, las condiciones climatológicas del océano, la posibilidad de tormentas que incluyan vientos capaces de levantar olas de varios metros, la necesaria atención diurna y nocturna para no abordar accidentalmente a cualquiera de los muchos buques que cruzan a diario el océano... Bien, basta ya. El supuesto viajero le silencia con una simple frase “Pero ¿de qué hablas?... Voy a ir en avión, tengo ya el pasaje, me marcho al aeropuerto y en ocho horas estaré abrazando a mi hermano en su despedida de soltero”].

Consideraciones que son verdaderas y establecen dificultades auténticas, imposibles de soslayar, no sólo se soslayan, incluso se ignoran... si cambiamos el universo del discurso de tal forma que cambemos al hacerlo las leyes del comportamiento de la realidad. Si en lugar de ser hoy y tardar ocho horas, o en lugar de ser en 1901 y tardar ocho días, fuese hace treinta o cuarenta mil años y el desplazamiento hubiera de hacerse atravesando Europa hacia el norte, llegando al estrecho de Bering, esperando que su superficie se solidificara por completo, atravesándolo y descendiendo luego hasta el emplazamiento del actual Nueva-York, el viaje duraría bastantes generaciones, y sería imposible hacerlo de otra forma.

La ciencia actual responde a las preguntas formuladas como el viajero aéreo: sus procedimientos no tienen limitaciones metafísicas porque su universo real es físico y todos los supuestos de los que depende son inmanentes, intra-físicos, nunca meta-físicos. En este sentido, ni siquiera necesita producir chismes tecnológicos cuya existencia y función justifiquen las leyes de la ciencia, ya que los tales procedimientos que emplea son consistentes con sus postulados, con sus desarrollos y con sus conclusiones, de modo que no necesita más. Una prueba de ello es que puede predecir, predice y finalmente verifica, comportamientos de la realidad a partir de sus propios supuestos y mediante sus propias formulaciones, como el famoso Bosón de Higgs cuyas huellas han acabado por encontrar en el CERN.

Es ahora cuando cobra sentido la última pregunta: ¿no será todo esto alguna especie de magia?... En todo caso se trata, sin duda, de una cierta clase de juego. Nosotros descubrimos mediante evidencias no cuestionadas (aunque seguramente cuestionables, recordemos las geometrías no-euclídeas) los axiomas; proponemos los postulados; diseñamos los objetos elementales –términos, expresiones, etc.– del sistema; establecemos las leyes de deducción; escogemos las pruebas de validación de los resultados y, en general, describimos por completo la gramática del asunto. Luego partimos de nuestros axiomas, usamos nuestros postulados y reglas para ir deduciendo teoremas, y llegamos finalmente a conclusiones que validamos mediante las pruebas correspondientes. Esto es todo. ¿Que, de paso, resulta que la realidad material objetiva se ajusta “paralela” a nuestras conclusiones, que la col Romanesca ¡qué casualidad! cumple las formas de los fractales de Manldelbrot, que el bosón aparece cuando la teoría lo cita y es ¡pero qué amable! como tiene que ser?... Estupendo, bien, muy santo y muy bueno, veamos hasta dónde nos lleva este paralelismo; mientras siga, usaremos el juego para explicar; cuando deje de explicar, cambiaremos de juego. Pero es un juego. Y carece de sentido pretender que haya instancias trascendentes que determinen su verdad más allá de nuestros axiomas, postulados y reglas.

Si, por otro lado, jugando de esta forma el viaje se nos hace más corto, o viajamos más rápido, o el paralelismo del juego y de la realidad se manifiesta más sustancioso así ¿para qué vamos a volver a un juego muy viejo que era más lento, más aburrido y menos eficiente? No abandonaremos el nuestro, claro está, pero es que además nunca haremos la mezcla entre los dos, ya que no tendría coherencia lógica, no tendría consistencia nomológica y ni siquiera tendría sentido real.

VOLVER