La experiencia enseña que es mucho más lo que desconocemos que lo que sabemos. También que muchas veces es más interesante el camino que el destino final y que lo verdaderamente revolucionario empieza con un “¡qué curioso!”.
Esta semana se ha publicado una
entrevista de Jon Gurutz Arranz para Muera
la inteligencia que me realizaron el pasado viernes en Bilbao
mientras estaba allí con motivo del evento Naukas “El universo en
un día”. La entrevista tiene dos partes: “consciencia” y
“filosofía de la ciencia / divulgación”. Puede verse completa
aquí.
Con respecto a la primera parte de la
entrevista ha dado la casualidad de que esta semana también se han
colgado en su página web los vídeos de TEDxCERN, entre ellos una
fantástica charla de John
R. Searle, catedrático de filosofía de la Universidad de
California en Berkeley, titulada “Consciousness and the brain”.
Un físico tan reconocido como Jon Butterworth ha
admitido que lo que nunca hubiese esperado, que la charla de un
filósofo fuese la más apasionante y memorable del evento, fue lo
que ocurrió.
La charla merece mucho la pena. Está
en inglés pero, gracias a los dioses, Searle atemperó su acento de
Colorado en Oxford. Habla rápido para comprimir en 15 minutos todo
un resumen del estado de la cuestión, pero con ayuda de los
subtítulos en inglés puede seguirse, creo, con relativa facilidad.
Por si os quedáis con ganas de más, el resto de conferencias
TEDxCERN, la mayoría con títulos muy sugerentes, están aquí
(sale hasta will.i.am, fijaos si hay variedad). Disfrutadla.
La idea de que existen realmente eso
que llamamos “objetos matemáticos” puede trazarse hasta Platón.
Su razonamiento puede resumirse más o menos en lo siguiente: los
geómetras hablan de círculos “perfectos”, triángulos
“perfectos” y demás cosas perfectas que no se encuentran en este
mundo; por otra parte en la aritmética hablamos de números
compuestos de unidades perfectamente iguales entre sí, aunque esas
unidades tampoco se encuentren en este mundo; por lo tanto, concluye
Platón, las matemáticas tratan de objetos matemáticos que no
existen en este mundo, serían objetos puramente inteligibles que
habitan “otro mundo”; además, como los objetos no son de este
mundo, nuestro conocimiento de ellos debe ser independiente de
nuestra experiencia o, lo que dicho técnicamente, constituye un
conocimiento “a priori”.
Hoy día un porcentaje significativo de
matemáticos trata a los objetos matemáticos platónicamente, bien
porque hayan reflexionado sobre ello y hayan llegado a ese
convencimiento (los menos) o bien de hecho. Se suele reconocer esta
última actitud en que hablan de “descubrimientos”, como si los
objetos matemáticos fuesen flores desconocidas en medio de una,
hasta ese momento, impenetrable selva ecuatorial. Esta posición que,
nos atrevemos a decir, es la que adquieren los matemáticos por
defecto, es una forma de realismo: los objetos matemáticos son
abstractos, eternos y no tienen relación causal con los objetos
materiales. Démonos cuenta que desde un punto de vista lingüístico
esto es equivalente a interpretar literalmente el lenguaje matemático
(por ejemplo, existe un x y existe un y pertenecientes
a tal conjunto tales que si y > x entonces se cumple
que....). Siendo justo, no todo realismo matemático es platónico,
pero la distinción es tan sutil que a los efectos de lo que sigue no
merece la pena pararse en ello.
La cuestión es, si los objetos
matemáticos no son de este mundo y, por tanto, no tienen relación
causal con los materiales (humanos incluidos), ¿cómo podemos saber
que nuestro conocimiento de esos objetos matemáticos es correcto? O,
ya puestos, ¿cómo podemos llegar a conocerlos en primer lugar?
Algunos han respondido estas preguntas
afirmando que existe una capacidad especial que usan los matemáticos,
una intuición matemática, un algo que le da al matemático acceso
directo al universo abstracto, eterno y acausal de las matemáticas.
Según este punto de vista, la intuición matemática sería uno más
de los sentidos que tenemos (que no son cinco, por cierto, son, al
menos, nueve; pero este es otro tema). El propio Platón y Kurt Gödel
desarrollaron epistemologías a partir de esta idea e indicios de la
misma pueden verse en pensadores contemporáneos como Roger Penrose,
por ejemplo.
Pero, claro, este planteamiento tiene
un problema evidente si ponemos un límite naturalista a la
epistemología o, dicho de otra manera, si pensamos que los humanos
somos parte de un universo, y no como expresaba Spinoza “un imperio
dentro de otro imperio”, todas las facultades humanas deben poder
ser estudiadas por métodos científicos. Pero para poder estudiar
esta intuición matemática necesitaríamos que el universo
matemático tuviese una relación causal con ella; como no la tiene,
no puede ser estudiada como parte del universo, digamos, natural y
por tanto la posición platónica y la creencia en las revelaciones
divinas tendrían el mismo fundamento, esto es, la voluntad del que
cree: “creer es un acto del entendimiento que asiente a la verdad
divina por imperio de la voluntad movida por Dios mediante la gracia”
que decía Tomás de Aquino en la “Suma teológica”.
Afortunadamente la ciencia, como la
naturaleza a la que pertenece, no está limitada ni por el tiempo ni
por el espacio. Pertenece al mundo, y no es de ningún país o época.
Cuanto más sabemos, más sentimos nuestra ignorancia; más sentimos
cuánto queda desconocido; y en filosofía el sentimiento del héroe
macedonio nunca puede aplicarse: siempre hay nuevos mundos por
conquistar.
Esta cita pertenece a un discurso que
Humphry Davy, uno de los más eminentes científicos del siglo XIX,
dirigió a los miembros de la Royal Institution en 1825. En este
breve texto se ponen de manifiesto, por una parte la fe en un
progreso sin límites para la ciencia y la paradoja del conocimiento,
cuanto más conocemos más somos conscientes de lo que no sabemos y,
además, lo desconocido parece ser cada vez mayor que lo que se
conoce. Pero, cabría plantearse, ¿en qué consiste el progreso
científico? ¿realmente es ilimitado? Y ya puestos, ¿es racional?
Estas preguntas podrían parecer
intrascendentes para la investigación científica como tal, esto es,
el investigador buscará sus resultados independientemente de si
existe el progreso en ciencia o no, otra cosa es que sus posiciones
filosóficas le influyan más de lo que está dispuesto a reconocer.
Pero, tal y como yo lo veo, no son intrascendentes en absoluto para
un divulgador científico. El divulgador debe contextualizar lo que
cuenta, ponerlo en perspectiva, muchas veces histórica, y en
bastantes casos su posicionamiento, consciente o inconsciente, sobre
el progreso científico será el que marque su enfoque de los hechos
que intenta explicar. No sólo eso, parte de su público objetivo
tendrá probablemente una posición diferente y esta diferencia será
un obstáculo para la transmisión del conocimiento. De hecho, cuanto
más “de letras”, más dificultades. Por ello, tener una idea,
aunque sea aproximada, de en qué formas diferentes podemos entender
el progreso científico sería de utilidad para que el divulgador
pudiera hacer llegar mejor su mensaje o, al menos, comprender mejor
las reacciones de partes de su audiencia.
En lo que sigue analizaremos
someramente, y sin ánimo de ser exhaustivos, lo que desbordaría los
límites de este artículo, tres visiones fundamentales del progreso
científico que científicos y divulgadores suelen tomar como
propias. Es posible que el amable lector descubra y se identifique
claramente con una de ellas, considerándola “de cajón”, o con
una combinación lineal de las tres. Para finalizar veremos una
cuarta que suele ser frecuente, explícita o implícitamente, en una
parte no menor del público teóricamente objetivo y que está en la
raíz de parte del rechazo a la ciencia, sus métodos y resultados,
dificultades de comprensión aparte: hablamos del relativismo.
Este es el comienzo de nuestro articulo en CICNetwork. La revista completa puede descargarse gratuitamente aquí. El artículo sólo, aquí.
Irving Langmuir fue un científico en la frontera entre lo
experimental y lo teórico. Fue la antítesis de la imagen
prototípica del científico: práctico, pragmático, elegante,
industrial, con una gran capacidad de comunicación. Recibió el
premio Nobel y fue presidente de la Asociación Química Americana
(ACS, por sus siglas en inglés). En una famosa charla-coloquio de
1953 describió lo que él llamó la “ciencia de las cosas que no
son” o, como sería conocida más tarde, “la ciencia patológica”.
Langmuir consideraba ciencia patológica aquella investigación
realizada según el método científico, pero marcada por sesgos
inconscientes o efectos subjetivos. La ciencia patológica no debe
confundirse con la pseudociencia, que no tiene pretensión alguna de
seguir el método científico.
Langmuir
Irving Langmuir nació en Nueva York en 1881 y se graduó en la
Escuela de Minas de la Universidad de Columbia en ingeniería
metalúrgica en 1903. A principios del siglo XX el centro del nuevo
conocimiento sobre la constitución de la materia estaba repartido
entre Inglaterra y Alemania, con el permiso de Francia. Langmuir opta
por dirigirse a Gotinga a estudiar con Walther Nernst, atraído por
lo que son los nuevos experimentos que mezclan gases y electricidad.
Sólo tres años después ya es doctor.
Tras una formación de primer nivel era natural que su primer
empleo fuese como profesor, en concreto en el Instituto Stevens de
Tecnología. Tardó muy poco en aburrirse de la vida académica. En
1909 llegó al recién inaugurado laboratorio de investigación de
General Electric (GE) en Schenectady (Nueva York), donde permanecería
41 años.
Su primer trabajo fue resolver los problemas que tenían en GE con
el nuevo filamento de tungsteno de las bombillas. Como resultado las
bombillas pasaron a estar llenas gas (nitrógeno primero, argón
después) para evitar la oxidación del filamento y a incorporar éste
retorcido en forma de espiral para inhibir la vaporización del
tungsteno.
Sus investigaciones puramente industriales le llevaron siempre a
preguntarse por el fundamento teórico. Un aspecto notable de este
interés fue su incursión en la teoría del enlace químico en
términos electrónicos. Langmuir se basó ampliamente en la teoría
de Gilbert Lewis, desarrollándola, y ofreciendo como resultado en
1919 el concepto de enlace covalente. Pero cuando Langmuir comenzó a
hacerse conocido se abrió una de las más agrias disputas que se
recuerdan con Lewis por la prioridad en las ideas. Pasado un tiempo
prudencial, podemos afirmar que la mayor parte del mérito teórico
fue de Lewis, pero que fue Langmuir el que consiguió hacer
inteligible y promocionar la idea. Y es que Langmuir era un gran
orador.
No fueron sus estudios sobre el enlace químico los que le
valieron el Nobel en 1932, sino sus estudios pioneros sobre las
monocapas superficiales, lo que después se ha llamado química o
física de superficies. Langmuir fue fundamental en este campo, pero
no estuvo sólo (hubo dos mujeres pioneras que hicieron un trabajo
importantísimo en este campo, Agnes Pockels con
anterioridad, y Katharine Blodgett, al lado de Langmuir).
Todas
las semanas se publican decenas de entradas interesantes. Algunas
ameritan de más tiempo para disfrutarlas, para la reflexión.
Necesitan de tiempo para leer.
¿Será posible que en cuanto vemos que otros ponen un precio a las cosas, nosotros entremos en el juego y rebajemos con ello nuestros estándares éticos?
Si uno se encuentra en alguna parte que
el universo está compuesto de cuatro elementos, automáticamente
asume que el texto que lee, o la historia que cuenta el vídeo que ve
o la narración que escucha, tienen que ver muy probablemente con la
Grecia prearistotélica [nadie debería pensar en nada posterior
porque todos sabemos que Aristóteles introdujo un quinto componente,
el éter]. Y es que la teoría de las cuatro “raíces” (la
palabra “elemento” es de Platón) es de Empédocles, que vivió
en el siglo V antes de la era común.
Pero no, existe la posibilidad de que
leas sobre cuatro elementos como constitutivos del universo y se te
esté hablando de algo muy reciente, con apenas un siglo de
antigüedad. En el año en el que conmemoramos el centenario de la
publicación del modelo atómico de Bohr, quizás convenga recordar
al que fuera su principal modelo rival y que influyó en el
desarrollo del propio modelo de Bohr, uno que ya no aparece ni en la
mayoría de los libros de historia, el modelo de John William
Nicholson.
El paso 10 de abril aparecía publicado
en Nature un método que “hacía transparentes” los
encéfalos, llamado CLARITY y que, por su espectacularidad, ocupó
periódicos y noticiarios televisivos. Pasado un tiempo razonable,
creo que puede resultar interesante para alguno saber cuál es el
fundamento de la técnica, que es un prodigio de química aplicada.
Permítaseme ir directamente al grano.
Para una introducción general este
artículo es tan bueno como cualquier otro (contiene un error en
los datos, te dejo que lo averigües, tras leer lo que sigue).
El encéfalo, como cualquier otro
órgano del cuerpo, está formado por células, muy especializadas
sí, pero células al fin y al cabo. Las células, simplificando
mucho, no son más que una serie de orgánulos nadando en un líquido
llamado citoplasma contenido por una doble capa lipídica, que es lo
que llamamos membrana. Algunos de esos orgánulos, como el núcleo,
también están contenidos por dobles capas lipídicas.
Estas membranas son permeables de forma
selectiva, esto es, dejan pasar determinadas moléculas pero no
otras, en concreto es muy difícil que dejen pasar macromoléculas.
Por otra parte la interfase entre la doble capa lipídica y el
citoplasma por un lado y por otro la interfase acuosa exterior a la
célula provocan la dispersión de la luz. Estos dos fenómenos
indican que ni podemos enviar tintes, u otras macromoléculas, al
interior de la célula ni podemos ver dentro de ella sin romper la
membrana. CLARITY es un método para acabar con estos problemas de
raíz: eliminar las dobles capas lipídicas, las membranas,
manteniendo su contenido en su lugar, sustituyéndolas por un
material que permita el paso de macromoléculas y fotones sin oponer
demasiada resistencia y que preserve la integridad estructural de
células y tejidos.
Para conseguir este objetivo tan
ambicioso CLARITY termina usando un hidrogel formado in situ, como
veremos en seguida. Quizás convenga aclarar antes de seguir
qué es un gel. Todos tenemos geles en casa, algunos geles de
baño/ducha son geles propiamente dichos; sabemos que hacen espuma,
que tienen color, que huelen, que se lleva bien con el agua y que
actúa como jabón. También es posible que tengas geles en el
frigorífico, en forma de gelatina; en esta ocasión te comes el gel.
¿Qué es un gel? Pues es un sistema en el que unas macromoléculas
(polímeros) tienen atrapado un líquido en su red estructural, y se
llaman hidrogeles si el líquido es agua. Los geles tienen la
peculiaridad de que son sólidos si no se agitan (están como
conGELados; su nombre viene del latín gelatus, congelado);
esta propiedad será muy útil en CLARITY.
CLARITY tiene tres fases:
Primera fase. El proceso
comienza introduciendo los monómeros componentes de los polímeros
que luego formarán el hidrogel (básicamente acrilamida y
bisacrilamida) junto con formaldehído e iniciadores de
polimerización por temperatura en los tejidos. Esto se hace en un
baño a 4ºC durante dos días.
En esta fase, el formaldehído
entrecruza, dicho en químico, une covalentemente, los monómeros de
lo que después será el hidrogel a distintas biomoléculas,
incluyendo proteínas, ácidos nucleicos y moléculas más pequeñas
que anden por allí.
Segunda fase. Se inicia la
polimerización de los monómeros (que están unidos a biomoléculas,
tengámoslo presente) simplemente elevando la temperatura del
conjunto a 37ºC durante 3 horas. Tras este tiempo el tejido y el
hidrogel se han convertido en una estructura híbrida que es capaz de
dar soporte físico al tejido y que incorpora químicamente las
biomoléculas a la red estructural del hidrogel.
Un punto muy importante a resaltar es
que ni lípidos ni aquellas biomoléculas que carezcan de los grupos
funcionales adecuados están unidas al hidrogel, por lo que pueden
ser retiradas del mismo.
Tercera fase. Se extraen los
lípidos. La extracción de las moléculas lipídicas se puede hacer
con mucho tiempo y empleando disolventes orgánicos (el hidrogel es
hidrofílico) o cientos de veces más rápido aprovechando la alta
carga de las dobles capas lipídicas (micelas
después de todo) usando electroforesis.
El resultado es que el hidrogel asegura
que las biomoléculas y los matices estructurales, como las proteínas
de membrana, las sinapsis o las espinas, se quedan en su sitio,
mientras que los lípidos de las membranas que causan la dispersión de
la luz e impiden la penetración de macromoléculas se han quitado de
en medio, dejando detrás un sistema biológico con todo en su sitio
listo para ser etiquetado, tintado y fotografiado a placer. No hay más que verlo:
“Los
cometas no son restos del disco protoplanetario que dio origen al
Sistema Solar. Realmente son sondas que manda una civilización que
habita un planeta errante oscuro, llamado Hadesun, más allá de la
parte más exterior del Sistema Solar para comprobar la evolución de
los humanos en la Tierra. Por eso los gobiernos de las potencias
mundiales están enviando sondas (Stardust, Rosetta, Deep Impact) con
objeto de hacerse con esa tecnología.”
No
sé si existe algún grupo que sostenga algo parecido a lo anterior.
En cualquier caso, yo me lo acabo de inventar a los efectos de
ilustrar lo que sigue.
Fijémonos
en el planteamiento: unimos hechos conocidos, a saber, existen los
cometas, tienen órbitas que los llevan a los confines del Sistema
Solar, su interior es desconocido (afirmación implícita), se está
gastando dinero en misiones complicadas para obtener información
sobre ellos, con una explicación estrambótica pero que, en cierta
manera, da cuenta de los hechos. Habrá quien la crea, además.
Aquí
viene uno de los quids de la cuestión que queremos plantear: la
explicación hadesunita “es falsable” en el sentido que venimos
criticando las dos últimas semanas (aquí y aquí).
Entonces, ¿es el hadesunismo una explicación científica hasta que
no se demuestre su falsedad? ¿Está a un nivel científico mayor que
la teoría de cuerdas, por ejemplo?
Si
reflexionamos un momento, veremos que demostrar explícitamente la
falsedad del hadesunismo no es tarea fácil. Las explicaciones que
demos se basarán en modelos de la formación del Sistema Solar, en
plausibilidades y en la navaja de Ockham pero no en una comprobación
experimental de que Hadesun no existe. Por lo tanto estas
explicaciones serán fácilmente criticables y habrá multitud de
hipótesis auxiliares a las que recurrir cuando los datos
experimentales que esgrimamos indiquen que Hadesun no existe.
Digámoslo claramente, es en este tipo de “dificultades” en el
que se basa la pervivencia de muchas pseudociencias y, de paso,
muchas creencias de tipo religioso .
Y,
sin embargo, la resolución de este tipo de planteamientos ya la
encontraron hace unos dos mil años los abogados romanos y es
extrapolable a la filosofía de la ciencia. Cualquier picapleitos
romano habría inmediatamente esgrimido elonus probandi, la
carga de la prueba, enunciando adecuadamente el affirmanti
incumbit probatio, al que afirma le incumbe la prueba, esto
es, será quien afirme que existe Hadesun* quien haya de aportar
pruebas tangibles de su existencia. Algo implícito en esta
tangibilidad es que debe ser comprobable/reproducible por cualquiera
siguiendo una metodología conocida, en cualquier momento y que no
valen ni textos revelados, ni palabras de una “autoridad”.
Vemos
que a la falsabilidad se le da la vuelta como un calcetín: no es una
característica inherente a la hipótesis que la legitime, sino la
actitud con la que debe ser tratada, siendo su falsedad la
posición por defecto. De la misma manera, vemos que las
hipótesis ganarán valor por sus éxitos. Si nos damos cuenta, y
siguiendo con los latinajos legales, es un habeas corpus al
revés, “una hipótesis es falsa hasta que se demuestra lo
contrario”.
La
demarcación entre ciencia y pseudociencia no es tan fácil como
parece y lo que sí parece evidente es que no puede basarse en un
único criterio.
Todas las semanas se publican decenas
de entradas interesantes. Algunas ameritan de más tiempo para
disfrutarlas, para la reflexión. Necesitan de tiempo para leer.
Enciclopédica, en el mejor sentido de la palabra, anotación sobre la vida y obra de Vera Rubin. Una obra de referencia que se lee con muchísimo agrado.
Comprendo que las matemáticas pueden resultar bastante difíciles de por sí para algunos como para encima estar haciendo matemática-ficción, pero este relato permite darle otra vuelta de tuerca a los números imaginarios de una forma, cuando menos, original.
Un recorrido histórico-nostálgico técnico-científico lúdico-chiripitifláutico por el mundo en vías de desaparición de los soportes magnéticos de grabación.
¿Qué ocurriría si no pudiésemos conocer con precisión y a la vez las coordenadas espaciales? Una exploración muy interesante de la indeterminación y la no conmutatividad profusamente ilustrada.
Se sabe desde hace mucho tiempo que la resolución espacial que se
puede conseguir con un microscopio óptico, esto es, la
característica más pequeña que se puede observar, es del orden de
la longitud de onda de la luz que se emplee. Para que nos hagamos una
idea del orden de magnitud, la longitud de onda del verde es de 550
nm (nanometros). Una forma de mejorar esta resolución es evidente:
usar partículas con longitudes de onda asociadas más pequeñas o,
lo que es lo mismo, más energéticas. Este es el fundamento de los
microscopios electrónicos, en los que las partículas que se usan
son electrones. Razones de índole puramente ingenieril hacen que la
energía de los electrones empleados en los microscopios electrónicos
de transmisión (MET) esté en el rango de los 100 a 300 keV, lo que
corresponde a una longitud de onda de entre 3,7 y 2 pm (picometros).
Parémonos aquí un momento porque esto es importante. El radio
del átomo de hidrógeno, llamado radio de Bohr (la distancia más
probable entre el protón del núcleo y el electrón en el estado
estacionario) es de 52,9 pm [ojo, el hidrógeno es el átomo más sencillo pero no el más pequeño]. ¿Significa esto que podemos ver
“dentro” de un átomo de hidrógeno usando un MET? Vamos a verlo.
La resolución de un MET está limitada no sólo por la longitud
de onda de los electrones, sino por las imperfecciones de las lentes
electrónicas. Las principales son las aberraciones esférica
y cromática.
Instalando correctores (lentes auxiliares) se puede conseguir una
resolución de 50 pm. Sí existen fotos de átomos, por tanto (véase
por ejemplo aquí).
En la MET lo que se hace es que un haz de electrones atraviese una
capa muy fina de la muestra (de ahí lo de transmisión) y después
medir cómo han sido afectados los electrones por ese paso. De esta
forma podemos saber la posición y más o menos el tamaño de los
átomos que constituyen la muestra. En este sentido, “vemos” los
átomos. Sabemos qué átomos son, qué elementos, por métodos
químicos: bien porque nosotros hemos sintetizado la muestra, bien
porque lo hayamos determinado analíticamente.
En el caso del MET, al atravesar la muestra los electrones pueden
perder una cantidad de energía que es característica del elemento
concreto con el que están interaccionando. Existe una versión de
los MET, la llamada con filtro de energías (MET-FE), que es capaz de
interpretar las energías de los electrones transmitidos y obtener lo
que se llaman mapas químicos de la muestra. Esta técnica ya es
comercial y permite realizar análisis químicos a escala nanométrica
(véase por ejemplo IMP).
Acabamos de decir nanométrica. ¿Pero no decíamos que la
resolución era 50 pm? Efectivamente, pero de nuevo nos encontramos
para las técnicas MET-FE los problemas de las aberraciones,
especialmente la cromática. Por lo tanto la MET-FE aún no ha
conseguido la resolución atómica.
Y aquí es donde interviene el equipo encabezado por Knut Urban,
del centro de investigación Jülich (Alemania). Urban recibió en
2011 el premio Wolf de física precisamente por sus trabajos para
corregir las aberraciones en los MET. En un artículo aparecido en
Physical Review Letters estos investigadores lo que vienen a
decir es que han conseguido corregir la aberración cromática en
MET-FT. Y para ello han usado el mismo razonamiento que se emplea en
astroquímica.
Para determinar que en una nebulosa existe la molécula X, lo que
se hace es tomar una muestra de esa molécula, ponerla en las
condiciones de temperatura y vacío del espacio interestelar, y medir
su espectro en esas condiciones. Después hay que cotejar los
espectros recogidos por los telescopios para comprobar si los picos
característicos de nuestra molécula están presentes. Pero, y esto
es lo interesante, lo que se hace si no se puede conseguir poner la
muestra en las condiciones del espacio por la razón que sea, son
cálculos teóricos (químico-cuánticos) a partir de primeros
principios que nos dirán cuál será probablemente su espectro.
Urban et al. han hecho esto mismo aparte de desarrollar nuevas
ópticas: cálculos teóricos que permiten interpretar la información
recibida.
Los autores pusieron a prueba su método con una muestra de
silicio consistente en un único cristal. Seleccionaron sólo
aquellos electrones que interactuaban con electrones muy específicos
del silicio. La resolución fue suficiente para visualizar las
“mancuernas de silicio”, átomos de silicio vecinos que se
emparejan en ciertos planos del cristal. Las imágenes muestran que
los centros de dos átomos que forman una mancuerna están separados
135 pm (te puedes entretener midiéndolo tú, sabiendo que el radio atómico del silicio es 111 pm).
Si nos damos cuenta, esto es exactamente lo que se ve en las
películas de ciencia ficción: introducen una muestra minúscula en
un equipo y éste te dice la composición átomo a átomo. El futuro
ya está aquí (otra vez). Nos falta la Enterprise.
Es conocido el hecho de que Albert
Einstein se hizo mundialmente famoso tras la medición por parte de
Arthur Eddington el 29 de mayo de 1919 de la desviación que sufría
la luz al pasar cerca de un objeto masivo, en este caso el Sol. En
muchos lugares veremos recogido que este efecto era una predicción
de la teoría general de la relatividad de 1916, y esto, para
sorpresa de alguno, ya no es del todo correcto.
La predicción de que la luz sufre una
desviación al pasar cerca de un objeto masivo está presente en la
mecánica newtoniana. Tanto es así que tanto Henry Cavendish en 1784
(en un manuscrito que, fiel a su costumbre, no publicó) como Johan
Georg von Soldner realizaron cálculos de la magnitud de esa
desviación. El manuscrito de von Soldner [1], titulado “Sobre la
desviación de un rayo de luz de su movimiento rectilíneo por la
atracción de un cuerpo celeste del que pasa cerca”, escrito en
1801 y publicado en 1804, contenía los resultados de éste.
En 1911 Einstein publicaba el artículo
“Sobre la influencia de la gravedad en la propagación de la luz”
[2], ampliación de uno de 1908, en el que obtenía, atención, los
valores de Soldner pero, eso sí, basándose únicamente en el
principio de equivalencia. Tal era la coincidencia numérica que
Philipp
Lénárd tuvo base para acusar después a Einstein de plagio.
Avanzada la teoría general de la
relatividad, Einstein se dio cuenta de algunos errores, y corrigió
sus cálculos en 1915 obteniendo los datos (la suma de los efectos
clásicos y de la dilatación temporal gravitacional) que después
Eddington daría por confirmados en 1919.
En su artículo de 1911 Einstein
proporcionaba una posibilidad de comprobar experimentalmente sus
teorías. De hecho, Einstein asumía que una medición de la
desviación de la luz a su paso por las cercanías del Sol probaría
que su hipótesis era correcta y que Newton fallaba. A hacer la
observación se avino Erwin
Finlay-Freundlich, del Observatorio de Berlín. Finlay-Freundlich
organizó una expedición financiada por Gustav Krupp von Bohlen und
Halbach para observar el eclipse total de Sol del 21 de agosto de
1914 desde la península de Crimea. Pero, hete aquí, que el
archiduque Franz Ferdinand fue asesinado en Sarajevo el 28 de junio
de 1914; la Primera Guerra Mundial comenzó exactamente un mes más
tarde. Finlay-Freundlich, en ruta hacia Crimea, fue hecho prisionero.
La siguiente oportunidad de medición
fue la que aprovechó Eddington en 1919, con los valores teóricos ya
corregidos y la teoría general de la relatividad ya publicada en
1916. Sin embargo, y aunque las observaciones se repitieron varias
veces (notablemente en 1922 y 1953), hasta que no se pudo medir en
radio frecuencia, ya en los años 60, la incertidumbre de las
mediciones no se redujo lo suficiente como para confirmar que la
desviación se correspondía con lo predicho por la teoría general
de la relatividad y no la mitad de ese valor, lo predicho por Newton.
Puesta al día sobre el estado de una cuestión polémica, sobre la que falta mucha información científica en la población en general, y con impactos económicos evidentes. Resumen de los puntos principales del número especial de Nature.
Reflexión sobre la validez científica de la teoría de cuerdas (como reacción a mi anotación en el Cuaderno de Cultura Científica "Las teorías científicas no son falsables")
Advierto que contiene fórmulas, pero es muy fácil de seguir si no se tiene prisa y las matemáticas no pasan de las del bachillerato (el mío, al menos). Un tema aparentemente baladí pero que encierra el intríngulis de la relatividad especial y más allá muy bien desarrollado por Enrique (¿seré yo o se le nota últimamente la influencia de Fis el amigo de Mati?).
Estos días ha sido noticia
en Europa la prohibición de tres pesticidas neonicotinoides por sus
presuntos efectos perniciosos sobre la población de abejas
melíferas. Todo ello alimentando la quimiofobia general. Y, sin
embargo, existe la posibilidad de que lo que estemos es ante una caso
manifiesto de falacia cum
hoc ergo procter hoc, más conocida quizás en su forma
“correlación no implica causalidad”. Pero fundamentemos esta
afirmación.
Un equipo de entomólogos de la Universidad de Illinois en
Urbana-Champaign (EE.UU.), encabezados por Wenfu Mao, ha encontrado
una posible conexión entre la práctica de alimentar a las abejas
con productos sustitutivos de néctar, como los jarabes de alto
contenido en fructosa (hasta
del 92% se comercializa en España, por ejemplo), y la
disminución de las colonias de abejas. Estos alimentos sustitutivos
no contienen compuestos esenciales para la regulación de los
procesos inmunes y desintoxicantes de la Apis mellifera, lo
que las haría vulnerables a pesticidasque
no tendrían por qué afectarles. Los resultados se publican en los
Proceedings of the National Academy of Sciences.
Los sustitutivos del néctar comenzaron a usarse en los años 70
del siglo pasado. Desde entonces se han desarrollado y comenzado a
usarse nuevos pesticidas, pero parece ser que la respuesta inmune de
las abejas no ha podido adaptarse a estos cambios en su ambiente.
Los investigadores determinaron que compuestos que se encuentran en
la miel, incluyendo el ácido p-cumárico, la pinocembrina y la
pinobanksina 5-metil éter, inducen específicamente la acción de
los genes de proteínas desintoxicantes. Estos compuestos no se
encuentran en el néctar
(que es a lo que sustituyen realmente los jarabes) sino en el polen y
el propóleo.
En concreto encontraron que el ácido p-cumárico regula toda clase
de genes desintoxicantes, así como determinados genes
antimicrobianos (aunque algo
de esto ya sabíamos). Esta regulación tiene importancia
funcional, como los investigadores demostraron añadiendo p-cumárico
a una dieta de sacarosa, lo que incrementaba el metabolismo de un
ectoparasiticida organofosforado (Cumafós),
también usado como acaricida en el interior de las colmenas, en un
60%.
Vemos así que el uso extensivo de los sustitutivos alimenticios por
parte de los apicultores industriales, que retiran toda la miel
impidiendo a las abejas alimentarse en invierno de sus reservas que
contienen todos los micronutrientes necesarios, podrían estar
privando a éstas de su mecanismo natural de defensa.
Si esto se confirmase (de hecho cualquier apicultor que leyese esto
podría hacer un experimento fácilmente), aparte de ser una bonita
ilustración de una falacia lógica, las soluciones no serían
demasiado difíciles. Eso sí, serían económicas y de cadena de
suministro.
Referencia:
Mao W., Schuler M.A. & Berenbaum M.R. Honey constituents up-regulate detoxification and immunity genes in the western honey bee Apis mellifera, Proceedings of the National Academy of Sciences, DOI: 10.1073/pnas.1303884110