Mostrando las entradas con la etiqueta ciencia. Mostrar todas las entradas
Mostrando las entradas con la etiqueta ciencia. Mostrar todas las entradas

sábado, agosto 18, 2012

Gente realmente peligrosa

Por Francesc de Carreras, catedrático de Derecho Constitucional (La Vanguardia, 16/08/2012).
Está a punto de verificarse experimentalmente la existencia del llamado bosón de Higgs, de una importancia capital, según dicen, para encontrar una explicación científica al origen de la materia. La verdad es que no entiendo nada de todo esto y quizás lo que acabo de decir es falso e inexacto. Pero en todo caso, aquello que se quiere demostrar hoy con el famoso bosón –palabreja que, según el diccionario, equivale en física a partícula elemental– ha preocupado a los filósofos desde la Grecia clásica. En el fondo se trata de encontrar el origen del mundo y de la vida, el origen de nosotros mismos. Acabo de leer el libro Gente peligrosa del historiador Philipp Blom (Anagrama, Barcelona, 2012). Apasionante. Su subtítulo es “El radicalismo olvidado de la Ilustración europea”. En efecto, cuando tratamos de los ilustrados del siglo XVIII nos vienen enseguida a la memoria los nombres de Montesquieu, Voltaire, Rousseau o Kant. Ciertamente también la Enciclopedia francesa, aquella gran obra colectiva que compendiaba el saber más avanzado de la época. Pero olvidamos a ilustrados injustamente considerados como menores. Este libro trata de algunos de ellos, de los más materialistas y contrarios a las ideas religiosas.
La obra se centra en los debates que tuvieron lugar durante casi treinta años en la confortable casa parisina del barón D’Holbach, en la segunda mitad del siglo XVIII, justo antes de la Revolución Francesa. D’Holbach era un filósofo y científico de origen alemán, poseedor de una fortuna familiar considerable, que dedicó su vida a desarrollar los ideales ilustrados. Todos los jueves y domingos abría los salones de su casa a los más conspicuos intelectuales subversivos de la época y, en el agradable entorno de opíparas cenas, se debatía libremente sobre las grandes cuestiones científicas, filosóficas, políticas, literarias y sociales.
En estas veladas brillaba muy especialmente el culto, agudo, infatigable y locuaz Diderot, íntimo amigo de D’Holbach y gran artífice de La Enciclopedia (sobre la que Blom ha publicado también otro excelente libro, también editado por Anagrama). Muchas de las voces de la obra surgieron en estos debates, el mismo D’Holbach escribió cientos de ellas. El salón tuvo sus fieles más habituales, aquellos otros que asistían al principio y pronto se alejaron por discrepancias personales o ideológicas –la ruptura más conocida fue la de Rousseau, un paranoico más romántico que ilustrado– y aquellos extranjeros que lo frecuentaron durante sus estancias parisinas, como fue el caso de Hume, Franklin o Beccaria. En todo caso, el salón de D’Holbach constituye una referencia ineludible de la cultura europea de la época.
El libro de Blom no sólo trata de las ideas que allí se discutieron, del pensamiento de unos y otros, sino también de las relaciones entre ellos, de su vida privada, de sus dificultades con la censura, de los riesgos que corrían –nada menos que su vida y todos sus bienes– en aquella Francia absolutista dominada políticamente por la monarquía e ideológicamente por la Iglesia católica.
¡Menuda gente fueron aquellos ilustrados! Bajo capa de respetabilidad social, ejercían una labor subversiva, especialmente en el mundo de la moral y las ideas, que ponía en cuestión todo el establishment de la época y que, con el tiempo, ha dado sus frutos. Sólo apuntar que el mismo barón D’Holbach publicó secretamente su muy considerable obra en Holanda, naturalmente bajo seudónimo y la verdadera identidad del autor no se conoció hasta bien entrado el siglo siguiente. Eran gente muy trabajadora, moralmente recta y con una admirable honestidad intelectual. Actuaban a contracorriente de los valores y las jerarquías dominantes y, aunque eran conocidos como escritores y filósofos, cuando no había más remedio hacían circular sus peligrosas ideas clandestinamente.
La principal diferencia con otros ilustrados no radicales –como Voltaire o Kant– tenía dos vertientes principales, una filosófica y otra moral. En lo filosófico, los radicales se consideraban herederos de las ideas de Descartes y Spinoza pero dando una vuelta de tuerca más a sus razonamientos: el origen de la vida únicamente podía explicarse por razones materiales, había cuerpo pero no alma, la filosofía no era especulación metafísica sino ciencia, es decir, razón y experimentación. En cuanto a la moral, se sentían deudores de la tradición hedonista (Epicuro y, especialmente, Lucrecio) aunque también de la estoica (sobre todo, Séneca), con lo cual conseguían un equilibrio en el que la búsqueda del placer estaba limitada por la existencia de otros seres humanos, es decir, todo lo que se percibe como agradable por los sentidos debe ser aceptado moralmente excepto que ello perjudique a los demás.
Así pues, las ideas radicales ilustradas son un precedente de Darwin, de Einstein y de Freud, sin ellas no se habrían dado los actuales avances en neurociencia, en investigación con células madre o en física de partículas, ni Higgs habría intuido su famoso bosón ni el equipo del CERN estaría a punto de probar su existencia. Gente realmente peligrosa.

domingo, julio 10, 2011

Los cien años de la superconductividad

Por Michael Norman, Miembro Distinguido y jefe de la división de ciencia de los materiales en el Argonne National Laboratory, investigador principal en el Center for Emergent Superconductivity y miembro de la American Physical Society. Traducción: Esteban Flamini (Project Syndicate, 08/07/11):

Recientemente, D-Wave Systems de Canadá vendió a Lockheed-Martin la primera computadora “cuántica” del mundo: una máquina que aprovecha la magia de los fenómenos cuánticos para llevar a cabo tareas de almacenamiento y procesamiento a una velocidad increíblemente superior a la de los microprocesadores de silicio actuales. Y si bien hay quienes ponen en duda que esta máquina sea realmente una computadora cuántica, sus diseñadores han publicado artículos en diversas revistas con referato donde demuestran que los componentes básicos de esta novedosa computadora son realmente bits cuánticos superconductores.

Esta primavera [en el hemisferio Norte] se cumplió el centésimo aniversario del descubrimiento de la superconductividad: la capacidad de los materiales de transportar corrientes eléctricas sin pérdidas. Una vez que en un cable superconductor se establece una corriente, esta puede permanecer allí durante años sin que se observe ninguna reducción mensurable.

Gracias a esta propiedad, los superconductores exhiben características únicas que se pueden aprovechar de muchas maneras. Por ejemplo, pueden transportar enormes cantidades de corriente, convirtiéndose así en un material ideal para el tendido de redes urbanas de electricidad. Y enrollados en forma de bobina, pueden producir campos magnéticos extremadamente intensos.

Los electroimanes superconductores ya tienen aplicación en diversas tecnologías. Los ejemplos más notorios son los electroimanes en los que se basa el funcionamiento de los dispositivos de diagnóstico por imágenes mediante resonancia magnética, presentes en la mayoría de los hospitales. Y los más extraordinarios tal vez sean los enormes electroimanes usados como aceleradores de partículas en el Gran Colisionador de Hadrones, el dispositivo con el que se busca descubrir los principios fundamentales de la materia.

Pero a pesar de las grandes expectativas que despiertan, los materiales superconductores tienen limitaciones, de las que la más importante es que, en la mayoría de los casos, para que se produzca la superconductividad es necesario enfriarlos a temperaturas muy bajas, de hecho cercanas al cero absoluto (-273 ºC). El único modo de alcanzar semejantes temperaturas es usar helio líquido como refrigerante. Eso explica el revuelo que ocasionó en 1986 un grupo de investigadores suizos al anunciar que habían descubierto la presencia de superconductividad en un óxido de cobre a una temperatura dos veces superior a la marca anterior.

No mucho después, un grupo de investigadores en los Estados Unidos encontró un material relacionado que es superconductor a temperatura superior a la de licuefacción del aire. Como anunció la revista Time en mayo de 1987, el descubrimiento de estos materiales, denominados “cupratos”, marcó el inicio de la revolución de la superconductividad.

Pero ¡ay! pronto la revolución entró en un atasco. Los cupratos son materiales muy difíciles de trabajar, por ser extremadamente frágiles. Para colmo de males, presentan una gran anisotropía, porque están formados por el apilamiento de láminas conductoras débilmente acopladas, lo que les da una estructura cuasi bidimensional. Por eso plantean grandes dificultades para el uso industrial (aunque ya comienzan a aparecer algunas aplicaciones).

Desde que los cupratos salieron a la luz, se han descubierto diversos superconductores de “alta temperatura”; hay uno que es un compuesto simple de magnesio y boro y otro que involucra una combinación de hierro y arsénico. Si bien ninguno de estos materiales es superconductor a temperaturas tan altas como la del aire líquido, puede ser que en última instancia resulten más utilizables. Dada la enorme cantidad de combinaciones de elementos que permiten formar compuestos químicos, no es improbable que haya mejores superconductores a la espera de ser descubiertos.

Se prevé que en los próximos años se encontrarán cada vez más aplicaciones tecnológicas para los superconductores. Ya se usan alambres de cuprato de “segunda generación” para producir cables de alta capacidad para la transmisión de la energía eléctrica y generadores más livianos para las turbinas eólicas. La mayor potencia de los electroimanes superconductores permite ahora crear dispositivos de resonancia magnética con capacidades de diagnóstico superiores. Se usan superconductores para la levitación de los trenes en el área del transporte ferroviario de alta velocidad, y también como filtros de microondas para mejorar el ancho de banda de las señales en las estaciones de telefonía celular. Si se descubriera un nuevo material superconductor con propiedades mejoradas, podría ser el inicio de otras innovaciones tecnológicas.

Esto nos trae a la cuestión del desafío que suponen los superconductores desde el punto de vista intelectual. Tuvieron que transcurrir 46 años entre el descubrimiento de la superconductividad y la formulación, en 1957, de la teoría de Bardeen, Cooper y Schrieffer (BCS) respecto de cómo se produce este fenómeno. Antes de esta teoría, muchos físicos de renombre buscaron una explicación del fenómeno y fracasaron en el intento; como ejemplos notables cabe señalar a Albert Einstein, Werner Heisenberg y Richard Feynman.

Para hallar la solución hubo que desarrollar técnicas teóricas avanzadas. La dificultad estaba en comprender cómo hacer para que los electrones ingresen en un estado de superconductividad. Lo que básicamente descubrió la teoría BCS fue que para lograrlo, había que enlazar los electrones en parejas.

Felizmente, el mecanismo de emparejamiento ya se conocía. Si bien los electrones tienen carga negativa (y por consiguiente se repelen mutuamente), cuando fluyen a través de un metal dejan a su paso iones que pueden mediar como una fuente de atracción eficaz entre los miembros de una pareja de electrones, siempre que se den determinadas condiciones (por ejemplo, el metal debe estar muy frío).

Pero se sospecha que en el caso de los nuevos materiales superconductores el fenómeno se produce de otro modo. Por un lado, los cupratos son superconductores a temperaturas muy superiores; por el otro, y esto es más importante, exhiben ciertas propiedades extrañas: son materiales que se crean mediante el añadido de impurezas portadoras de electricidad en un material receptor que es magnéticamente aislante (el último lugar donde uno buscaría un superconductor convencional). Y a diferencia de lo que ocurre con la teoría BCS, en la cual las parejas son isotrópicas (es decir, exhiben las mismas propiedades en todas las direcciones espaciales), en los cupratos las parejas son fuertemente anisotrópicas (similares a una hoja de trébol).

¿Cómo hacer para emparejar los electrones sin utilizar la fuerza de atracción de los iones, para así poder crear superconductores a temperaturas más altas? Si bien hay muchas ideas al respecto, es muy probable que para desarrollar el andamiaje teórico que permita resolver este problema de emparejamiento sean necesarios nuevos avances teóricos (que incluso podrían tener relación con los agujeros negros). Cualquiera sea la teoría que finalmente resulte de todo esto, es indudable que revolucionará la física.

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona

sábado, junio 18, 2011

How’s the Weather?

By Madhulika Guhathakurta, a solar physicist at NASA and Daniel N. Baker, the director of the Laboratory for Atmospheric and Space Physics at the University of Colorado. These views are their own (THE NEW YORK TIMES, 17/06/11):

Lately, the Sun has been behaving a bit strangely. In 2008 and 2009, it showed the least surface activity in nearly a century. Solar flare activity stopped cold and weeks and months went by without any sunspots, or areas of intense magnetism. Quiet spells are normal for the Sun, but researchers alive today had never seen anything like that two-year hibernation.

Now that the Sun is approaching the peak of its magnetic cycle, when solar storms — blasts of electrically charged magnetic clouds — are most likely to occur, no one can predict how it will behave. Will solar activity continue to be sluggish, or will solar storms rage with renewed vigor?

Luckily, policy makers are paying attention to space weather. Late last month, President Obama and the British prime minister David Cameron announced that the United States and Britain will work together to create “a fully operational global space weather warning system.” And just last week, the United Nations pledged to upgrade its space weather forecasts.

But most people have never heard of space weather, which is a problem, because both high and low solar activity have serious effects on life on Earth.

Modern society depends on a variety of technologies that are susceptible to the extremes of space weather. Spectacular explosions on the Sun’s surface produce solar storms of intense magnetism and radiation. These events can disrupt the operation of power grids, railway signaling, magnetic surveying and drilling for oil and gas. Magnetic storms also heat the upper atmosphere, changing its density and composition and disrupting radio communications and GPS units. The storms’ charged particles can be a hazard to the health of astronauts and passengers on high altitude flights.

Severe storms in 1989 and 2003 caused blackouts in Canada and Sweden. In 1859, a solar super storm sparked fires in telegraph offices. Such storms are predicted every century or so, and perhaps we’re overdue. According to a 2008 National Academies report, a once-in-a-century solar storm could cause the financial damage of 20 Hurricane Katrinas.

A quiet Sun causes its own problems. During the two-year quiet spell, our upper atmosphere, normally heated and inflated by the Sun’s extreme ultraviolet radiation, cooled off and shrank. This altered the propagation of GPS signals and slowed the rate of decay of space debris in low Earth orbit. In addition, the cosmic rays that are normally pushed out to the fringes of the solar system by solar explosions instead surged around Earth, threatening astronauts and satellites with unusually high levels of radiation.

The more we know about solar activity, the better we can protect ourselves. The Sun is surrounded by a fleet of spacecraft that can see sunspots forming, flares crackling and a solar storm about 30 minutes before it hits Earth. NASA and the National Science Foundation have also developed sophisticated models to predict where solar storms will go once they leave the Sun, akin to National Weather Service programs that track hurricanes and tornadoes on Earth. Thanks to these sentries, it is increasingly difficult for the Sun to take us by surprise.

If alerted, Internet server hubs, telecommunications centers and financial institutions can prepare for disruptions and power plant operators can disconnect transformers.

But what good are space weather alerts if people don’t understand them and won’t react to them? Consider the following: If anyone should be familiar with the risks of space weather, it’s a pilot. During solar storms, transpolar flights are routinely diverted because the storms can disrupt the planes’ communications equipment. And yet a space weather forecaster we know at the National Oceanic and Atmospheric Administration often tells a story of a conversation he had with a pilot:

Pilot: “What do you do for a living?”

Forecaster: “I forecast space weather.”

Pilot: “Really? What’s that?”

The point of the story is to highlight how far the scientific community and the government have to go to raise awareness about space weather and its effects.

With the sun waking up, trans-Atlantic cooperation comes at just the right time. Let us hope it is only the beginning of a worldwide effort to forecast and understand space weather.

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona

jueves, junio 02, 2011

Recomendaciones arriesgadas

Por Andy Stirling, director de Investigación en SPRU (Investigaciones de políticas sobre ciencia y tecnología) en la Universidad de Sussex, y Alister Scott, asesor en materia de dirección y profesor visitante en SPRU. Traducido del inglés por Carlos Manzano (Project Syndicate, 02/06/11):

¿Por qué parece que estamos presenciando un número cada vez mayor de sorpresas tecnológicas negativas? De hecho, el desastre nuclear de este año en Fukushima (Japón) y el vertido de BP del año pasado en el golfo de México han ocupado su lugar junto a problemas más antiguos, como el agotamiento de la capa de ozono. Creemos que lo esencial es la forma como se desarrollan y se comunican las recomendaciones científicas.

Cada vez se utiliza más la ciencia para apoyar decisiones que son esencialmente de política pública, en particular relativas a tecnologías nuevas y complejas, como los alimentos genéticamente modificados, las nuevas substancias químicas y las infraestructuras energéticas contrapuestas. Las decisiones sobre opciones y la forma de aplicarlas son difíciles, en vista de las incertidumbres sobre sus peligros, beneficios y posibles efectos secundarios. La dudas no sólo afectan a las probabilidades, sino que, además, se refieren también a los propios resultados y lo que podrían significar. Con frecuencia están en juego poderosos intereses económicos, con lo que las presiones aumentan aún más.

Con demasiada frecuencia, se considera el dictamen de los expertos más útil para las autoridades cuando se presenta como una sola interpretación “definitiva”. A consecuencia de ello, lo habitual es que los expertos minimicen la incertidumbre y, en la medida en que la reconocen, suelen reducir los factores desconocidos a un “riesgo” calibrable.

Sin embargo, el riesgo es sólo un aspecto –relativamente abordable– de la incertidumbre. Más allá de las ideas del riesgo con las que estamos familiarizados, se encuentran aprietos más profundos debidos a la ambigüedad y la ignorancia.

Esas ideas no son nuevas, pero con frecuencia se desatienden en la adopción de decisiones. Se puede hacerlas remontar al libro del economista Frank Knight Risk, Uncertainty and Profit (“Riesgo, incertidumbre y beneficio”), de 1921. Knight reconoció que se debía hacer una importante distinción entre los resultados cuyas probabilidades están bien caracterizadas (los “riesgos”) y aquellos en los que no es posible hacerlo (las “incertidumbres”).

Los ejemplos de riesgo surgen cuando las personas o los grupos confían en sus conocimientos o experiencias acumulados. Así es en el caso de muchos productos de consumo establecidos, la seguridad del transporte habitual o la incidencia de enfermedades conocidas.

Sin embargo, cuando afrontamos la incertidumbre, confiamos en nuestro conocimiento de los posibles resultados, pero no de su probabilidad, ya sea por dificultades de predicción o por falta de información. Y, sin embargo, los asesores científicos afrontan fuertes tentaciones y presiones para tratar todas las incertidumbres como riesgos.

Lamentablemente, hay otros dos aspectos de la incertidumbre aún más problemáticos. Surgen en los casos en que no sólo no estamos seguros sobre el grado de probabilidad de resultados diferentes, sino tampoco sobre cuáles resultados son pertinentes. ¿Que opciones se deben tener en cuenta? ¿Qué podrían significar éstas, dados diferentes intereses y opiniones? ¿Cómo debemos clasificar los costos y los beneficios y asignarles prioridades?

Ejemplos de semejante ambigüedad surgen en sectores tan diversos como la energía nuclear, los alimentos genéticamente modificados y la guerra del Iraq. Cada uno de ellos están sucediendo claramente (por lo que la “probabilidad” no es el problema), pero, ¿qué significan? ¿Mejoran o empeoran el mundo? ¿En qué sentidos? ¿Cuáles son las opciones substitutivas, en caso de que las haya?

Expertos, estudios y organizaciones diferentes adoptan perspectivas opuestas, pero con frecuencia igualmente legítimas y científicamente fundamentadas, sobre esas cuestiones. Intentar imponer una determinada interpretación definitiva es profundamente engañoso y, por tanto, contraproducente –y potencialmente peligroso– en materia de formulación de políticas. De hecho, no puede haber garantía en condiciones de ambigüedad de que incluso el mejor análisis científico aporte una respuesta normativa definitiva. En consecuencia, las “decisiones basadas enteramente en la ciencia” son no sólo difíciles de lograr, sino también contradictorias en los términos.

El aspecto final y más inabordable del conocimiento incompleto es la ignorancia. A este respecto, nuestro conocimiento tanto de las probabilidades como de las posibilidades mismas es problemático.

Naturalmente, nadie puede prever de forma fiable lo impredecible, pero podemos aprender de los errores del pasado. Un ejemplo es el tardío reconocimiento de que los hidrocarburos halogenados, aparentemente inertes y benignos, estaban afectando a la capa de ozono. Otro es la lentitud para admitir la posibilidad de nuevos mecanismos de transmisión de las encefalopatías espongiformes (la “enfermedad de las vacas locas”).

En sus primeras fases, esas causas de daños no fueron reconocidas oficialmente, ni siquiera como posibilidades. En cambio, fueron “advertencias tempranas” ofrecidas por voces discordantes. Las recomendaciones en materia de políticas que pasan por alto semejantes advertencias se exponen al exceso de confianza y al error.

La cuestión decisiva es la de cómo pasar del enfoque estrictamente centrado en el riesgo a la comprensión más amplia y profunda de los conocimientos incompletos y, por tanto, a unas mejores recomendaciones científicas en materia de formulación de políticas.

Un marco para las recomendaciones de los expertos con miras a la formulación de políticas en el que hay mucho en juego –y, por tanto, está particularmente politizado– es el de la fijación de los tipos de interés financieros. En el Reino Unido, el Comité de Política Monetaria del Banco de Inglaterra califica su proceso de recomendación por parte de expertos de “diálogo bidireccional”, en el que se concede prioridad a la rendición pública de cuentas. Los funcionarios tienen mucho cuidado al informar al Comité no sólo de los resultados del análisis formal por parte de las entidades patrocinadoras, sino también de las complejas condiciones y perspectivas del mundo real. En los informes se detallan recomendaciones contrapuestas por parte de los miembros particulares y se explican las razones de las diferencias. ¿Por qué no es normal algo así en las recomendaciones científicas?

Al afrontar incertidumbres inconmensurables, resulta mucho más común que un comité científico pase horas negociando una sola interpretación de los riesgos, aun en los casos en que tenga ante sí una diversidad de análisis y juicios opuestos. pero igualmente bien fundamentados, con frecuencia procedentes de sectores y disciplinas diferentes (pero igualmente científicos). Como sabemos por la obra de Thomas Kuhn y otros filósofos de la ciencia, los paradigmas dominantes no siempre resultan ser los más acertados. El conocimiento está evolucionando constantemente y prospera gracias al escepticismo y la diversidad.

La experiencia relativa al establecimiento de normas relativas a substancias tóxicas y los procesos normativos referentes a la inocuidad de las diversas tecnologías relativas a la modificación genética y las energías, muestra que con frecuencia sería más exacto y útil aceptar interpretaciones de expertos divergentes y, en cambio, centrarse en la documentación de las razones subyacentes a la discrepancia. Se podría seguir adoptando decisiones normativas y posiblemente con mayor eficiencia. Además, la relación de las decisiones con los datos científicos disponibles sería más clara y las dimensiones inherentemente políticas resultarían más transparentes.

En lugar de intentar obtener juicios globales definitivos sobre los riesgos de opciones determinadas, es más sensato examinar los supuestos en que se basan semejantes recomendaciones, dado que estas últimas son fundamentales para determinar las condiciones en las que las recomendaciones son pertinentes. Por encima de todo, es necesario adoptar constantemente una actitud de humildad respecto de las “decisiones basadas en la ciencia”.

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona

domingo, abril 24, 2011

Paul Baran y los orígenes de internet

Por Llorenç Valverde, vicerrector de Tecnología de la UOC (EL PERIÓDICO, 08/04/11):

La conmutación de paquetes -la revolución del siglo XX en el mundo de las comunicaciones- estaba allí, esperando que alguien se diera cuenta. Y los primeros fueron Donald Davies en Inglaterra y Paul Baran en Estados Unidos, que la descubrieron por separado, cada uno a un lado del Atlántico. Hasta entonces, los sistemas de comunicación descansaban en la conmutación de circuitos. De hecho, aún hoy el sistema telefónico lo hace: cada vez que alguien marca un número de teléfono, lo que hace esencialmente es montar un circuito que conecta -por medio de las centrales que sean necesarias- los dos terminales. Este circuito solo sirve para esta comunicación y está activo únicamente mientras esta dura. Cuando la comunicación termina, queda desmontado y los correspondientes segmentos que lo integraban quedan a disposición de otra llamada. La red física de apoyo para esta forma de comunicación tiene que estructurarse a partir de unos nodos centrales, por medio de los que se conectan los terminales que entran en contacto.

Lo que Davies y Baran vieron, en el comienzo de la década de los 60, era otro sistema de comunicaciones que no requería que hubiera un circuito dedicado a cada conversación o intercambio de mensajes: se trataba de chapar el mensaje en trozos pequeños, llamados paquetes, etiquetarlos convenientemente -identificador, lugar de salida, destino y número de orden-, y soltarlos por la red, de forma que cada paquete encontrase su camino y, al llegar a su destino, se volvieran a añadir en el orden oportuno para reconstruir el mensaje. A esta forma de actuar se la denomina conmutación de paquetes y nos debería resultar familiar, muy familiar, porque es la manera en que circula la información por internet. Entre las muchas virtudes que tiene, una de las más relevantes precisamente es que, a diferencia de lo que pasa con la conmutación de circuitos, funciona muy bien sobre una red física distribuida, sin que sea preciso que un nodo sea más importante que los otros.

Paul Baran, un ingeniero electrónico que entonces trabajaba para la Rand Corporation, estaba preocupado por la debilidad de la estructura de la red telefónica americana, que dependía esencialmente de pocos nodos, de manera que la destrucción de uno de ellos podía significar una gran traba para comunicar una parte de Estados Unidos con la otra. Por aquí llegó a la conmutación de paquetes y se acercó al gigante de las comunicaciones ATT para exponerle el problema y la solución basada en la conmutación de paquetes, solución que hoy apenas empezamos a usar con el nombre de telefonía IP o voz IP. La respuesta de los responsables de la ATT ha quedado para la historia: «No funcionará, y además, si llegase a funcionar, no creerá usted que vamos a dejar alegremente que se levante un sistema alternativo al nuestro». Y es por eso por lo que, pese a la disposición de los militares a financiar un proyecto como el de Baran, con unos argumentos muy calientes en plena guerra fría, la telefonía IP ha debido esperar 40 años para empezar a ser desarrollada. En 1964, Baran publicó -la parte publicable- sus hallazgos en un informe titulado On Distributed networks (Sobre redes de distribución), aún hoy disponible en la web de la Rand Corporation.

Pero lo peor de todo no es esto, sino que este proyecto fallido de Baran sirvió para alimentar una de las leyendas urbanas más persistentes y características de nuestros días, la que atribuye los orígenes de internet a la idea de construir una red de comunicaciones que sería resistente a un ataque nuclear, de tal manera que, si un nodo resultaba destruido por uno de esos ataques, la comunicación no quedaría interrumpida; una confusión generada a partir de atribuir a Arpanet los argumentos que Paul Baran había usado en su propuesta de construir una red de voz basada en la conmutación de paquetes. La leyenda de los orígenes atómicos de internet ha sido escrita y explicada numerosas veces y está muy instalada en todas partes, hasta el punto de que todavía hoy se explica como buena, incluso en muchos cursos universitarios. No, no fue por eso: el objetivo de los creadores de internet era ayudar a compartir recursos informáticos, entonces escasos. De hecho, en aquel momento

-1969- se pensaba que, lejos de las máquinas universales que son hoy en día, los ordenadores estarían especializados -tratamiento de listas, unos; gráficos, otros, etcétera-,

y se trataba de hacer posible que con pocas máquinas bastase para todo el mundo: este era el auténtico objetivo que perseguían los pioneros de la red de redes. Eso sí, desde el principio sus impulsores se dieron cuenta de las ventajas que ofrece la conmutación de paquetes respecto de la conmutación de circuitos y decidieron usarla como base de la red Arpanet, precursora de internet. Y de ahí la leyenda urbana que costará erradicar, dado que son unas cuantas las generaciones que la han tenido que escuchar como cierta.

Paul Baran murió el 26 de marzo en Palo Alto, California. Tenía 84 años.

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona

martes, marzo 22, 2011

El lenguaje neuronal

Por Mara Diersen, neurobióloga del Centre de Regulació Genòmica (LA VANGUARDIA, 20/03/11):

¿Qué son la conciencia y la mente humanas? ¿Por qué experimentamos emociones? ¿Por qué aparecen las enfermedades psiquiátricas o neurológicas? Estas son algunas preguntas básicas que la neurociencia intenta contestar. Y son todas ellas preguntas de enorme relevancia, no solamente desde el punto de vista científico sino por la tremenda repercusión social que tienen.

En palabras de Santiago Ramón y Cajal, “el cerebro es un mundo que consta de numerosos continentes inexplorados y grandes extensiones de territorio desconocido”. Se calcula que poseemos más de un millón de millones de neuronas, de cuya comunicación armoniosa surgen fenómenos únicos que nos permiten recordar nuestra infancia, escribir poesía, interpretar una partitura, ser bilingües o resolver un problema matemático.

Todo ello se consigue a través de una inmensa red de conexiones (sinapsis) que se estiman en unas 100.000.000.000.000. En estas conexiones, el lenguaje neuronal son pequeños cambios de potencial, un mensaje eléctrico que se traduce en el lenguaje químico que dota a la comunicación neuronal de infinitos matices reguladores. Nuestro cerebro contiene billones de estos microprocesadores, aunque su complejidad estructural y funcional le confiere capacidades que superan con creces a las de cualquier ingenio informático. Por ejemplo, un aprendizaje elemental como reconocer el peligro o evitar comportamientos con consecuencias negativas (como el dolor o el gusto desagradable) implica millones de eventos moleculares, incluyendo cambios a nivel de la expresión de genes y nuevas conexiones entre las neuronas.

Esta compleja naturaleza del sistema nervioso permite comprender que la pluridisciplinariedad sea intrínseca a la Neurociencia, y que esté atrayendo disciplinas tan aparentemente alejadas como la física, la computación, o la nanomedicina. Desde esta perspectiva, Catalunya se encuentra en un momento privilegiado gracias a programas como ICREA que han permitido atraer a científicos de disciplinas nuevas de altísimo nivel. De hecho, en España estamos por encima de la media europea en producción científica en neurociencias y Catalunya se encuentra en la vanguardia mundial de muchas de estas investigaciones.

La Neurociencia es una disciplina ampliamente representada en Catalunya (solamente en Barcelona hay más de ochenta grupos que se dedican a la Neurociencia). Los neurocientíficos catalanes están presentes en los grandes consorcios de investigación europeos, lo que significa que tenemos en nuestros laboratorios jóvenes y brillantes neurocientíficos capaces de acometer proyectos innovadores y grupos con experiencia consolidada y prestigio internacional. De hecho, la Societat Catalana de Biologia tiene una sección de Neurobiología, que organiza el Simposio de Neurobiología Experimental y Catalunya juega un papel importante en la Sociedad Española de Neurociencias que, en 1987, escogió Barcelona para celebrar su segundo congreso, “la puesta de largo de la Sociedad”.

Pese a esta excelencia en el terreno científico, es en nuestro campo donde posiblemente es más evidente el “exilio” de los neurocientíficos españoles, que en otros ámbitos tienen centros de excelencia con oportunidades de reincorporación. Durante años, la visión de nuestro sistema nervioso como algo “demasiado complejo” y cuyo abordaje, por tanto, es imposible, ha sido uno de los argumentos que ha derivado en que, a pesar de la larga tradición y del enorme potencial que la Neurociencia tiene en nuestro país, el apoyo que reciben los centros dedicados a las neurociencias sigue estando muy por debajo del que se proporciona a los dedicados a otras disciplinas. Ello ha determinado una clara atomización de los neurocientíficos en Catalunya. Desgraciadamente, la pendiente positiva de la inversión en I+ D que llevábamos desde 2005, se ha quebrado y ello tiene más impacto en aquellas disciplinas que están menos “de moda”.

El hecho de que el 2012 haya sido declarado Año de la Neurociencia en España ayudará a que la excelencia investigadora se traduzca en que la Neurociencia catalana siga desempeñando un papel destacado en el panorama científico internacional. Pero esto sólo se logrará a través de un apoyo serio y mantenido por parte de la Generalitat que ayude a promover la conexión entre la Neurociencia y sus aplicaciones en salud y tecnología, aunando esfuerzos en proyectos de desarrollo e innovación.

El Año de la Neurociencia coincide con el Foro de Sociedades de Neurociencia de Europa (FENS), que se celebrará en Barcelona y colocará a la Neurociencia española y catalana en el punto de mira internacional. Sin embargo, no hay que olvidar que igualmente importante es el ámbito de la didáctica y divulgación, y es necesario que se apoye decididamente la divulgación de la Neurociencia, y se contribuya al conocimiento y al reconocimiento social de los neurocientíficos españoles.

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona

viernes, marzo 18, 2011

Ciencia contra la resignación

Por Pere Puigdomènech, profesor de Investigación del CSIC (EL PAÍS, 11/03/11):

Se cuenta que un partido pacifista se presentó a las elecciones danesas con una propuesta radical para reducir el déficit presupuestario. Propuso que se redujera el gasto militar a unos 1.000 euros. Calculaban que este era el coste de un sistema de grabaciones colocado en la frontera del Reino y que a la llegada de un ejército enemigo lo acogiera con un: nos rendimos. La crisis económica ha llegado a las fronteras de nuestra sociedad como si se tratara de un ejército enemigo. Vecinos nuestros se preparan para construir sociedades basadas en la educación y el conocimiento. En nuestro caso más bien parece que la respuesta sea un interfono que responde: “Nos rendimos. Que inventen ellos”.

De los datos más preocupantes que aparecen en estos últimos tiempos de crisis destaca desde luego el del paro. Es un factor que diferencia claramente la situación española del resto de las economías europeas. Se ha dicho que el empleo basado en la construcción atrajo mucha gente con perspectivas de sueldos altos sin necesidad de formación. Un efecto colateral fue que algunos jóvenes creyeron que el camino de la educación era innecesario ya que la vía del estudio y la universidad se veía larga y penosa. Esta actitud parece haberse aceptado con resignación por nuestra sociedad. La consecuencia es que en España el abandono escolar es uno de los mayores de la Unión Europea y nuestras universidades aparecen en lugares bajos en el ranking mundial.

El modelo productivo durante mucho tiempo estuvo basado en actividades de bajo valor añadido que necesitaban muy poca innovación, y ya no hablemos de investigación. La presión para invertir en ciencia en España fue débil durante mucho tiempo y el nivel de inversiones en investigación estaba entre los más bajos de la Unión Europea. Es cierto que las cosas habían cambiado en los últimos tiempos. De forma constante la inversión pública y privada aumentaba y, como consecuencia, nuestro sistema de ciencia y tecnología se iba construyendo, iban apareciendo nuevas empresas de base tecnológica y la cultura de la innovación iba implantándose. A la primera de cambio, esta tendencia se invierte y los recursos humanos y económicos dedicados a la investigación han comenzado a disminuir. Parece aceptarse con resignación que nuestra economía mantendrá un horizonte tecnológico de bajo nivel.

Mirando a nuestro alrededor hay países que tienen distintas reacciones ante la crisis. Por ejemplo Alemania ha incrementado su ya alto presupuesto en investigación en un 7% y la reflexión sobre sus prioridades va a un buen ritmo. Francia decidió llevar a cabo un gran préstamo de 35.000 millones de euros destinados a inversiones de futuro, de estos 11.000 millones van a inversiones en universidades y 6.000 millones a grandes proyectos de investigación. Se trata de invertir decenas de millones de euros en proyectos de investigación, nuevas infraestructuras y centros de excelencia por periodos de cinco a 10 años. Estos recursos se están distribuyendo mediante un proceso de evaluación internacional gestionado por una nueva agencia. En Alemania ya hace años que la gestión de sus recursos la realiza una agencia de investigación independiente y en Europa está bien reconocido que los mejores ejemplos de gestión eficiente son EMBO o el European Research Council, organismos gestionados por científicos independientes.

Hay que decir que no es fácil tener datos concordantes de las reducciones presupuestarias de estos dos últimos años pero todo parece indicar que los recursos públicos dedicados a ciencia por el Gobierno de España han vuelto a los niveles que tenían entre 2004 y 2007 lo que va a hacer muy difícil mantener el incipiente sistema de ciencia que se estaba construyendo. Quizá estas reducciones hubieran podido ser más llevaderas si se hubieran acompañado de formas más eficientes de gestionar los recursos, pero la situación es justamente la contraria. Alguien parece haber descubierto que una manera fácil de reducir gastos consiste en poner obstáculos burocráticos a las peticiones de proyectos o a su ejecución en lugar de buscar un sistema que priorice la calidad de los proyectos. La realidad es que en los últimos tiempos la presión administrativa sobre los grupos de investigación ha aumentado tanto como han disminuido los fondos.

En estas circunstancias es cuando nuestra falta de una reflexión sobre para qué queremos ciencia en nuestro país, cuánto queremos invertir y cómo vamos a gestionar nuestros fondos aparece más patente. Es posible que hayamos perdido mucho tiempo en los años de bonanza económica que suelen ser los más favorables para hacer reformas. Sin embargo es en estos tiempos difíciles cuando la necesidad de una reflexión en diferentes direcciones aparece con toda su urgencia. En primer lugar parece obvio que deberíamos saber cuál es la investigación que nuestra industria, nuestro sistema de educación, nuestro sistema sanitario y nuestra cultura necesitan. Hay que dejar un margen para la ciencia creativa, pero debemos definir unas prioridades que luego se apliquen en el reparto de fondos y se defiendan en las instancias internacionales, y en primer lugar en Europa donde la definición de los próximos programas de investigación está en marcha.

En segundo lugar es obvio que la ciencia la llevan a cabo personas en lugares determinados. Se trata de personas que trabajan exclusivamente en ciencia o que comparten su oficio con la docencia o la asistencia clínica. Definir vías flexibles y atractivas de contratación y promoción es la única manera de tener investigadores con el nivel suficiente para que el retorno de la investigación sea adecuado.

Cuando en este momento la Administración tiende a reducirse es cuando mejor se aprecia el error de haber llenado universidades y centros de investigación de funcionarios. El acceso de las nuevas generaciones encuentra un obstáculo imposible de superar. Cuanto antes se actúe menor será la magnitud del problema.

En tercer lugar la gestión de la ciencia tanto en la distribución de los fondos como en su ejecución es un tema central en la política de la ciencia. La experiencia ha demostrado que la Administración pública no es el lugar adecuado para llevar a cabo una gestión eficiente de la ciencia. Algún tipo de agencia independiente para la gestión de proyectos y sistemas flexibles para la administración de los centros son vías que ya han sido ensayadas en España y en otros países. Mantener sistemas que han sido superados por el tiempo es aceptar con resignación la ineficiencia del uso de nuestros recursos. Finalmente, disminuir unos fondos que ya eran reducidos impide mantener el nivel, todavía modesto, al que había llegado con mucho esfuerzo nuestra ciencia.

Es posible que actuar de forma decidida y con continuidad en política científica necesite un pacto de las fuerzas públicas, es seguro que hay que coordinar políticas de los distintos niveles de la Administración y hasta se podría aceptar que hacer una ley como la que está en el Congreso de los Diputados puede servir para algo. La Unión Europea ha establecido como objetivo para mantener su nivel económico y de bienestar convertirse en una sociedad basada en el conocimiento. Este objetivo es imposible sin unas universidades que sean polos de excelencia que tiren de los jóvenes y sin una ciencia del mayor nivel en la que se basen nuestra educación, nuestra sanidad, nuestra industria y nuestra cultura. Reducir en este momento la inversión en educación e investigación y no hacer las reformas necesarias es resignarse a no converger hacia el entorno europeo que es el único que tiene sentido para nosotros.

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona

jueves, abril 29, 2010

El dinero público como motor

Por Pedro R. García Barreno, catedrático de la Universidad Complutense. De la Real Academia Española. De la Real Academia de Ciencias, Exactas, Físicas y Naturales (LA VANGUARDIA, 18/04/10):

Hace quince años, a través de un prestigioso diario, dieciséis presidentes de las más importantes empresas de EE. UU. llamaban la atención del Congreso sobre el papel de la ciencia y la tecnología en el liderazgo de la nación. Hoy, nos viene a pelo.

¿Se imaginan la vida sin fármacos? ¿O sin microchips? ¿O sin cosechas resistentes a las enfermedades o a la sequía? ¿O sin la Red? Hemos heredado esos y miles de otros avances tecnológicos que han hecho de las sociedades occidentales industrializadas las más avanzadas de la historia. Logros que se han traducido en una economía más competitiva, han creado millones de puestos de trabajo y han aupado nuestro estándar de vida. Definen el estatus social occidental y representan el modelo de las economías emergentes

Pero esos avances no han sido fruto de la casualidad. Son productos de un compromiso a largo plazo, fruto de un esfuerzo de las políticas nacionales encaminado a fomentar la innovación, el descubrimiento y el desarrollo de nuevas tecnologías. Durante muchos años, las administraciones públicas han alentado y han financiado los programas de investigación en sus instituciones – universidades y organismos públicos de investigación (OPI)-como una inversión vital para el futuro de los países. La industria ha tenido un papel igualmente crítico, encauzando ese conocimiento y esas nuevas tecnologías hacia el mercado, y a través de él a la sociedad.

Esta complicidad – los activos educativos y científicos institucionales, el apoyo financiero de los gobiernos y el desarrollo de productos por la empresa-ha sido un factor decisivo para mantener el prestigio y el liderazgo tecnológico de las naciones a lo largo de gran parte del siglo XX. De igual modo, la continua atención a la investigación científica institucional ha servido para formar y capacitar a ingenieros, científicos y técnicos que han hecho posible dar rienda suelta a sus potencialidades para conseguir aquellos avances excepcionales. Ello en un equilibrio entre una innovación provocadora y una cierta prudencia en la toma de riesgos.

Desafortunadamente, la fortaleza científica y tecnológica de las naciones occidentales está amenazada. Cuando los gobiernos se plantean recortes o dudan del papel de la ciencia y la tecnología, se producen tensiones que ponen en grave riesgo la investigación científica institucional. La investigación en la Universidad y en los OPI es un blanco fácil, porque mucha gente no es consciente del papel crítico que representa. Pueden pasar años de intenso trabajo antes de que las tecnologías emergentes puedan acceder al mercado. Pero la historia ha demostrado que la investigación científica de calidad, con objetivos ambiciosos, financiada con capital público, es la base para mantener el sistema de ciencia y tecnología y crear el ambiente de confianza empresarial, necesarios para la innovación tecnológica.

Hoy, los datos apuntan que la economía y el bienestar de los ciudadanos se hallan sobre arenas movedizas. Y esos dos factores, claves para la convivencia social, dependen de tres productos básicos de nuestras instituciones: buena ciencia, nuevas tecnologías y científicos e ingenieros bien formados. Ello exige que los gobiernos mantengan su papel como financiadores de esa investigación científica de calidad en sus instituciones. Si se quiere mantener el estatus conseguido por las naciones industrializadas, es necesario mantener aquella complicidad que lo hizo posible.

Apenas consumida la primera década del nuevo siglo debe reconocerse que ha llegado el “momento de la verdad”: se quiere mantener el espíritu innovador que catapultó a las naciones democráticas, el siglo pasado, hacia el bienestar social que disfrutamos, o la inoperancia, una vez más, ganará la partida. Cuando los representantes de los ciudadanos toman decisiones sobre cuestiones de ciencia y tecnología en las instituciones legislativas de la nación o en las de las autonomías, están decidiendo el futuro: fortalecerlo o hipotecarlo está en su actitud.

La importancia creciente del papel de la ciencia en la solución de los problemas complejos que nos desbordan y la dificultad de los temas sociales y éticos que de ello deriva exigen una mayor inmersión en la cultura científica. Los políticos deben conocer los rudimentos de la ciencia y la tecnología, y la sociedad debe estar suficientemente informada para comprender lo que ello significa para el díaa día de sus vidas y, también, para poder participar en el debate de las consecuencias del desarrollo científico.

Ello requiere que la enseñanza de la ciencia comience en la escuela, y exige también que quienes dictan las leyes de los hombres trabajen, codo a codo, con quienes comprenden las leyes de la naturaleza.

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona

sábado, abril 10, 2010

El futuro de las Humanidades

Por Adela Cortina, catedrática de Ética y Filosofía Política de la Universidad de Valencia y miembro de la Real Academia de Ciencias Morales y Políticas (EL PAÍS, 04/04/10):

Hace medio siglo C. P. Snow, físico y novelista británico, pronunció una conferencia sobre Las dos culturas y la revolución científica, que produjo un gran revuelo. Distinguía en ella entre dos culturas, la de los científicos y la de los intelectuales, que venían a coincidir con dos ámbitos del saber: Ciencias y Humanidades. A juicio del conferenciante, los intelectuales gozaban de un mayor aprecio por parte del público y, sin embargo, eran unos luditas irresponsables, incapaces de apreciar la revolución industrial por no preocuparles la causa de los pobres.

Hoy las cosas han cambiado radicalmente. Jerome Kagan, emérito de la Universidad de Harvard, vuelve al tema en The Three Cultures y, amén de añadir la cultura de las Ciencias Sociales, diagnostica el declive de las Humanidades. Naturalmente, cabría discutir todo esto, porque es discutible, pero hay al menos dos afirmaciones que urge abordar: ¿es verdad que las Humanidades están en decadencia?, ¿es verdad que quienes las tienen por oficio son incapaces de interesarse por la causa de los menos aventajados y de apreciar el progreso científico? La respuesta no puede ser en ambos casos sino “sí y no”.

En lo que hace a las razones del sí, serían al menos tres.

Por una parte, el harakiri practicado por sedicentes humanistas, empeñados en asegurar que cualquier ciudadano corriente puede ser historiador, filólogo, filósofo o crítico literario sin tener que pasar por un aprendizaje ad hoc, cuando lo cierto es que estos saberes cuentan con vocabularios específicos, con métodos propios de investigación, con un bagaje de tradiciones históricamente surgidas que es preciso conocer para dar mejores soluciones a los problemas actuales.

Una segunda razón para creer en el declive de las Humanidades procede del afán imperialista de algunos científicos, incapaces de asumir que hay formas de saber complementarias, empeñados en explicar la vida toda desde la comprobación empírica, sea desde la economía o desde las neurociencias. Los buenos científicos saben que sus explicaciones y predicciones tienen un límite, y que las interpretaciones son harina de otro costal, no digamos ya las orientaciones sobre cómo se debería obrar. Pero los otros prometen lo que no pueden dar y no dudan en instrumentalizar a su servicio el aprecio que ha conquistado la buena ciencia.

Y, por último: las Humanidades -se dice- contribuyen muy poco a la economía de un país. De donde se sigue que invertir en ellas no parezca ser rentable, sea en docencia o en investigación, que el I+D+i parezca ser cosa de ciencias y tecnologías. Si a ello se añade la dificultad de comprobar la calidad de la producción humanística, el futuro de las Humanidades se ennegrece. Y, sin embargo, esto es radicalmente falso, y aquí empiezan las razones del “no”. A cuento de la crisis económica distintos foros se han preguntado qué hacer y una de las medidas en las que hay un amplio acuerdo es la necesidad de incrementar la productividad formando buenos profesionales, cuidando los recursos humanos, de los que siempre se ha dicho -aunque no sé si alguien se lo cree- que forman el más importante capital de un país. ¿Qué tipo de profesionales podrían ayudarnos a salir del desastre?

Podrían ayudarnos los auténticos profesionales, que son buenos conocedores de las técnicas, pero no se reducen al “hombre masa” del que hablaba Ortega, sino que tienen sentido de la historia, los valores, las metas; son ciudadanos implicados en la marcha de su sociedad, preocupados por comprender lo que nos pasa y por diseñar el futuro, marcando el rumbo de la evolución. A su formación pertenece de forma intrínseca ser ciudadanos preocupados por el presente y anticipadores del futuro: no es un “algo más” que se añade a su capacidad técnica, sino parte de su ser. Pero para formar a ese tipo de gentes será preciso cultivar la cultura humanista, que sabe de narrativa y tradiciones, de patrimonio y lenguaje, de metas y no sólo medios, de valores y aspiración a cierta unidad del saber. De esa intersubjetividad humana, de ese ser sujetos que componen conjuntamente su vida compartida.

Por si faltara poco, se van estrechando los lazos entre humanistas y científicos, practicando una auténtica transferencia del conocimiento, que no es sólo cosa de patentes. En comisiones, proyectos de investigación y publicaciones aumenta el trabajo interdisciplinar, porque los problemas desbordan las respuestas de una sola especialidad. Y en ese trabajo conjunto un tema estrella es, y todavía tiene que ser más, la causa de los pobres. Bueno sería que las universidades hibridaran su profesorado y especialistas de distintas culturas impartieran las clases de cada grado para lograr una formación integral.

De todo ello resulta que la necesidad de las Humanidades no decae, sino que aumenta, y no sólo porque nos ayudan a vivir nuestra común humanidad con un sentido más pleno, sino porque incrementan esa soñada productividad que tiene su peso en euros. Ojalá las Jornadas sobre las Humanidades en España y en Europa, que se celebran a cuento de la convergencia europea, sean un impulso en este sentido.

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona

miércoles, mayo 27, 2009

Imprescindibles y bellas

Por Sebastià Xambó Descamps, catedrático de Teoría de la Información y la Codificación de la UPC (LA VANGUARDIA, 17/05/09):

Desde un punto de vista práctico, el secreto más accesible de las matemáticas es que se trata de un lenguaje preciso y universal para la ciencia y la tecnología. Su funcionamiento a este respecto es esquemáticamente este: se imagina un modelo de la situación que interesa estudiar por abstracción de sus aspectos esenciales;se obtienen, por deducción y cálculo,resultados (predicciones) sobre las variables de interés; y se comprueba si estos valores concuerdan con los de las observaciones. Naturalmente, sólo pueden ser provechosos los modelos (también llamados teorías) para los cuales la concordancia entre predicciones y observaciones es aceptable en un determinado dominio. Actualmente, por ejemplo, los populares modelos meteorológicos permiten predecir el tiempo que hará en unos pocos días, en cualquier zona del mundo. Detengámonos un momento para subrayar la analogía entre este modus operandi (llamado método científico o hipotético-deductivo) y el del lenguaje ordinario. La clave de esta analogía está en que nuestras mentes no pueden albergar la realidad, sino sólo ideas acerca de la supuesta realidad. Dicho de otra manera, la realidad viene mediada por sistemas de ideas que pueden llamarse mapas mentales, o códigos internos, por semejanza con el uso de mapas gráficos para situarnos y movernos en un territorio. Estos mapas o modelos mentales con que construimos la realidad generalmente tienen su origen en la educación recibida, en las experiencias vividas, y sólo una parte de ellos incorporan el compromiso de la disciplina científica.

Volvamos a las teorías científicas. Entre las más acreditadas por su generalidad, precisión, simplicidad y belleza están las de la ciencia física. Propuestas por nombres como Euclides (geometría= medida de la tierra), Newton, Euler, Maxwell, Einstein…, y perfeccionadas por muchos otros, nos proporcionan la actual visión del mundo físico, de sus leyes y de sus aplicaciones tecnológicas. Pensemos, como ejemplo, en los sistemas de posicionamiento global (como el GPS o el futuro sistema europeo Galileo) y sus aplicaciones. Las trayectorias de los satélites se rigen por las leyes de Newton, las cuales presuponen la geometría; a su vez, la rotación de un satélite sobre sí mismo obedece a las ecuaciones de Euler sobre el sólido rígido; las comunicaciones se establecen mediante ondas electromagnéticas predichas por Maxwell en 1862 a partir de sus ecuaciones y descubiertas por Hertz en 1888; la indispensable sincronización de los relojes atómicos del sistema tiene su fundamento en la teoría de la relatividad de Einstein…

Además de un lenguaje preciso y universal para la ciencia y la tecnología, hay otro secreto que explica la grandeza de las matemáticas. Más recóndito, pero afortunadamente su esencia se puede captar por analogía, con lo que sucede en el caso del lenguaje ordinario. Al lado de los múltiples usos prácticos de una lengua, como por ejemplo en las noticias dadas por los medios, aquella es también vehículo literario (poesía, novela, teatro), y en este menester la referencia a la realidad real es cuando menos secundaria, y las más de las veces irrelevante. Pues bien, sucede lo mismo con el lenguaje de las matemáticas, que se puede usar en una modalidad interna, que metafóricamente podemos llamar poética, para expresar los hallazgos de un pensamiento dirigido a explorar el universo de conceptos matemáticos (números, figuras, algoritmos…) y sus relaciones recíprocas. Estos hallazgos, que para los matemáticos tienen la misma importancia que La Odisea o la Divina Comedia puedan tener para el acervo cultural, sólo en contadas ocasiones son noticia en los medios, como fue el caso de la demostración del llamado último teorema de Fermat (Wiles, 1995) o de la llamada conjetura de Poincaré (Perelman, 2006).

El aspecto poético de las matemáticas también debiera interesar a todas las personas que quieren estar bien informadas. En efecto, la historia de la ciencia nos muestra que los dos secretos a que hemos aludido se comunican constantemente, en el sentido de que los problemas surgidos del mundo real conducen invariablemente a matemáticas del máximo interés, y viceversa (lo cual resulta aún más enigmático), muchos descubrimientos y construcciones de naturaleza puramente matemática acaban siendo la clave de innovadoras aplicaciones. Es decir, la frontera entre matemática pura y aplicada es tan borrosa como la que separa la realidad de la ficción en el universo literario, o incluso en la vida ordinaria.

Finalmente, quisiera mencionar un último aspecto. Dado que la educación ejerce un papel fundamental en la construcción de la sociedad del conocimiento, convendría que el desarrollo de los talentos especiales no se viera coartado por una mal entendida uniformidad. Siempre se ha hecho con el talento deportivo, sin que haya ido en detrimento de una sólida formación en valores sociales.

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona

martes, mayo 19, 2009

Sin arrugas en el cerebro

Por Begoña Muruaga (EL CORREO DIGITAL, 12/05/09):

El pasado día 22 de abril la neuróloga italiana Rita Levi-Montalcini cumplió cien años. Hija de Adamo Levi, un acaudalado ingeniero, y de Adele Montalcini, pintora con talento, Rita creció en una atmósfera familiar muy especial. A pesar de ello, la neuróloga reconoce que su padre imponía en casa el estilo de vida victoriano, donde todas las decisiones las debía tomar el cabeza de familia. Según ella, su padre era de la opinión de que una carrera profesional interfería en los deberes de esposa y madre. Por ello, decidió que sus hijas no iniciaran estudios que supusieran el acceso a la universidad. Pero Rita tenía otros planes.

«Con veinte años me decidí por fin a decirle a mi padre que no tenía ninguna gana de ser esposa y madre, sino que prefería estudiar medicina. Mi niñera acababa de morir de cáncer, y un año después murió también mi padre de un ataque al corazón. Eso me llevó inevitablemente a la medicina», dijo en una entrevista concedida tras la obtención del Nobel. Se convirtió así en una de las siete mujeres, junto con 150 compañeros masculinos, que en los años treinta estudiaron medicina en Turín. En 1936, consiguió la licenciatura; tras ella, comenzó tres años de especialización en neurología y psiquiatría.

Ese mismo año, Mussolini dictó el ‘Manifiesto para la defensa de la raza’, que impedía el desarrollo de la carrera profesional a los ciudadanos italianos no arios. «Mussolini me prohibió trabajar en el ejercicio de la medicina. Él me privó, por sus leyes raciales, de la decisión de si debía ejercer o prefería investigar; no hubiera podido ejercer jamás, incluso aunque lo hubiera deseado: no podía ni siquiera firmar mis propias recetas», decía en la misma entrevista. Por suerte, sus trabajos de investigación eran conocidos, y ese hecho le llevó a Bruselas, en cuyo Instituto de Neurología pasó dos años. Cuando los alemanes invadieron Bélgica, regresó a Italia. Tenía dos alternativas: emigrar a Estados Unidos o iniciar alguna actividad que no requiriera ninguna conexión con el mundo ario. Eligió la segunda, y decidió montar un pequeño centro de investigación en su casa. En sus experimentos, inoculaba células cancerosas en los embriones y veía cómo evolucionaban. La inspiración para ello le vino a raíz de la lectura de un artículo del bioquímico norteamericano Viktor Hamburger sobre los efectos de la extirpación de un miembro en los embriones de pollos, pero su proyecto había empezado a gestarse varios años antes, cuando comenzó a trabajar como ayudante del famoso histólogo italiano Giuseppe Levi.

En 1941, abandonó Turín y se instaló en una casa de campo, con su laboratorio a cuestas. Más tarde, abandonó su refugio del Piamonte y se trasladó a Florencia. Durante los últimos años de la guerra trabajó como enfermera y médica en los campos de refugiados.

Cuando acabó la guerra, Rita volvió con su familia a Turín, y empezó a reunir los resultados de su investigación. Viktor Hamburger, que había leído sus textos, le invitó al Departamento de zoología de la Universidad de Washington.

Ese hecho cambió su vida por completo, puesto que la inicial estancia de unos meses se prolongó durante treinta años. Fue allí donde descubrió el Factor de Crecimiento Nervioso (NGF), que juega un papel esencial en la multiplicación de las células. Después de conseguir la cátedra en la Facultad de Zoología de la Universidad de Washington, estableció una unidad de investigación en Roma. A partir de ahí, repartió su tiempo entre Saint Louis y Roma, hasta que se jubiló, en 1977. Tras su jubilación, se instaló en el laboratorio de Roma.

En una entrevista realizada el pasado año decía: «Mi cerebro pronto tendrá un siglo, pero no conoce la senilidad. El cuerpo se me arruga, es inevitable, pero no el cerebro». Y así es, porque, a pesar de algunos achaques propios de la edad, Rita Levi-Montalcini sigue trabajando a sus cien años. Continúa colaborando con el Instituto Europeo de Investigación Cerebral, es senadora vitalicia en el Senado italiano y presidenta de la fundación que lleva su nombre, que trabaja para el acceso a la educación de las niñas africanas.

Rita Levi-Montalcini no sólo ha realizado un trabajo pionero en biología celular, sino que es una de las mujeres más brillantes en el mundo de la ciencia. Junto con Stanley Cohen, recibió, el año 1986, el Premio Nobel de Fisiología y Medicina, y ha sido la décima mujer elegida para la Academia Nacional de Ciencias de Estados Unidos. Además, ha recibido numerosos premios: la Medalla Nacional de Ciencias de Estados Unidos; el premio Louisa Gross Horwitz de la Universidad de Columbia, el doctorado Honoris Causa de la Universidad Complutense de Madrid, etcétera.

La mujer que decidió a los veinte años que no iba a ser esposa y madre, no ha cambiado mucho su opinión acerca de las relaciones entre hombres y mujeres: «Siempre pensé que la mujer estaba destruida porque el hombre imponía su poder por la fuerza física y no por la mental. Y con la fuerza física puedes ser maletero, pero no un genio. Lo pienso todavía», aseguraba en una entrevista reciente. Pero en lo relativo a su profesión, siempre ha manifestado que no se ha sentido discriminada. Es más, ha reconocido que siempre ha sido bien acogida por sus colegas masculinos. Por ello, su consejo a las jóvenes científicas o a aquellas que quieran serlo es muy simple: «No temas jamás a nada, tampoco al futuro. Cuando hagas algo, hazlo del todo y no a la mitad, y además piensa bien con quién quieres compartir tu vida. Entonces conseguirás, si así lo quieres, ser esposa, madre y científica a la vez».

Estoy convencida de que gracias a mujeres como Rita Levi-Montalcini, hoy es más fácil para las mujeres de los países desarrollados acceder al mundo de la investigación científica. Y quizás en África, muy pronto, alguna de esas niñas llegue a ser una investigadora de prestigio.

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona

martes, mayo 12, 2009

Tiempo, evolución y azar: memoria de Darwin

Por Eugenio Trías (ABC, 10/05/09):

1. Jacques Barzun, en su sugerente libro Del amanecer a la decadencia, Madrid, 2001, muestra el parentesco de tres grandes tareas contemporáneas que revolucionan el mundo del espíritu a mediados del siglo XIX. Todas ellas maduran en torno a la fecha clave de 1848, en la que nacen, con las aspiraciones democráticas, también nuevas formas culturales.

Se refiere a Richard Wagner, a Charles Darwin y a Karl Marx. «Partiendo de los trabajos pioneros del medio siglo anterior, todos ellos produjeron obras que. . . airearon ante el mundo entero la importancia del objeto que les preocupaban: la evolución, la distribución de la riqueza en la sociedad y la música dramática».

Piensa, sin duda, en tres obras respectivas de estos autores: la Tetralogía wagneriana, partitura que llevó su autor bajo el brazo treinta años; Das Kapital, culminación de una impresionante crítica de la economía política iniciada desde antes de la revolución de 1848; y esa obra cuya publicación este año conmemoramos, lo mismo que el nacimiento de su progenitor: On the Origin of Species by Means of Natural Selection (Sobre el origen de las especies por medio de la selección natural).

Las tres obras promueven una descomunal síntesis en sus respectivos dominios creadores, la Ciencia de la Vida, la Música y la Economía Política, colmando una tradición en la que se inscriben: la idea de evolución emergente a finales del siglo XVIII; la música romántica; la economía política centrada en el trabajo como fuente de valor, desde Adam Smith hasta David Ricardo.

En los tres casos la creación resultante es de tal envergadura, y sobre todo de tal capacidad de llevar ciertas tradiciones hasta sus últimas consecuencias, que el ámbito de estudio o de creación parece estallar, liberándose flujos y energías insospechadas. Ya nunca la Ciencia de la Vida podrá ser igual (antes y después de Darwin), ni la música después del «drama musical», con sus Motivos Conductores siempre en transformación, ni desde luego la Economía Política después de Marx, y su poderosa síntesis llamada Materialismo Histórico.

Las tres grandes creaciones proceden de la más honda entraña del paradigma epistémico del siglo XIX: el sesgo historicista que domina todos los ámbitos de la creación y del conocimiento, desde la arquitectura a las artes plásticas. Una Historia concebida siempre a partir del gran Paradigma que constituye la Idea de Evolución. Evolución gradual, sin rupturas ni discontinuidades «cuánticas»; evolución a través de pequeñas variaciones.

Las transformaciones wagnerianas de los Motivos Conductores tienen ese carácter. El propio Nietzsche alabó sin reservas esa capacidad de transformaciones ínfimas del arte musical wagneriano.

También son cambios mínimos los que determinan la gestación de variantes en el marco tremendo de la struggle of life, donde impera la ley de «comer o ser comido».

Y el salto de la cantidad a la cualidad en el método dialéctico del Materialismo Histórico presenta también ese carácter.

2. Darwin escribe un gran libro de hechura clásica. Pero bien mirado no es así. De repente tiene lugar un giro extraordinario en medio del texto. Se presupone lo planteado en el libro hasta el momento: la teoría de la evolución de las especies, que tiene en la selección natural (y consiguiente supervivencia de los más adecuados) su primum movens. Son sopesadas y aquilatadas las objeciones que pueden presentar estas hipótesis y se examina el modo de refutarlas.

Entonces el texto da un salto de abismo, descomunal, inconmensurable. Y lo interesante es que ese brinco sin precedentes sólo se presiente ante una tremenda y desconcertante ausencia.

El giro de este libro se produce en el capítulo X, «De la imperfección de los registros geológicos». La tesis del libro se enfrenta a la prueba de fuego: el Tiempo (con mayúsculas).

Darwin aduce la imposibilidad de hallar vestigios de los eslabones intermedios entre las especies en disolución, especies que nunca fueron tales. No parece posible recorrer las innumerables variantes que cubren el trecho entre un remoto vestigio y la posible versión actual. Una ciencia recién constituida, la geología, da entonces amparo a la teoría. Charles Lyelle publica en 1847 los Principios de geología, fundamento de la geología moderna.

Darwin, ayudado de la geología y de la paleontología, constata que la finitud del tiempo encierra eones y avatares que sólo la especulación mitológica del hinduismo -podríamos decir- se había atrevido a pronunciar: millones y millones de años a través de los cuales se produce, a través de ese agente creador tan extraordinario que es el Azar, la constitución de variantes que dejan como conceptos obsoletos las nociones de género y de especie. El Tiempo en toda su deriva inconmensurable hace de pronto presencia en este recorrido por todo el mundo natural.

Darwin escribe la teoría que desbarata toda idea clásica de género y de especie. Frente a ella sólo subsiste, en su monolítica evolución permanente, la Vida.

3. Michel Foucault en Las palabras y las cosas, traza el paradigma de ciencias propias de la «era clásica«: un Discurso de vocación cartesiana distribuye en cuadros -tableaux- los géneros y las especies. Buffon, Linneo abundan en procedimientos vigentes hasta finales del siglo XVIII; y que también encontramos en la manera de orientarse la ciencia de la riqueza de los mercantilistas y fisiócratas; o en el ámbito lingüístico en la gramática cartesiana (la de Port Royal, que Noam Chomsky reivindicó en su obra Cartesian Lingüistics).

Todo ello deja paso, en el siglo XIX, a unidades abismales que atraviesan miríadas de variantes evolutivas: Vida, Trabajo y Lenguaje. Éste no se proyecta en una lingüística general, como sucederá en el siglo XX con Ferdinand de Saussure, sino en la indagación paleontológica de escrituras primigenias, en el desciframiento de Piedras de Rosseta, y sobre todo en la gestación de la gran hipótesis de una común lengua originaria indogermánica de donde proceden nuestras lenguas más familiares. Todas en perpetua evolución y transformación inconsciente. Lo mismo sucede en las ciencias de la vida, y en la economía política.

Wagner traza la evolución infinita, con metonimia de eones, desde el tritono mayor del inicio del Oro del Rhin hasta el Apocalipsis por fuego y agua del final, en El ocaso de los dioses, con la destrucción del mundo (de los dioses, de los héroes).

Karl Marx arranca del comunismo primitivo, y prosigue la historia de la explotación del hombre por el hombre hasta culminar en la metástasis de la mercancía. Ésta se produce en la formación histórica que tiene al capitalismo como Modo de Producción.

Darwin queda absorto y abismado ante la magnitud del tiempo, que impide cualquier comprobación de eslabones intermedios. Pero justamente esa imposibilidad señala el campo futuro de investigación: la búsqueda de yacimientos de fósiles que permitirían trazar quizás lo que en esos millones de años se fue gestando.
Convirtió al Azar en poderoso agente creador (antes de que los artistas, en los inicios de las vanguardias del siglo XX, se apropiaran de esta idea).

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona

lunes, mayo 04, 2009

Knowledge and genius

By AC Grayling (THE GUARDIAN, 02/05/09):

It is a common presumption that if people know a lot, they must be intelligent. Anyone who can reel off capital cities or count to 10 in several languages – or, in the case of a two-year-old girl heralded in newspapers this week, tell an ­apple from a banana early enough – is counted a bright spark. And often enough intelligence, a good memory and a well-informed mind go together because intelligence prompts curiosity, curiosity results in knowledge, and memory keeps the knowledge available.

But there is no automatic connection between knowledge and intelligence. There are plenty of very bright people who do not know the world’s capitals and cannot count in other languages, because they have never had a chance to learn them. In rural Africa there must be millions of smart kids who know nothing but local lore; they are Thomas Grey’s “village Hampdens” and “mute inglorious Miltons”.

By the same token plenty of people know lots of facts without being creative, thoughtful, quick-witted, humorous and perceptive – the marks of true intelligence. Sometimes an overload of facts is the mark of a dull and pedestrian mind, the antithesis of intelligence.

Moreover, there are different kinds of intelligence, better described as different gifts of mind, so that a person can be wonderfully talented in one respect and hopeless in another. It is misleading to describe anyone as intelligent without specifying what form the intelligence takes. Some mental aptitudes are hard-wired: gifts for maths and music (which often go together) require no knowledge, and manifest themselves early in life. So does artistic ability. Many autists have extremely high-order talents in these respects without acquiring any knowledge, or even interacting much with other people.

But other aptitudes require training, data, experience and practice. Here intelligence and a body of knowledge meet, and the former acts on the latter in productive ways. One can train a parrot to reel off English kings and queens, but it takes an accomplished historian to tell us insightful things about them.

“Intelligence tests” have always been a matter of controversy. Practice improves scores, which raises a ­question mark over whether they capture ­anything objective. If someone scores high on verbal tests and low on spatial ones, what does that overall score tell us about the individual in question? ­Nothing very informative.

There are many “high IQ” societies, the best-known being Mensa, which admits people with IQs in the top 2% of the population. At Mensa’s 50th anniversary in 1996 one of the founders, Lancelot Ware, said he regretted the fact that members devoted far more time to puzzles than improving the world.

That prompts a thought: intelligence is a matter of output, not scores in a test. Einstein was unsuccessful at school and no great shakes as a mathematician, but he was creative and insightful, and saw a whole new way of thinking about gravity and the structure of space-time. A vivid interest in things, and an active desire to understand more about them, is a major characteristic of intelligence. When this leads to great creativity and important discoveries, we call it genius.

In the ancient world a genius was a creature who whispered ideas, ambitions and insights into your ear. The Romantics internalised genius, identifying it with their own inner selves – what Proust called le moi profond, the deepest me. As there are many kinds of achievement, so there are many kinds of genius suited to them. To all, the wonderful old cliche about 99% perspiration applies.

IQ tests rarely predict achievement or correlate with knowledge, and they are too blunt an instrument to capture the variety of human gifts. The latter are what matter. As with everything else, we know these gifts by their fruits, not by artificial ways of defining them.

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona

domingo, abril 26, 2009

Creando universos

Por Camilo José Cela Conde, miembro de EvoCog, unidad asociada al Instituto de Física Interdisciplinar y Sistemas Complejos, CSIC-Universitat de les Illes Balears (EL PAÍS, 24/04/09):

En el segundo centenario del nacimiento de Darwin, y a través del siglo y medio transcurrido desde que salió a la luz El origen de las especies, el pensamiento darwiniano ha logrado ser la referencia más fiable de que disponemos para entender el mundo que nos rodea y la manera como llegó a ser tal cual lo vemos ahora.

Algunas de las claves de la naturaleza, en especial aquella que nos afecta más de cerca, estremecen. La crueldad, el dolor, la ausencia de esperanza y el desamparo forman parte de lo más común en un planeta que, siguiendo las pautas de la selección natural, certifica el bienestar de los más fuertes -bienestar provisional, hasta que les llega la vejez- a costa de los más débiles.

¿Siempre?

Algunos grupos peculiares de organismos entre los que nos encontramos los seres humanos parecen echarle un pulso a esa selección natural ciega y desalmada. Son varios los ejemplos. Los de los primates, sí, pero también los de los insectos sociales, algunos roedores ciegos e incluso unas gambas diminutas. Todos esos seres tuercen el sentido mismo de la adaptación por selección natural basada en las ventajas individuales para volcarse en la cooperación como fórmula útil de cara a organizar el lapso brevísimo de tiempo de la vida.

Darwin fue incapaz de explicar cómo pueden sobrevivir, en un mundo sometido a las leyes de la selección natural, esos grupos solidarios. El sentido común, la intuición de que si se coopera se vive mejor, es magro argumento; resulta fácil demostrar, incluso con pruebas contundentes, que ese tipo de solidaridad no resulta adaptativo.

Se podría contestar que, bueno, puede que sea así pero que existen causas perdidas a las que es preferible apuntarse. Más vale vivir menos tiempo y hacerlo en unas condiciones que no nos avergüencen. Sin embargo, la discusión es otra: ¿cómo pudo fijarse a lo largo de millones de años el altruismo si las claves para la adaptación lo impiden?

Hoy sabemos la respuesta y contamos con elegantes algoritmos matemáticos que prueban cómo apareció la conducta altruista y hasta dónde llega.

Menos en el caso de los humanos.

Nosotros somos unos primates peculiares, con unos usos y conductas muy difíciles de diseccionar. Aun así, lo que sabemos acerca de otros animales se nos puede aplicar aun cuando sólo sea hasta cierto punto. Sabemos que el dolor, la angustia y el absurdo dominan nuestras vidas. Así que aquellos que no creemos en un mundo mágico sobrenatural nos quedamos a menudo sometidos al horror hacia el vacío de una vida que carece de sentido, de una existencia en la que los momentos de felicidad son muy pocos.

¿Hace falta un ejemplo? La enfermedad mortal de un niño. ¿Qué dios insensible, qué selección natural absurda llevaría a la vida a un ser que está condenado a desaparecer antes de haber podido dar paso a lo más elemental en el propósito de todo organismo: la capacidad de perpetuarse?

Pero los humanos somos unos primates muy extraños. Hacemos, en cierto modo, de demiurgos. Construimos unos mundos distintos a éste, unos mundos que no existen, y les soplamos el aliento de la vida para convertirlos en reales en el único lugar en que cualquier realidad tiene su presencia: en la imaginación de alguien.

Tengo amigos que mudan su realidad por otra; que se disfrazan; que van a los hospitales donde los niños se están muriendo, que hacen allí el payaso y que, por unas horas o quizá por unos pocos minutos, convierten nuestro universo infame en otro muy distinto. En un paraíso de risas, alegría y esperanza donde el cerebro del niño más débil se encuentra transportado a la categoría de la felicidad por unos instantes.

Me gustaría que se pudiese alguna vez explicar cómo es que la selección natural condujo a algo así, a un mecanismo tan ajeno a los que gobiernan por lo común los ecosistemas. Yo sé que la vida no tiene ningún propósito. Pero también he de reconocer, aunque sea forzando mi alma empirista, que igual que algunas moléculas consiguen durante un tiempo breve formar un rincón pequeño y aislado del flujo de la entropía creciente -en eso consiste la vida- mis amigos los payasos logran el milagro de rescatar a unos niños de la sensación de condena. Una sola sonrisa, un gesto de complicidad, una mirada al universo que ha aparecido por arte de birlibirloque y tenemos ya los logros que, en el balance último, salen ganando frente a cien años de envidias y toda una existencia de codicias y resquemores.

Si Darwin estuviese vivo hoy y pudiera verlo, se alegraría no poco al comprobar que incluso a la selección natural se le puede echar el pulso del engaño. Sólo durante unos minutos, eso sí. Pero sabido es que, en el aleph, la eternidad equivale a un único instante.

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona

miércoles, abril 22, 2009

La endogamia mató a los Austrias

Por M. RUIZ DE ELVIRA - Madrid - (ElPais.com, 15/04/2009)

Carlos II El Hechizado fue una de las víctimas de los repetidos cruces entre parientes próximos que se dieron en sus antepasados, tanto recientes como remotos. Su coeficiente de consanguinidad era altísimo, similar al del fruto de una relación entre padre e hija o entre hermano y hermana, han hallado científicos españoles. El primer estudio que aplica la genética a una dinastía española, la de los Austrias, ha confirmado la hipótesis de muchos historiadores de que la consanguinidad fue el factor clave en su extinción, cuando murió Carlos II en 1700 sin descendencia. También ha permitido esclarecer los principales trastornos que sufría el rey.

"En el análisis de la consanguinidad nos hemos remontado 16 generaciones desde Carlos II, con un total de 3.000 personajes", explica Gonzalo Álvarez Jurado, catedrático de Genética en la Universidad de Santiago de Compostela y aficionado a la historia. Lo que han encontrado Álvarez y sus colegas, Francisco Ceballos y Celsa Quinteiro, y publican en Plos One, es que pesan tanto las relaciones de parentesco entre el padre y la madre del sujeto como las acumuladas a lo largo de las generaciones.

Desde que Felipe el Hermoso inauguró la dinastía al casarse con Juana La Loca, los matrimonios entre parientes en las diferentes casas reales europeas, para conservar el poder, fueron la norma. El coeficiente de consanguinidad indica la proporción de genes idénticos que se reciben del padre y de la madre. Con la genealogía en la mano, en porcentaje, va aumentando desde el 2,5 de Felipe el Hermoso al 21 de Felipe III. En Felipe IV baja a un 11,5 y Carlos II, a pesar de ser sólo hijo de tío y sobrina, tiene el máximo (25,4), 10 veces mayor que el del fundador.

"Para probar la influencia de la consanguinidad, fuimos a los efectos", indica Álvarez. "Analizamos la mortalidad infantil en los descendientes de cada rey hasta los 10 años y observamos una relación directa entre el coeficiente de consanguinidad y la tasa de mortalidad". Ya los testimonios de la época se extrañaban de la cantidad de abortos y de niños que nacían muertos o morían pronto en la familia mejor cuidada de la España de entonces.

                                Genealogía de los Hausburgo- EL PAÍS
Además, los científicos españoles han estudiado desde el punto de vista genético los trastornos de los reyes y, sobre todo, de Carlos II. "Disponemos de los mejores retratos de todos ellos, de grandes pintores, que son muy informativos para los médicos", recuerda Álvarez. Sin embargo, aclara, la barbilla prominente de Carlos I no está relacionada con la consanguinidad.

Dos enfermedades achacables a mutaciones genéticas recesivas, que necesitan heredarse de los dos progenitores, explicarían los trastornos de Carlos II, que era raquítico, no pudo tener hijos y a los 30 años parecía un viejo. Son un déficit hormonal múltiple de la hipófisis (de la hormona de crecimiento, entre otras) y una acidosis tubular renal, causa de raquitismo.

En la lotería genética salió mejor parada la infanta Margarita, hermana del rey y una de las famosas meninas de Velázquez, que se casó y tuvo hijos.

Hay un grado de incertidumbre inevitable en el estudio, debido a la imposibilidad de asegurar la paternidad de los descendientes, pero Álvarez cree que es pequeño, dado el marco de la realeza en la época. Ahora, los investigadores están ampliando el estudio a los Austrias austríacos, que tienen todavía mayor consanguinidad. Un primer análisis indica que en los Borbones es mucho menor.

sábado, abril 18, 2009

Elogio de lo superfluo, indulto del error

Por Jorge Wagensberg, director del Área de Ciencia de la Fundación La Caixa (EL PAÍS, 17/04/09):

Observar es buscar diferencias entre cosas similares. Comprender es encontrar similitudes entre cosas diferentes. La ciencia avanza balanceándose sin cesar entre la observación y la comprensión: de la una a la otra, de la otra a la una. ¿Y el arte? Decir: en el fondo, ciencia y arte son una misma cosa es tan superficial como afirmar: en el fondo, ciencia y arte no tienen nada que ver. Los dos extremos son falsos, pero con el mérito de enmarcar la verdad que se despliega entre ellos.

La relación entre ciencia y arte tiene interés tanto por sus convergencias, que las hay, como por sus divergencias, que también son notorias. Afinando el foco, lo mismo ocurre entre la ciencia y formas más particulares del arte (ciencia y pintura, ciencia y música, ciencia y literatura…), o entre el arte y construcciones más propias de la ciencia (arte y matemática, arte y física, arte y biología…). Ensayemos, por ejemplo, un careo entre ciencia y literatura.

La ciencia es una forma de conocimiento. También la literatura. Todo lo que no es la realidad misma es ficción. Cualquier literatura, incluido el ensayo es, en rigor, una ficción de la realidad. La ciencia, cualquier ciencia, no lo es menos. Sin embargo, la ciencia es más bien una teoría, la literatura más bien una práctica.

La ciencia empieza con la comprensión del mundo y acaba narrando historias, historias que reconstruyen el pasado (cómo ha llegado este paisaje a ser como es), historias que anticipan el futuro (cómo llegará este paisaje a ser lo que será). La literatura empieza narrando historias, pero nunca descarta dar con alguna comprensión de la realidad.

La ciencia es la forma de conocimiento que más se protege contra la ideología y las creencias de sus creadores. La literatura quizá sea la más eficaz para envolver y transmitir creencias, ideologías o meras intuiciones.

El científico, para lograr esta higiene ideológica, se impone una drástica cirugía en tres actos.

El primero y más doloroso consiste en expulsar el Yo de sus contenidos. Con buena objetividad se gana buena universalidad. La ciencia es de uno para todos, aunque sea al alto precio de borrar a ese uno del mapa.

En el segundo acto se decanta todo lo presuntamente superfluo, un nuevo sacrificio para la identidad del autor que ve con tristeza cómo lo más propio de sí mismo se escapa por el desagüe. El premio en este caso tampoco está mal: se trata de anticipar la incertidumbre, la supervivencia.

Y el tercer acto consiste en la persecución implacable del error. El científico avanza con el error, vive con, para y del error. Para ello no deja nunca de enfrentar su verdad con la realidad que pretende comprender. En caso de duda se impone la evidencia experimental. El autor corta por lo sano todo lo que huela a incoherencia o a vacío y con ello se despoja de las complejidades que más le distinguen como ser humano. Pero esto también tiene premio. Gracias a la obsesión por detectar y machacar contradicciones, la ciencia, necesariamente, progresa.

Paradójicamente, cada uno de estos tres sacrificios esconde un gozo intelectual. Separar el Yo de la realidad inaugura el placer de la conversación entre la mente y su mundo exterior (uno).

Decantar lo superfluo produce el más intenso de los gozos intelectuales, aquel que cae con toda nueva comprensión o con toda nueva intuición (dos).

Y de la persecución de contradicciones arranca nada menos que el proceso cognitivo entero. Es el estímulo (y tres): la constatación de que algo se mueve, el anuncio de que algo está a punto de cambiar.

Pero, atención, la mala noticia es que el científico no publica tales gozos intelectuales. Cada gozo intelectual implícito es un efecto colateral de una exclusión primaria. En ciencia lo prioritario es comprender el mundo y para ello se sacrifica el Yo, lo superfluo y el error. El gozo intelectual asoma sólo desde la sombra para crear una íntima adicción al conocimiento científico.

En literatura, curiosamente, se invierten los términos. Si hay algo prioritario buscado por un escritor cuando escribe o por un lector cuando lee, eso es, justamente, alguna clase de gozo intelectual. Y si en el intento resulta que ganamos algo de la comprensión del mundo o de la condición humana, entonces viva la literatura. Quizá esté aquí la clave de una fecundación mutua entre ciencia y literatura.

La ciencia se acerca a la literatura aflojando las tuercas del método científico, la literatura a la ciencia apretándolas. Delicadamente.

Lo primero equivale a tres cosas: el rescate del Yo, el elogio de lo superfluo y el indulto del error. ¿Gana algo con ello la ciencia? Bueno, no es lo mismo aflojar el método, después de haber obtenido sus beneficios, que no aflojarlo porque nunca ha estado apretado. La diferencia es colosal: después del sacrificio en tres actos, uno gana indicios sobre cuál es la parte de uno mismo que compromete la buena comprensión de la realidad. El científico encontraría así un camino para romper su soledad cósmica y para sopesar con más precisión donde termina su rigor científico y donde empieza su rigor mortis. La ciencia no se hace sólo con método científico porque éste sirve para tratar ideas, pero no sirve para capturarlas.

Simétricamente, acerquémonos ahora a la ciencia desde territorio literario. En este caso, el ejercicio consiste en descentrar el Yo, evitar un empacho con lo superfluo y en tratar mínimamente los errores. Suavemente.

Muchos autores, como Borges o Melville, habitan este territorio fronterizo con plena naturalidad. Pero vaya por delante la obviedad de que ello no es condición necesaria ni suficiente para ser un gran escritor. Es el caso de Kafka, o de Proust, cuya garra literaria nadie discute. Pero ¿gana algo la literatura aventurándose hacia la ciencia?

La condición humana siempre está en el origen y el fin de toda literatura. Pero digamos que la comprensión de aquella da un salto significativo cada vez que alguien empuja el Yo fuera del centro del escenario. Moisés apartó el Yo humano de la cohabitación con los dioses, Copérnico empujó el Yo terrícola fuera del centro del cosmos, la revolución americana y la revolución francesa descentraron el Yo aristócrata y Marx lo intentó con el Yo burgués, Darwin barrió el Yo del Homo sapiens del centro de la evolución y Freud desplazó el Yo consciente del centro de la comprensión de sí mismo.

No: descentrar el Yo en literatura no puede ser malo. El ejercicio abre nuevos caminos hacia la comprensión de la condición humana y, de paso, reduce el riesgo de contar siempre la misma historia.

Lo superfluo no tiene por qué ser vergonzante pero tampoco es necesariamente un gran honor. Los diferentes géneros literarios se asocian a su capacidad para asimilar carga superflua: mayor la de un novelón de mil quinientas páginas que la de una novela de trescientas, mayor la de una novela que la de un cuento, la de un cuento que la de un poema y la de un poema que la de un aforismo. Todo bien. Es decir, pensando sólo “a peso” ya se puede decir que un aforismo es más científico que una novela y un poema lo es más que un cuento.

No: dosificar lo superfluo y tratar las contradicciones tampoco puede ser malo dentro de cada género literario. Y es ahí, bajo lo superfluo y de entre los errores, de donde puede brotar un nuevo recurso o un nuevo discurso.

Revolver lo superfluo y las contradicciones significa para la literatura remover la tierra que pisa. Incluso es posible que, durante este proceso, la literatura tropiece con un gozo intelectual científico, lo desentierre y nutra con él alguna de sus historias.

Fuente: Bitácora Almendrón. Tribuna Libre © Miguel Moliné Escalona