span.fullpost {display:none;} span.fullpost {display:inline;} saber si ocupa lugar: 2010

jueves, 30 de diciembre de 2010

¿Dónde se inventó la guillotina?


Estrictamente hablando, en Halifax, Yorkshire, Inglaterra.

La Horca de Halifax consistía en dos postes verticales de cuatro metros y medio, entre los que colgaba un hacha de hierro montada sobre un madero controlado por una cuerda y una polea. Los archivos oficiales indican que al menos 53 personas fueron ejecutadas con este artefacto entre 1286 y 1650.

La ciudad medieval de Halifax basaba su economía en el comercio de paño. Grandes cantidades de ese caro género se dejaban fuera de los molinos, en paneles, para que se secaran. El robo era un problema muy serio y los mercaderes locales decidieron utilizar un eficaz castigo disuasorio. Tanto la Horca de Halifax como un artefacto escocés posterior, conocido como la Dama, bien pudieron haber inspirado a los franceses a la hora de diseñar su propia versión.

El doctor Joseph Ignace Guillotin era un médico de suaves modales y carácter humanitario al que disgustaban las ejecuciones públicas. En 1789 presentó ante la Asamblea Nacional un ambicioso plan de reforma del sistema penal con el fin de hacerlo más humano. Propuso un método mecánico estandarizado de ejecución que no discriminara entre los pobres (que eran ahorcados) y los ricos (castigados con la relativamente menos indolora y cruel decapitación).

La mayoría de sus propuestas fueron rechazadas, pero la noción de una máquina de matar lo más eficiente posible sí que gustó. La recomendación de Guillotin la refinó el doctor Antoine Louis, Secretario de la Academia de Cirujanos. Fue él, no Guillotin, quien fabricó la primera guillotina operativa en 1792, a la que se conoció durante un corto periodo de tiempo como Louison o Louisette.

Pero de alguna manera, el nombre de Guillotin gustó más y, por mucho que se esforzó su familia para evitarlo, fue el utilizado para designar al sangriento invento. Contrariamente a lo que popularmente se cree, Guillotin no murió bajo la cuchilla de su propio artefacto, sino en 1814, a causa de un carbunco infectado en su hombro.

La guillotina se convirtió así en el primer método democrático de ejecución y se utilizó generosamente por toda Francia. En sus primeros diez años de existencia, los historiadores estiman en 15.000 personas sus víctimas. Sólo la Alemania nazi la utilizó más intensivamente: 40.000 criminales entre 1938 y 1945. La última persona en ser ejecutada por medio de la guillotina fue un inmigrante tunecino llamado Hamida Djandoubi, por la violación y asesinato de una chica, en 1977. La pena de muerte fue abolida en Francia en 1981.

Y, por si alguien se lo pregunta, es imposible saber con precisión durante cuánto tiempo permanece consciente una cabeza tras ser separada del cuerpo, pero se cree que entre cinco y trece segundos.
Leer Mas...

lunes, 27 de diciembre de 2010

Cocinar con fuego


Durante siglos, los utensilios de cocina no han variado mucho en lo esencial. Sin embargo, la Revolución Industrial del siglo XIX introdujo en la cocina de los hogares occidentales la novedad de las máquinas que realizaban algunas de las tareas más tediosas que hasta entonces llevaban a cabo las manos humanas. Así, poco a poco, surgieron multitud de máquinas y mecanismos diversos –frigoríficos, lavaplatos, ollas exprés, batidoras, licuadoras, robots…-, que fueron acogidos con enorme e insaciable satisfacción. Pero no estará de más volver la vista atrás y revisar un momento los hábitos culinarios del pasado.

En la Prehistoria, el ser humano preparaba su comida sobre una simple hoguera, utilizando utensilios y herramientas muy rudimentarios: cuencos de piedra para líquidos, morteros de metal y madera para hierbas y especias, piezas de pedernal para cortar carne… Uno de los primeros dispositivos utilizados por el hombre fue el molino de harina –generalmente, dos piezas en forma de disco, agujereadas en su centro, por donde se introducía el grano, que era aplastado entre aquéllas, cayendo la harina a través del agujero inferior-.

Hacia el año 7.000 a.C. surgieron en el Próximo Oriente las vasijas y otros recipientes de arcilla, barro y cerámica polícromas, así como otros utensilios más sofisticados, como calentadores de comida, consistentes en cuencos desmontables situados sobre lámparas de aceite.

En Grecia y Roma, la mayor parte de las innovaciones consistió más en la aplicación de nuevos materiales –bandejas de oro, copas de plata o de cuerno de carnero, botellas de cristal, platos de barro, jarras de madera…- que en nuevos dispositivos o herramientas.

Todo continuó más o menos igual hasta que, hacia el año 700, la habitación dedicada a cocinar fue tomando progresivamente mayor importancia como centro de reunión familiar, no sólo por servir para preparar los imprescindibles alimentos, sino también porque su hogar procuraba el no menos importante calor. Por entonces, casi todas ellas disponían de un asador giratorio, que sobreviviría casi sin innovaciones durante casi mil años –aunque, por ejemplo, el genial Leonardo da Vinci proyectara un ingenioso asador accionado, mediante una turbina, por el propio calor que ascendía a través de la chimenea- hasta que, a finales del siglo XVIII, el ancestral concepto de cocción directa de los alimentos sobre un fuego abierto fue sustituido por una innovación revolucionaria: la cocina económica.

En primer lugar, a alguien se le ocurrió alojar el hogar en una cámara construida con ladrillos y dispuesta en el centro de la cocina, que constaba de una superficie caliente y unos soportes laterales para conservar asimismo caliente una olla o cacerola. En 1630, el inventor británico John Sibthrope patentó una cocina metálica, alimentada con carbón –combustible que sustituyó a la leña-, similar a la descrita. Sin embargo, esta cocina tenía el inconveniente de que hacía necesario calentar previamente la superficie de la propia cocina antes de proceder a la cocción de los alimentos.

El inventor estadounidense Benjamin Thompson, de Woburn, Massachusetts, se propuso crear
una cocina económica eficaz y de dimensiones más reducidas, lo que no consiguió, pero sí desarrolló, al paso, dos utensilios culinarios muy útiles. Este personaje fue espía durante la revolución norteamericana y en 1776 huyó a Londres, dejando tras de sí esposa e hija. Ennoblecido por el rey británico Jorge III, Thompson estudió física en Inglaterra, especializándose en las aplicaciones del vapor. Su trabajo fructificó en dos inventos muy útiles: un doble hervidor y una cafetera. Mas este curioso personaje hubo de interrumpir sus experimentos por problemas de Estado. Tras convertirse en funcionario bávaro, Thompson fue nombrado gran chambelán de Baviera ya como conde Von Rumford de Baviera, lo que no le impidió continuar con sus experimentos, modernizar la máquina de vapor de Watt y, por otra parte, popularizar el consumo de la patata.

En 1802, el fundidor de hierro británico George Bodley, siguiendo las investigaciones de Thompson, patentó una cocina de hierro forjado y calentamiento uniforme, alimentada con carbón y provista de un escape moderno, que se convertiría en el prototipo de las cocinas actuales. Ese mismo año, el inventor alemán Frederick Albert Winson dio a conocer su cocina de gas, la primera de la historia. Tras ella, proliferaron otros muchos modelos, pero, sin embargo, todos adolecían de un grave problema: eran peligrosas por sus escapes de humo y sus explosiones. Habrían de pasar no menos de 30 años hasta que comenzaron a surgir en el mercado cocinas mucho más eficaces y seguras, que se impusieron rápidamente en todos los hogares occidentales.

Por otra parte, los primeros fogones eléctricos aparecieron en 1890, pero no eran prácticos, pues eran muy caros, no impedían que los alimentos quedaran demasiado crudos o demasiado carbonizados, sin término medio, y, además, necesitaban el suministro de energía eléctrica, lo cual, por entonces, no era muy factible.
Leer Mas...

domingo, 26 de diciembre de 2010

¿Cómo se definen los verdaderos planetas?


Todo lo que hay en el sistema solar de un tamaño superior a unos pocos metros y que no genera cantidades estelares de calor y luz se considera un planeta de algún tipo en sentido estricto (planeta gigante, pequeño, menor o minúsculo), a menos que orbite alrededor de otro cuerpo distinto del Sol, en cuyo caso se lo suele denominar satélite. Aunque por lo común no se los llama planetas, los cometas también podrían considerarse pequeños planetas helados. De ahí que Plutón constituya, sin lugar a dudas, un planeta.

El sistema solar alberga distintos tipos de planetas, y no podemos clasificarlos todos de manera adecuada porque no disponemos de información suficiente. Un gran grupo de planetas con 1.000 km de diámetro o menos orbita alrededor del Sol en un cinturón extenso situado entre las órbitas de Marte y Júpiter: por lo común se alude a ellos como asteroides y planetas menores. La mayoría de los asteroides sigue órbitas que los mantienen siempre entre Marte y Júpiter (es decir, su excentricidad no es demasiado pronunciada). Sin embargo, muchos de ellos poseen órbitas que cruzan las órbitas de los planetas mayores, inluida la de la Tierra. Es bien sabido que los cometas siguen órbitas muy oblongas o elípticas. Algunos cometas, como el Halley, siguen órbitas que atraviesan las de muchos planetas mayores.

¿Hay ocho planetas mayores?, cabría preguntar. Bueno, lo cierto es que ha llegado la hora de dejar de hablar de manera general sobre qué número de planetas reside en el sistema solar porque la cifra podría confundir. Tal vez sea mejor limitarse a decir que el sistema solar es un conjunto de objetos regidos por una estrella (el Sol) alrededor de la cual orbitan muchos cuerpos cuyos tamaños van desde partículas de polvo y gas hasta el gigante gaseoso que encarna el planeta Júpiter. Existen cuatro planetas gaseosos de dimensiones notables (Júpiter, Saturno, Urano y Neptuno) y, en la región interior del cinturón principal de asteroides, hay algunos objetos rocosos menores (entre los que Mercurio, Venus, la Tierra y Marte representan los de mayor tamaño). Alrededor de los grandes planetas gaseosos orbitan docenas de satélites, siete de los cuales, además de nuestra Luna, son más grandes que Plutón.

El tamaño real y la masa aproximada de Plutón sólo se conocen desde 1978, y en ambos aspectos
el planeta es mucho menor de lo que se había creído desde poco después de su descubrimiento en 1930. Por aquel entonces, numerosas razones instaron a referirse a Plutón como el “noveno planeta”. Dada la escasa información disponible para reforzar o refutar aquel aserto, esta clasificación quedó guardada en los manuales de astronomía durante décadas. Pero durante todo ese tiempo se ha visto que Plutón es diferente de los ocho planetas mayores conocidos. Así, por ejemplo, sigue una órbita mucho más elíptica y más inclinada con respecto a la eclíptica que el resto de los planetas mayores, de forma que su recorrido orbital lo lleva hasta el interior de la órbita de Neptuno, de tal suerte que, desde 1979 a 1998, Neptuno fue el planeta mayor más exterior de todos. Plutón es tan pequeño que llamarlo un “planeta mayor” induce a error en el contexto de lo que se sabe ahora sobre el sistema solar. Es más riguroso describirlo como un “planetésimo” o “planeta menor”. Incluso hay indicios de que Plutón podría ser, en efecto, un cometa gigante. Pero aún hay que trabajar y observar mucho más para llegar a conclusiones definitivas.
Leer Mas...

¿Es importante la dirección en que crecen los pelos cuando se trata de conseguir un correcto afeitado?


Cuando los hombres se afeitan la cara, o las damas lo hacen con las piernas, a veces pueden quedar sin eliminar algunos diminutos cañones de pelo. Se plantea entonces el tema de conocer si existe alguna técnica especial para afeitarse, por ejemplo siguiendo o yendo en contra de la dirección de los pelos, a fin de conseguir unos resultados más escrupulosos. Eso es un auténtico problema.

Se puede comprobar que los pelos residuales son más cortos cuando se practica el afeitado “a contrapelo”, pero esto no siempre se puede hacer sin problemas, pues si se apura demasiado puede ocurrir que el pelo vuelva a crecer hacia dentro y eso sea una causa de inflamaciones. Además, la piel queda muy irritada. Para un afeitado especialmente cuidadoso se debe contar con disponer del tiempo suficiente y los útiles adecuados. Eso significa que hay que poner “las barbas en remojo” hasta que se yergan los pelos y, además, la cuchilla debe estar perfectamente afilada.
Leer Mas...

domingo, 19 de diciembre de 2010

Andy Warhol: obsesión por la fama


Andy Warhol quería ser famoso; un famoso del siglo XX. Quería el tipo de fama en la que millones de personas saben tu nombre y los paparazzi te siguen a todas partes. Quería que Picasso fuese en comparación una nimiedad.

Nadie entendió la celebridad tanto como Warhol. Nadie la estudió tan a conciencia o la cultivó de manera tan cuidadosa como él. Y nadie fue tan capaz de manufacturar la fama. En tanto que máximo creador, consumidor y crítico de la fama, Warhol empaquetó y refinó la marca de fábrica “Andy Warhol” hasta que en todas las casas de Estados Unidos se conoció al artista de peluca plateada. Hizo una gran carrera, y sus quince minutos de fama fueron más largos de lo que él mismo imaginaba.

Andrew Warhol era el tercer hijo de Julia y Andrei Warhola, inmigrantes procedentes de una localidad actualmente situada en Eslovaquia. Julia mimó a Andy, que en su infancia tuvo problemas de salud y pasó muchos meses de convalecencia dibujando. El joven Andy estaba fascinado por las estrellas del cine, especialmente por Shirley Temple, y ahorraba para unirse a su club de fans.

Se especializó en arte en el Carnegie Institute of Technology, y su fascinación por la fama creció. Se obsesionó con Truman Capote, que vivía en Nueva York, ganaba grandes cantidades de dinero y asistía a fiestas con estrellas del cine. Andy Warhol decidió que si Capote lo había conseguido, también él podía hacerlo, e inmediatamente después de obtener su título se marchó a Nueva York.

Warhol podía haber empezado pintando y persiguiendo a los galeristas, pero en cambio se metió en el mundo de la ilustración comercial, que era donde estaba el dinero. Trabajaba de doce a catorce horas al día creando encantadoras ilustraciones, y al poco tiempo ya tenía mucha demanda, pero el éxito comercial hizo que Warhol deseara con mas ganas que se lo tomara en serio en el mundo de las bellas artes.

Mucho más difícil le fue encontrar su propio estilo, puesto que el expresionismo abstracto seguía dominando la escena. Hizo todo lo que se pasó por la cabeza para desarrollar un estilo con el que pudiera darse a conocer. Pintó series de zapatos (Warhol era un tanto fetichista), pero se
parecían demasiado a sus trabajos como publicista. Experimentó con caricaturas a gran tamaño, pero Roy Lichtenstein ya se le había adelantado. Pintó botellas de Coca-Cola, pero seguía viéndose compelido hacia el goteo abstracto y las manchas. Una noche un amigo le sugirió: “Deberías pintar algo que todo el mundo vea cada día, que todo el mundo pueda reconocer… como una lata de sopa”.

Al día siguiente, Warhol compró una lata de cada una de las treinta y dos variedades de sopa Campbell en la tienda de ultramarinos del barrio. De todos modos, siempre le había gustado la sopa Campbell, especialmente la de tomate, que era la que su madre solía servirle para almorzar. Hizo diapositivas en color de cada una de las latas, las proyectó sobre una pantalla y dibujó los perfiles. Pintó cada una de las variedades sobre un lienzo blanco.

Al morir Marilyn Monroe en 1963, Warhol dio un paso más en esa técnica y creó una serie de retratos de la estrella. Más que pintarlos, utilizaba la serigrafía, una sofisticada técnica de estarcido a menudo usada para imprimir camisetas, que le permitía realizar series idénticas de imágenes. Warhol produjo treinta y tres cuadros diferentes de Marilyn, desde Marilyn de oro, una simple imagen serigrafiada sobre un fondo dorado, hasta el Díptico Marilyn, doscientas repeticiones del mismo retrato en un lienzo de 4 metros. Los retratos eran tanto un homenaje como una crítica a la fama: tantas repeticiones convertían a la mujer en un artículo de consumo, el precio último de la celebridad.

La reacción de la escena artística de Nueva York fue electrizante. De repente, el expresionismo
abstracto estaba pasado de moda. El pop art estaba por todas partes, y no había artista pop más famoso que Warhol. Empezó a dejarse ver en las fiestas acompañado por un séquito de adorables mujeres y homosexuales. Para que su nombre siguiera apareciendo en la prensa, contrató a publicistas que filtraban sabrosos cotilleos a los columnistas. Entre tanto, refinó su aspecto. Se estaba quedando calvo, así que empezó a usar peluca, primero una rubia como su propio pelo y más tarde una gris plateado. Se puso gruesas gafas de pasta que enfatizaban su mirada solemne y se atavió con pantalones vaqueros negros, camisetas o jerséis de cuello alto negros y chaquetas de piel del mismo color.

En 1963, el equipo de serigrafía de Warhol ocupaba todo su apartamento, de modo que alquiló un almacén y lo apodó The Factory (“La Fábrica”). Empezó a pasar por allí gente a todas horas; gente con nombres como Podrida Rita, el Alcalde, la Duquesa y el Hada de Algodón de Azúcar –todos inadaptados-, muchos de ellos homosexuales o transexuales y la mayoría adictos a las anfetaminas.

Al poco tiempo, la Fábrica se había convertido en una fiesta continua. Warhol se enganchó a las pastillas, pero de todas formas siguió trabajando y extendió sus esfuerzos a la filmación de películas underground y a hacer de manager de la banda Velvet Underground. Reaccionaba a los chanchullos de la Fábrica con un desapasionamiento que oscilaba entre el voyeurismo y un desapego estilo Zen. Su actitud podía ser escalofriante. Cuando un asiduo de la Fábrica llamado Freddie Herko saltó desde la ventana de un quinto piso estando bajo los efectos del LSD, Warhol sólo comentó: “¿Por qué no me dijo que iba a hacer eso? Podríamos haber ido abajo para filmarlo”.

Esa anécdota contrasta con la actitud que siempre tuvo hacia su madre. Julia Warhola apenas hablaba inglés y no sabía nada de arte, pero quería a su Andy, por lo que en 1952 hizo las maletas y se marchó de su casa, en Pittsburg, para irse a vivir con su hijo. Warhol, que acababa de establecerse como ilustrador y empezaba a hacer contactos en la escena homosexual underground de Nueva York, no se sintió demasiado contento de ver allí a su mamá, pero ella se contentaba con hacerle la comida y lavarle la ropa, cosas que, de todas formas, él no tenía tiempo de hacer.

Ambos iniciaron una coexistencia caótica: Julia era una pésima ama de casa y Warhol era desordenado, por lo que el suelo y los muebles de la casa estaban siempre sucios. Los dos gatos siameses de Warhol empezaron a tener cachorros de modo que en un momento dado debió de haber una docena de gatos orinándose por donde les apetecía. Los amigos encontraban a la señora Warhola rara pero encantadora, y tenían que aguantarse la risa cuando ella decía que sólo se quedaría allí hasta que Andy encontrara una buena chica con la que casarse.

Conforme la fama de Warhol fue en aumento, el artista se trasladó con su madre a mejores y cada vez más grandes apartamentos, aunque el desorden no hacía más que aumentar hasta llenar todo el espacio disponible. Al final, la instaló en la planta baja de su casa de varios pisos, desde donde ella se quejaba a la prensa de que casi nunca veía a su hijo. A veces escuchaba las conversaciones telefónicas de Warhol desde el aparato de su dormitorio. El artista, famoso en el mundo entero, solía quejarse como un quinceañero: “¡Venga mamá, cuelga el teléfono ya!”. No está claro si ella llegó a entender que era homosexual, aunque lo pudo ver con varias de las parejas con las que mantuvo una larga relación, como la de doce años con Jed Johnson.

Julia murió en 1972, y Warhol reprimió inmediatamente cualquier emoción que sintiera ante su fallecimiento. La mayoría de los socios de La Fábrica se enteraron de la muerte de Julia varios años después. Cuando un amigo preguntó al artista cómo le afectaba la muerte de Julia, éste contestó: “Cambio de canal en mi cerebro, como si fuera un televisor, y me digo que se ha ido a Bloomingdale´s”.

A mediados de los sesenta, Warhol ya empezaba a sentir su poder. En 1965 decidió inventarse
una estrella, de modo que convirtió a la famosilla Edie Sedgwick en un fenómeno. De pronto se vio protagonizando películas y saliendo en las páginas de las revistas, pero también tenía un grave problema con las drogas y sufría una inestabilidad mental que la conduciría a la muerte en 1971. Otros sufrieron sobredosis o se desmoronaron por agotamiento, y muchos fueron los resentidos porque la riqueza de Warhol aumentaba mientras que ellos seguían en la pobreza.

En 1968 Warhol cerró la Fábrica original y trasladó sus negocios a una austera oficina, pero el daño ya estaba hecho. Demasiados seguidores lo culpaban de haber destrozado sus vidas, por lo que era de temer que al menos uno fuera lo bastante inestable para devolver el golpe.

El 3 de junio, una mujer habitual de la Fábrica, llamada Valerie Solanas, llegó a la oficina buscando a Warhol. Solanas, que había aparecido en una de las películas de Warhol, era una feminista radical que afirmaba haber fundado la organización S.C.U.M. (Society of Cutting Up Men, Sociedad para Cortar a los Hombres en Pedazos). Poco después de que Warhol se reuniera con el conservador Mario Amaya para hablar sobre una retrospectiva, Solanas salió del ascensor, sacó una bolsa de papel y le disparó. Una bala le entró por el costado derecho y le salió por el izquierdo. Entonces, Solanas dio media vuelta y disparó a Amaya. Mientras el personal se escondía en los despachos y debajo de las sillas, Solanas se acercó al distribuidor de Warhol, Fred Hughes, y le apuntó con el arma a la cara, pero la pistola se encasquilló. De repente se abrieron las puertas del ascensor. Hughes susurró: “Ahí está el ascensor, Valerie. Cógelo”. Y ella lo hizo.

Llevaron a Warhol con urgencia al hospital, donde se lo dio por clínicamente muerto, pero el médico le abrió el pecho y le hizo un masaje manual en el corazón para restablecer el latido cardíaco. El artista se fue recuperando poco a poco, aunque su salud nunca volvió a ser la misma. Tuvo que llevar un corsé ortopédico durante el resto de su vida, y las cicatrices le sangraban de vez en cuando si hacía algún sobreesfuerzo. Por otro lado, Anaya fue dado de alta con heridas leves, mientras que Solanas se entregó a la policía. Fue declarada culpable de intento de asesinato y condenada a tres años de prisión.

Aquel ataque despertó en Warhol su lado precavido. Dejó de tomar anfetaminas y empezó a comer ajo crudo. Seguía siendo un fijo de la escena festiva de Nueva York, pero en vez de transexuales y anómalos drogadictos, ahora se le veía acompañado por Liza Minnelli, Bianca Jagger, Diana Vreeland, Truman Capote y el diseñador de moda Halston. En lugar de la Fábrica, las fiestas se celebraban en Studio 54. La revista Interview, que Warhol cofundó en 1969, alcanzó una gran tirada en la década de los setenta, con historias sobre el mundo chic en el que se movía Warhol. Para financiar su extravagante estilo de vida, pintaba retratos –a 25.000 dólares el cuadro- de celebridades como Brigitte Bardot y Diana von Furstenberg.

Al final de la década de 1970, Warhol se metía de vez en cuando en proyectos comerciales,
normalmente importantes encargos de revistas. En 1977 se le pidió que hiciera un retrato de portada del candidato a demócrata a la presidencia Jimmy Carter, así que el artista de pelo plateado voló a Plains, Georgia, donde estuvo encantado de recibir dos bolsas de cacahuetes firmadas por el que pronto sería el jefe de la nación. Tras las elecciones, invitaron a Warhol a la Casa Blanca, donde estableció una inverosímil amistad con la madre del presidente, Lillian Carter. Ambos formaron una extraña pareja una noche en Studio 54. La señora Carter dijo a Warhol que no sabía si había estado en el cielo o en el infierno, pero se había divertido. Más tarde confesaría a otros que no entendía por qué todos los chicos bailaban juntos cuando había tantas chicas guapas.

La otra cara de Warhol se hizo patente a finales de los setenta y principios de la década de 1980. El artista empezó a decir a la gente que creía en Dios y que a veces iba a la iglesia. Incluso pintó una serie basada en La Última Cena de Leonardo da Vinci (por cierto, que en la inauguración de su última exposición en la que se presentaba este cuatro, los periodistas preguntaron al pintor: “¿Por qué está haciendo un Leonardo da Vinci? ¿Está muy en contacto con la cultura italiana?”. Warhol contestó: “Oh, la cultura italiana; la verdad es que sólo conozco los espaguetis, ¡pero son fantásticos!”).

Posiblemente, la espiritualidad de Warhol se había iniciado por el miedo a la muerte: en la década de los ochenta, sus amigos estaban empezando a morir de sida, e incluso él mismo había estado muerto durante un tiempo después de que le dispararan.

Cuando la vesícula biliar comenzó a darle problemas y tuvieron que extirpársela, reaccionó con un profundo fatalismo. A pesar de que lo habían tranquilizado diciéndole que era una intervención rutinaria, Warhol creía que si entraba en el hospital no volvería a salir de él. Tenía razón. La operación no tuvo complicaciones, pero al día siguiente Warhol murió en la cama de centro. Más tarde se acusó al hospital de negligencia por haberlo sobrecargado de fluidos y no haber llevado un control adecuado de su estado. El cuerpo del artista fue enterrado en Pittsburg, al lado de los de su padre y su madre. Un amigo metió en el ataúd un ejemplar de la revista Interview y un frasco de perfume Beautiful de Estée Lauder.

En realidad, Warhol no inventó la idea de artista como celebridad, pero mientras que Picasso, Dalí y Pollock eran primero artistas y después celebridades, Warhol consideraba la fama tan importante como el arte. Nunca habría estado contento creando sus obras en la oscuridad. Todos sus movimientos estaban calculados para acercarlo a ese estado luminoso de popularidad que tanto deseaba. Hoy, Warhol parece estar sorprendentemente presente en el culto estadounidense a la fama. Lo que nos preguntamos es si eso lo hizo feliz. Una vez que su cara fue tan conocida como la de Marilyn o Elvis, ¿estuvo satisfecho? Es imposible sabrerlo, pues enterró muy profundamente sus emociones. Warhol consiguió lo que quería. Lo que nadie sabe es si lo disfrutó.
Leer Mas...

jueves, 16 de diciembre de 2010

Juan Pablo I: caso abierto


El 28 de septiembre de 1978 es una fecha negra en el Vaticano, y no sólo porque se les muriera un papa. Al fin y al cabo se les han muerto doscientos y pico y lo tienen bastante asumido. Pero las dudas que surgieron en torno a aquella muerte aún no se han disipado, ni mucho menos se ha solucionado la crisis interna que arrastró. Albino Luciani, Juan Pablo I, murió a los 34 días de pontificado. Aún no les había dado tiempo a recoger todo lo del entierro de Pablo VI, cuando tuvieron que sacarlo de nuevo para los funerales del papa efímero.

Ahora que el Vaticano ha desclasificado los documentos del pontificado de Pío XI para que el mundo sepa sobre el Vaticano y el nazismo, la Guerra Civil o el fascismo italiano, es de esperar que en algún momento alguien explique exactamente de qué murió Juan Pablo I. Haciendo un cálculo, así por encima, no nos toca enterarnos hasta, más o menos, el año 2076.

El papa Luciani murió en algún momento de la noche del 28 al 29 de septiembre. Se prohibió la realización de la autopsia, nunca se pudo saber qué cenó la noche anterior, las cuatro monjas que asistieron al papa fueron trasladadas al Santo Oficio con la prohibición de hacer declaraciones, y no hubo un boletín médico que explicara claramente las causas de la muerte. El médico que certificó el deceso dijo que probablemente se debió a un infarto de miocardio. Pero aquel infarto no convenció.

La negativa a hacer autopsia se basó en que la Constitución Apostólica promulgada por Pablo VI en 1975 lo prohibía, pero en realidad ni lo prohibe ni lo ordena, lo omite. O sea, ni sí ni no, ni todo lo contrario. La omisión de autopsia se entiende cuando el papa muere tras una enfermedad tratada por los médicos o cuando se le conoce una dolencia crónica. Pero es que Juan Pablo I no estaba muy enfermo y apareció muerto en su cama cuando la noche anterior se había acostado más ancho que largo. Aún hoy hay voces que piden que se exhume y se investigue.
Y esto el resto. Leer Mas...

lunes, 13 de diciembre de 2010

Acabar con Castro


En 1959, un grupo de rebeldes encabezados por el comandante Fidel Castro alcanza el poder en Cuba tras derrocar al régimen, vendido a Estados Unidos, que encabezaba Fulgencio Batista. Una consecuencia inmediata de la revolución es que muchas empresas estadounidenses se ven perjudicadas, pero también varias organizaciones mafiosas que controlaban los negocios del juego y la prostitución en la “isla del placer”. Para colmo de males, Castro es un ferviente “antiamericano” que odia a cualquier persona o empresa que huela a yanqui.

Todos estos elementos y la proximidad geográfica de los dos países hacen que apenas dos años después de la revolución el presidente Eisenhower apruebe el programa de acciones clandestinas contra el régimen de Castro. Según un documento de la CIA se pretendía “sustituir al régimen de Castro por otro más fiel a los verdaderos intereses del pueblo cubano y más aceptable para Estados Unidos, por medios que impidan que se vea la intervención americana”. Una impresionante declaración de principios.

A comienzos de 1961, John F.Kennedy es elegido presidente de Estados Unidos y se encuentra sobre la mesa un plan de la CIA, puesto en marcha por su antecesor, para que 1.500 exiliados cubanos desembarquen en la bahía de Cochinos y arrebaten el poder por la fuerza a Castro. Es difícil explicar la razón por la que el recién llegado presidente no se opone radicalmente a una operación con tanta dosis de locura. Sin embargo, cuando se produce la invasión se niega a prestarle el imprescindible apoyo de su aviación, lo que convierte el intento de golpe de estado en una salvaje escabechina que acaba con los mercenarios cubanos en manos de un victorioso y reforzado dictador Castro. Quizás ese comportamiento extraño –cuentan que Kennedy se sintió engañado por su cúpula militar- se deba a que el presidente, que odiaba sobradamente a Castro, quería acabar con él, pero sin que se notara lo más mínimo su intervención directa.

Un mes después de esta monumental chapuza, Kennedy decidió ordenar al consejo Nacional de Seguridad que la prioridad de su trabajo recayese en acabar con el régimen de Castro. Daba igual qué medios se emplearan: el fin era trazar un plan para conseguir que hechos reales o inventados justificaran a los ojos del pueblo estadounidense y de todas las democracias occidentales que las fuerzas militares de Estados Unidos se habían visto obligadas a invadir Cuba.

El programa subversivo se puso en marcha en noviembre de 1961 y recibió el nombre de “Plan Mangosta”. Se le dio tal importancia que participaron en él la CIA, la USIA (Agencia de Información de Estados Unidos), el Pentágono y el Departamento de Estado. Y para darle el máximo nivel de dirección y conocer personalmente al detalle cada uno de sus movimientos, el presidente colocó al frente del proyecto a su hermano Robert Kennedy, Fiscal General de Estados Unidos.

En un par de meses elaboraron un programa de acciones encubiertas contra Cuba que derrochaban una imaginación sorprendente y bastante calenturienta. Se trataba de promover la subversión interna, el aislamiento político internacional de Cuba, el asesinato de Fidel Castro y otros líderes importantes de la revolución, la guerra psicológica e incluso la biológica, para concluir irremediablemente con la inevitable y anunciada invasión de los marines estadounidenses.

El listado de propuestas fue largo. Una de las más curiosas tuvo como protagonista al astronauta más conocido del mundo, John Glenn. El 20 de febrero de 1962 fue lanzado al espacio en una
pequeña cápsula con el objetivo de que por primera vez una nave tripulada realizara una órbita completa de la Tierra. Glenn ya tenía suficientes problemas técnicos cuando se fue al espacio como para pensar lo que habría ocurrido si su viaje salía mal, algo que en aquellos años entraba bastante dentro de lo probable. Sin embargo, si Glenn hubiese cometido algún error, él jamás habría sido hecho responsable, porque los “culpables” ya habían sido designados por la CIA. El “Grupo Especial Ampliado”, como se conocía a los responsables directos de “Mangosta”, habían decidido aprovechar el vuelo espacial para intentar acabar con Cuba. Si la misión fracasaba, fuese cual fuese el motivo, pondrían inmediatamente en marcha una operación paralela llamada “Juego Sucio”, que preveía inundar los medios de comunicación de todo el mundo con la información, aparentemente contrastada y llena de datos, de que Cuba había enviado interferencias electrónicas contra la nave, lo que habría provocado el accidente. Obviamente, algunos científicos habían asesorado a la agencia de espionaje sobre el modo de demostrar al mundo entero el sistema utilizado por los comunistas. Un sistema del que seguramente ni habrían oído hablar los cubanos, pero a éstos de nada servirían sus desmentidos frente a la poderosa campaña propagandística de Estados Unidos. En todo caso, Glenn, en lugar de morirse, concluyó su misión con éxito.

Otra acción más desestabilizadora consistía en que se produjera un furibundo ataque cubano a la
base estadounidense de Guantánamo, alquilada a Cuba desde principios del siglo XX. Como Castro no tenía ni siquiera la intención de que sus soldados respiraran a menos de cien metros de la base, el proyecto establecía que mercenarios cubanos contratados y adiestrados en Estados Unidos fueran lanzados en paracaídas, con el máximo secreto, lo más cerca posible de la base y atacaran –supuestamente- a los soldados allí destinados. Eso sí, cada pequeño detalle de la operación debía dar credibilidad a la historia. Los atacantes serían cubanos de nacimiento, aunque todos fueran anticastristas; vestirían los uniformes oficiales de los soldados de Castro; y en lugar de gritar cualquier palabra malsonante durante el ataque deberían repetir continuamente y con la mayor claridad posible sus vivas a Fidel y la revolución. Cuando fingieran asesinar a los soldados estadounidenses, debían hacerlo con unas altas dosis de sadismo antiyanqui. Al mismo tiempo, supuestos aviones y cañones cubanos deberían destrozar las instalaciones en Guantánamo. Cuantas más, mejor, Como el líder cubano no colaboraría en tan importante tarea, esta parte del trabajo la llevarían a cabo los propios marines destinados en la base, utilizando sus polvorines. El proyecto, claro está, no se llevó a cabo.

Otro de los planes alternativos para provocar tal horror en la opinión pública estadounidense que permitiera una intervención militar en Cuba era igual de cinematográfico, pero todavía más despiadado. Se trataba de dar una mayor dosis de realismo a la batalla supuesta, y no se escatimó el cuidado de los pequeños detalles. La inteligencia pensó en hundir uno de sus propios barcos, para lo cual el Grupo Especial Ampliado tenía decidido solicitar la colaboración de la Armada. No se les ocurrió otra cosa que pedirles que uno de sus buques hundiera en aguas próximas a Cuba a otro de sus barcos, simulando que era atacado por las fuerzas armadas cubanas, y que después procediera a salvar a los náufragos –supuestos, aunque nadie los iba a librar de un chapuzón-. El plan preveía incluso un efecto final demoledor: facilitar en poco tiempo a los medios de comunicación la lista de los fallecidos, aunque no se sabe qué clase de nombres pondrían y si estaban dispuestos a contratar plañideras para dar más realismo a los funerales. Una operación que recuerda mucho al hundimiento del Maine y la subsiguiente guerra con España para arrebatarle Cuba, Puerto Rico y Filipinas.

Otra acción que se les ocurrió para imputársela a Castro fue el derribo de un avión de pasajeros
por los Mig cubanos. A ser posible, el avión debería ser un charter procedente de Estados Unidos, con destino a Jamaica, Guatemala, Panamá o Venezuela. El avión de línea regular partiría de un aeropuerto estadounidense con pasajeros a bordo, lo que permitiría que centenares de personas ajenas al montaje aseguraran posteriormente a las cadenas de televisión haber visto a los pobres pasajeros fallecidos antes de embarcar. Después, durante el viaje, cambiaría su rumbo y sería sustituido por otro aparato, vacío y sin piloto. Desde el avión original se emitirían señales de alarma, para que fueran oportunamente grabadas, en las que el piloto contaría con los máximos detalles posibles el acoso de los Mig cubanos. Finalmente, un caza de la USAF derribaría el avión civil vacío. Eso sí, el ataque se produciría un día en que aviones cubanos estuvieran cerca de la zona para poder dar realismo al ataque y dirigir las acusaciones contra unos Mig concretos. La repercusión del “ataque” sería demoledora. Numerosos civiles estadounidenses habrían perdido la vida a manos de los hombres de Castro, que no habrían manifestado ningún escrúpulo en atacar un avión civil. Entre el pasaje irían muchos jóvenes estudiantes, para acrecentar la sensación de salvajismo de la “matanza”.

Otra de las ideas geniales de este grupo de alto rango, encargado de buscar pretextos para acabar con Castro, fue organizar la colocación de una potente bomba en Miami o incluso en
Washington contra los anticastristas. Se trataba de producir un atentado que causara muertos entre los disidentes de Fidel, pero que también acabaría con la vida de muchos estadounidenses, algo que no podía faltar en una farsa de este tipo para implicar sentimentalmente a la población y conseguir el apoyo a una guerra. El segundo acto de la opereta comenzaba con una policía actuando aceleradamente y con mucha diligencia, que en pocas horas detuviera a varios de los terroristas que, por supuesto, lo reconocerían todo: que trabajaban a las órdenes directas de Castro, que Castro personalmente les había dado un abrazo antes de partir a su arriesgada misión y que Castro ya les había impartido antes órdenes similares contra el pueblo estadounidense. Repitiendo las directrices de anteriores simulaciones, el papel de los medios de comunicación social sería fundamental: la CIA filtraría a periodistas amigos documentos “auténticamente falsificados” que probaban, sin ningún género de dudas, las implicaciones de los hombres de Castro en el atentado.

Más aparentemente altruista pero mucho más inhumana, sería la aplicación de otro de sus planes. Consistía en que un avión exactamente igual a los que utilizaban los cubanos, pintado con la enseña de la isla, bombardeara uno de los países vecinos de Cuba. La bomba, de fabricación rusa, como todas las que estaban en poder de los militares castristas, provocaría un número indeterminado de muertos –no supuestos, esta vez de verdad-. Estados Unidos, el país más solidario con la desgracia ajena, no tardaría en intervenir militarmente para castigar al malo.

Sin embargo, lo más alucinante de todo fueron los planes diseñados para asesinar a Castro. Si antes de la llegada de Kennedy a la presidencia, Estados Unidos había montado la “Operación 40”, cuyo fin era agrupar a asesinos profesionales contratados por la CIA para preparar atentados que acabarían con la vida del mandatario cubano, después el más exquisito de los sibaritismos presidió estas acciones criminales.

La CIA estudió el proyecto y llegó a una conclusión rotunda: los mejores asesinos eran los de la mafia, por lo que si llegaban a un acuerdo para acabar con la vida del dictador contaban con la ventaja de que el sagrado honor de los mafiosos garantizaría el secreto del encargo. Eso sin contar con que la mafia tenía suficientes motivos para querer asesinar voluntariamente a Castro, ya que la llegada del revolucionario había acabado con sus suculentos y prósperos negocios en la isla. Con mayor o menor conocimiento del presidente Kennedy, cuando todo el comité organizador de estos planes estuvo de acuerdo, le encargaron a John Roselli y a su jefe, Sam Giancana, que mataran a Castro a cambio de 150.000 dólares, una fortuna para la época. No tardaron en aceptar, pero como consideraron un honor segar la vida del cubano, no aceptaron recibir ni un duro por cumplir la misión.

En tres ocasiones los matones del clan mafioso intentaron sin éxito acabar con la vida del dictador. Con productos químicos que les facilitaron los agentes de la CIA, primero intentaron
sacar partido a uno de sus vicios más conocidos, el tabaco. Así, impregnaron uno de los puros que habitualmente fumaba –habanos, claro- de una sustancia derivada del LSD que le debía producir, en un primer momento, efectos hilarantes, hasta que finalmente perdiera la vida. Como no dio resultado, pensaron en hacerle llegar por alguna vía que no le fuera extraña un producto de aseo personal, que habría sido cuidadosamente elaborado en los laboratorios de “La Compañía”. En este caso, al contacto con la piel le produciría un ataque al corazón. Tras un nuevo fracaso, creyeron posible trucar una máquina de rayos X para que durante un examen médico le proyectara radiaciones especiales de alta intensidad, que le provocaran un cáncer sin solución. Tres ideas “estupendas”, tres fracasos morrocotudos.

El 19 de junio de 1975, el capo mafioso Sam Giancana fue citado para declarar por el Comité de Inteligencia del Congreso, donde debía explicar su participación en las conspiraciones de la CIA para acabar con Castro. Ese día, cuando salía de su casa de Illinois, fue asesinado a tiros por personas desconocidas.

Excepto los intentos de asesinato impulsados por la CIA, el presidente John F.Kennedy no aceptó ninguno de los proyectos propuestos en la operación “Mangosta” que él personalmente puso en funcionamiento con el deseo de terminar como fuera con el régimen castrista. Kennedy no emprendió acciones fantasma para justificar la invasión de Cuba, aunque cabe la posibilidad de que si no hubiera sido asesinado el 22 de noviembre de 1963, quizás se habría terminado embarcando en una guerra contra su odiado Fidel Castro.

Su sucesor, Lyndon B.Johnson, fue informado de la existencia de “Mangosta”, pero dio la orden de dar “carpetazo” al proyecto, dicen que para evitar un enfrentamiento con Rusia. Lo hizo sabiendo que una de las propuestas era bastante cara, pero absolutamente genial: lanzar sobre Cuba, desde un avión, billetes de ida gratis para que los cubanos huyeran de la isla. Eso sí, ningún billete debería tener como destino los Estados Unidos.
Leer Mas...

martes, 7 de diciembre de 2010

Las comidas más adictivas


¿Cuál es tu comida favorita? Ya sabes, la comida a la que la gente dice que eres un adicto. ¿Chocolate? ¿Patatas fritas? No está sólo en tu mente; algunas comidas son de verdad adictivas desde un punto de vista físico.

De hecho, los estudios muestran que algunos alimentos tienen un efecto narcótico sobre nuestros cerebros. Así que cuando a veces te pasas con la comida basura o la tarta de queso, recuerda que no es sólo que te falta voluntad para dejarlos de lado: es una reacción química.

¿Cuáles son las cinco comidas más adictivas? Es cuestión de opiniones, claro, pero la lista que indico a continuación podría ser bastante aproximada.

5: Chocolate

Hay una razón por la que tanta gente se denomina a sí misma "chocoadicto". Cuando lo comemos (así como otros alimentos dulces y con grasas animales), libera serotonina en nuestro cerebro. Esta sustancia afecta a las neuronas en cuanto al humor, el apetito, comportamiento social e incluso deseo sexual. Cuando comemos chocolate nos sentimos, en un sentido real, más felices y cuando carecemos de aquél lo echamos de menos.

Muchas mujeres sienten estas ansias por el chocolate de manera regular, con cadencia mensual, lo que sugiere la intervención de las hormonas. Otras personas recurren al chocolate y su "efecto felicidad" al sufrir episodios de desórdenes afectivos o pequeñas depresiones estacionales.


4: Azúcar

Se crea o no, la adicción al azúcar comienza en el momento del nacimiento. Piénsalo bien. La leche materna es muy dulce, así que incluso los bebés asocian el dulzor con la felicidad y la satisfacción.


¿Qué sucede cuando tomamos azúcar? Cuando ésta entra en la corriente sanguínea, los niveles de azúcar en sangre -obviamente- aumentan, lo que hace que el páncreas libere insulina. La insulina convierte el azúcar en energía -un "subidón de azúcar", podríamos decir-. Por desgracia, la insulina también favorece la producción y almacenamiento de grasa. Así que cuanta más azúcar comemos, más insulina producimos y más probable es que engordemos si no lo compensamos de alguna otra manera.

Que el azúcar tiene un componente adictivo parece demostrarlo un estudio de la Universidad de Princeton en el que ratas alimentadas primordialmente con azúcar sufrieron ansiedad cuando ésta fue retirada de sus dietas. Algunas de las ratas incluso experimentaron síntomas como castañeteo de dientes y temblores.

3: Queso

Pizza Cuatro Quesos, patatas fritas con queso, Cheeseburgers... mantenemos una relación de amor con el queso... y no es bueno.

Esto es algo que a lo mejor no sabes sobre el queso y que explicaría el por qué nos tiene atrapados: un estudio de 1981 encontró rastros de morfina en la leche de vaca. Sí, morfina, el opiáceo. Eran cantidades muy pequeñas, pero estaban ahí. Resulta que las vacas -y los humanos- podemos producir esa sustancia adictiva. Algunos investigadores creen que la razón de su presencia en la leche es la de fortalecer el lazo con su madre.

El otro ingrediente adictivo en el queso es la caseína, una proteína que, durante la digestión, libera sustancias denominadas casomorfinas, las cuales tienen también un efecto narcótico.


2: Bebidas con cafeína

Si eres un bebedor de café, probablemente no tendrás muchas dudas acerca de lo adictivo que
resulta la cafeína. Cuanto más ingieres al día, más probable será que sufras un "mono" si te ves privado de ella. Y no estamos hablando sólo de café, sino de otros productos que contienen cafeína: el té, bebidas energéticas, refrescos e incluso el chocolate.

Como la cafeína es un estimulante suave, te sientes con más energía tras haberla consumido. Pero si prescindes de tu "dósis" periódica, podrías sentirte decaído y con dolor de cabeza. Esto es porque, como ya vimos en una entrada anterior, la cafeína bloquea los receptores cerebrales que dilatan los vasos sanguíneos, causa de las migrañas.

Los médicos informan de que el "mono" puede comenzar 12 horas después de la última taza de café y durar hasta una semana.

1: Comida basura

En 2010, un estudio con ratas mostró que, teniendo acceso ilimitado a comida ba
sura, como bacon, golosinas o fritos, los animales ganaban peso con rapidez. Esto, en sí mismo, no es sorprendente. Lo interesante del experimento fue que las ratas se alimentaban de comida basura de forma compulsiva aun cuando recibían una descarga eléctrica en las patas si comían por encima de una determinada cantidad.

De hecho, algunos científicos afirman que el elevado contenido en grasa de la comida basura estimula los centros de placer del cerebro, disparando una respuesta no muy alejada de lo que sucede cuando se toma heroína u otras drogas. Otros expertos creen que se trata simplemente del "subidón de azúcar" y el posterior bajón lo que al final causa la adicción.

¿Conclusión final? La clave es la moderación. En relación a la comida que hemos comentado en esta entrada, disfrútala, pero sin pasarte.
Leer Mas...

viernes, 3 de diciembre de 2010

La mano invisible de la Economía


“La codicia es buena”, declaraba Gordon Gekko, el villano de “Wall Street”, el clásico de la década de 1980, para confirmar de un solo golpe los peores miedos de la sociedad bienpensante acerca de los financieros. En el despiadado mundo de Manhattan, la avaricia flagrante había dejado de ser algo de lo que avergonzarse, para convertirse en algo que podía lucirse con orgullo, como las camisas a rayas y los tirantes rojos.

Si esa declaración resultaba escandalosa en una película a finales del siglo XX, intente imaginar cómo habría sonado doscientos años antes, cuando la vida intelectual todavía estaba dominada por la Iglesia y definir al ser humano como un animal económico era casi blasfemo. Este ejercicio quizá le dé una noción del impacto que tuvo la revolucionaria idea de la “mano invisible” cuando Adam Smith la propuso originalmente en el siglo XVIII. Con todo, al igual que su descendiente cinematográfico, el libro de Smith fue un enorme éxito comercial, la primera edición se agotó con rapidez y desde entonces la obra ha sido considerada parte del canon.

Adam Smith (1723-1790), padre de la economía moderna, nació en Kirkcaldy, una pequeña ciudad escocesa donde nada presagiaba que fuera a convertirse en un pensador revolucionario. El primer economista era, como corresponde, un académico excéntrico que se tenía a sí mismo por un marginado y que ocasionalmente se lamentaba de su aspecto físico inusual y su falta de habilidades sociales. Como muchos de sus herederos actuales, Smith tenía su despacho en la Universidad de Glasgow repleto de documentos y libros apilados de forma caótica. De cuando en cuando se le veía hablando solo y era sonámbulo.

Smith acuñó la expresión “mano invisible” en su primer libro, “La teoría de los sentimientos
morales” (1759), que se ocupaba de la forma en que los seres humanos interactúan y se comunican y de la relación entre la rectitud moral y la búsqueda innata del propio interés que caracteriza al hombre. Después de dejar Glasgow para ser tutor del joven duque de Buccleuch, empezó a trabajar en la obra que más tarde se convertiría en, para citar su título completo, “Una investigación sobre la naturaleza y las causas de la riqueza de las naciones”.

A partir de entonces, Smith se convirtió en una especie de celebridad, y sus ideas no sólo influyeron en todas las figuras importantes de la historia de la Economía, sino que también contribuyeron a impulsar la Revolución Industrial y la primera ola de la globalización, que terminó con la Primera Guerra Mundial. En los últimos treinta años, Smith ha vuelto a convertirse en un héroe, y sus ideas acerca de los mercados libres, la libertad de comercio y la división del trabajo son auténticos puntales del pensamiento económico moderno.

¿Y qué es la “mano invisible”? Se trata de una forma de referirse a la ley de la oferta y la demanda y explica cómo el tira y afloja de estos dos factores sirve para beneficiar a toda la sociedad. La idea básica es la siguiente: no hay nada malo en que la gente actúe por propio interés. En un mercado libre, las fuerzas combinadas de todos los actores que buscan promover sus intereses individuales benefician a la sociedad en su conjunto y enriquecen a todos sus miembros.

En su obra “La riqueza de las naciones”, Smith únicamente utiliza la expresión en tres ocasiones, pero un pasaje clave subraya su importancia:

“Ningún individuo pretende promover el interés público, ni sabe en qué medida lo promueve (…). Al dirigir su industria de tal manera que su producción tenga el mayor valor posible, busca sólo su beneficio personal, y en esto, como en muchas otras circunstancias, le conduce una mano invisible para promover un fin que no formaba parte de sus intenciones (…). Al buscar su propio interés, con frecuencia promueve el de la sociedad de forma más eficaz que cuando se propone hacerlo de modo consciente. Nunca he visto hacer tanto bien a quienes dicen dedicarse al bien público”.

La idea contribuye a explicar por qué los mercados libres han sido tan importantes en el desarrollo de las complejas sociedades modernas.

Pensemos, por ejemplo, en el caso de un famoso inventor, Thomas Edison, a quien se le ha
ocurrido una idea para un nuevo tipo de bombilla que es más eficiente, más duradera y más brillante que el resto. Edison lo ha hecho para satisfacer su propio interés, con la esperanza de hacerse rico y famoso. La consecuencia de ello será el beneficio de la sociedad en su conjunto: se crearán puestos de trabajo para los encargados de fabricar las bombillas y se mejorará la vida (y los cuartos de estar) de quienes las compren. Si no existiera demanda para las bombillas, nadie las compraría, y la mano invisible le habría dado un correctivo severo a Edison por haber cometido semejante error.

De forma similar, una vez que Edison ha montado su negocio, es posible que al verle enriquecerse otros intenten superarle diseñando bombillas más brillantes y mejores y consigan también hacerse ricos. Sin embargo, la mano invisible nunca duerme, y Edison responde a sus competidores bajando el precio de sus bombillas para garantizar que sus ventas sigan siendo mayores que las de los demás. Los consumidores, encantados, se benefician de bombillas cada vez más baratas.

En cada etapa del proceso, Edison actuará de acuerdo con sus propios intereses, no en pos de los intereses de la sociedad, pero el resultado, aunque vaya contra nuestra intuición, es el beneficio de todos. En cierto sentido, la teoría de la mano invisible tiene cierta semejanza con la idea matemática de que la multiplicación de dos cantidades negativas da como resultado una cifra positiva. Cuando sólo una persona actúa por propio interés y el resto lo hace por altruismo, la sociedad no se beneficia en absoluto.

Un ejemplo interesante es el de Coca-Cola, que en la década de 1980 cambió la receta de su bebida gaseosa en un esfuerzo por atraer a consumidores más jóvenes y a la moda. Sin embargo, la nueva Coca-Cola fue un completo desastre: el cambio no fue del gusto del público y las ventas se desplomaron. El mensaje de la mano invisible fue claro y después de unos cuantos meses la compañía, con los beneficios por los suelos, retiró la nueva bebida. La Coca-Cola “clásica” volvió, y los consumidores lo celebraron (al igual que los directivos de Coca-Cola, cuyos beneficios se recuperaron).

Smith reconocía que había circunstancias en las que la teoría de la mano invisible no funcionaba. Una de ellas es la existencia de barreras a la competencia, que puede derivar en oligopolios o monopolios. Otra es el dilema que usualmente se conoce como la “tragedia de los bienes comunes”. El problema es que cuando sólo existe una cantidad limitada de un recurso particular, por ejemplo pastos en una tierra comunal, quienes lo explotan lo hacen en detrimento de sus vecinos. Éste es un argumento que se ha empleado con mucha fuerza en la lucha contra el cambio climático.

A pesar de que en las últimas décadas la idea de la mano invisible ha sido secuestrada por políticos de derechas, la noción no representa necesariamente una posición política particular. Se trata de una teoría económica positiva, aunque, eso sí, socava de forma muy seria las pretensiones de quienes piensan que la economía puede dirigirse mejor desde arriba, con los gobiernos decidiendo lo que debe producirse.

La mano invisible subraya el hecho de que son los individuos (más que los gobiernos y los
administradores) los que deben decidir qué producir y qué consumir, pero hay varias condiciones importantes. Smith fue bastante cuidadoso y distinguió entre el interés propio y la pura codicia egoísta. Es una cuestión de interés propio tener un marco de leyes y regulaciones que nos protejan, como consumidores, de un trato injusto. Esto incluye los derechos de propiedad, la defensa de las patentes y los derechos de autor y las leyes de protección laboral. La mano invisible debe tener el respaldo de un Estado democrático.

Es en esto que se equivoca Gordon Gekko. Alguien impulsado exclusivamente por la codicia podría optar por burlar la ley en su intento de enriquecerse a costa de los demás. Adam Smith nunca hubiera aprobado semejante conducta.
Leer Mas...

jueves, 25 de noviembre de 2010

Historia de la máquina de coser: punzadas mecánicas


El primer modelo de máquina de coser de que se tiene noticia es el que patentó el alemán C.F.Wisenthan en 1775, basado en el uso de una aguja con dos puntas y de ojo central. Otro prototipo fue desarrollado por el tejedor alemán Baltarsar Krems en 1786, un ingenio que realizaba de forma mecánica el punto de cadeneta.

En 1790, el ebanista londinense Thomas Saint obtuvo la primera patente de la historia de una máquina que hacía puntadas de cadeneta de un único hilo. A pesar de que Saint nunca llegó a construir un modelo verdaderamente práctico, a partir de su invención, tras sucesivas modificaciones y mejoras, la máquina de coser empezó a hacerse popular. Así, el modesto sastre francés Barthélémy Thimonnier (1793-1857) pudo desarrollar en 1830 una máquina de coser que ya daba 300 puntadas por minuto.

En cualquier caso, la máquina de coser moderna deriva directamente de la ideada en septiembre de 1846 por el mecánico estadounidense Elias Howe (1819-1867), de Boston, que incorporaba una pequeña lanzadera que trabajaba en conexión con la aguja, lo que permitía que una sola costurera produjese como cinco trabajando a destajo a razón de 250 puntadas por minuto. Veinte años más tarde, el rendimiento personal ya se había multiplicado por doce. En la actualidad, las máquinas superan las 7.500 puntadas por minuto.

Pero fue el también bostoniano Isaac Merrit Singer (1811-1875) quien dos años después dio los últimos retoques a la máquina de coser moderna, al incluir un pie con muelles que presiona la tela en la mesa de la máquina, mientras una rueda dentada hace que el tejido avance tras cada puntada vertical, y al añadir la mesilla para sostener la tela. La velocidad de marcha hacia delante de la tela se modifica automáticamente dependiendo de la longitud de la puntada escogida.
Leer Mas...

lunes, 22 de noviembre de 2010

¿A qué velocidad se mueve la Tierra?


Las preguntas sobre a qué velocidad se mueve la Tierra (o cualquier otra cosa) son incompletas a menos que se añada en relación con qué. Sin un sistema de referencia, los interrogantes sobre movimiento no se pueden responder de manera completa.

Consideremos el movimiento de la superficie de la Tierra respecto del centro del planeta. La Tierra completa una rotación cada 23 horas, 56 minutos y 4,09053 segundos, y tiene una circunferencia e 40.075 km. Por tanto, la superficie de la Tierra en el ecuador se mueve a una velocidad de 460 metros por segundo (unos 1.700 km por hora).


En la infancia aprendimos que la Tierra gira alrededor del Sol en una órbita casi circular. Cubre ese recorrido a una velocidad de casi 30 kilómetros por segundo (más de 100.000 km por hora). Además, el Sistema Solar (incluida la Tierra y todo lo que contiene) orbita alrededor del centro de la Galaxia a unos 220 km por segundo (800.000 km por hora). A medida que se consideran escalas espaciales mayores, las velocidades implicadas se tornan absolutamente colosales.

Las galaxias
de nuestros alrededores también se precipitan a una velocidad de casi 1.000 km por segundo hacia una estructura llamada el Gran Atractor, una región del espacio que dista de nosotros unos 150 millones de años-luz (un año-luz equivale a 10 billones de kilómetros). Este Gran Atractor, con una masa de 100.000 billones de veces la del Sol y una extensión de 500 millones de años-luz, está compuesto tanto por masa visible que se puede observar como por la denominada materia oscura, que no se ve.

Cada uno de los movimientos recién descritos se menciona en relación con alguna estructura. Nuestro desplazamiento alrededor del Sol está en relación con el Sol, mientras que el desplazamiento del grupo local de galaxias se da en relación con el Gran Atractor. De ello surge el interrrogante: ¿existe algún marco de referencia que permita definir en relación con él el movimiento de todas las cosas? La respuesta pudo haberla dado el satélite COBE (Cosmic Background Explorer, “Explorador del Fondo Cósmico”)

En 1989 se
situó el satélite COBE en órbita alrededor de la Tierra (¡la Tierra vuelve a ser el punto de referencia!) para medir el debilitadísimo eco de radiación que dejó el nacimiento del Universo. Esta radiación, la que queda de aquella bola de fuego primordial con una temperatura y densidad inmensas que fue el universo temprano, se conoce como radiación cósmica de fondo de microondas (RCF). Esta RCF, que en la actualidad se extiende por todo el espacio, es el equivalente al rescoldo del fuego cósmico inicial.

Uno de los descubrimientos del COBE fue que la Tierra se mueve con respecto a este RCF a una velocidad y en una dirección bien definidas. Como la RCF impregna todo el espacio, al fin podemos resp
onder por completo la pregunta inicial si se toma como referencia este fondo de radiación.

La Tierra se mueve con respecto a la RCF a una velocidad de 390 km/s. Asimismo, podemos especificar la dirección en relación con la RCF. Pero es más divertido alzar la mirada al firmamento n
octurno y buscar la constelación de Leo. La Tierra se desplaza hacia Leo a la vertiginosa velocidad de 390 km/s. ¡Por suerte no chocaremos contra nada ahí fuera durante el intervalo temporal de nuestras vidas!
Leer Mas...

miércoles, 17 de noviembre de 2010

¿Es cierto que la piel adelgaza si nos lavamos demasiado?


Si un niño se “lava como los gatos”, los padres le hacen rápidamente una pregunta: ¿Tienes miedo de que se te vaya a gastar la piel? Realmente, ese peligro no existe.

La piel, el mayor órgano del cuerpo humano, renueva constantemente sus células, que se forman en los estratos dérmicos inferiores y se van desplazando hacia arriba, pero no se hace más delgada. Las células viejas mueren y se desprenden en forma de escamas cutáneas (por ejemplo, la caspa de la cabeza). Durante el lavado, al frotar con una esponja áspera se desprenden algunas partículas que sin ese efecto mecánico permanecerían adheridas aunque, al estar muertas, antes o después caerían por sí solas. La esponja o la manopla de baño no se llevan ninguna célula que esté viva y firmemente pegada al organismo.

Está claro que un frotamiento frecuente e intensivo y la utilización de grandes cantidades de productos para la limpieza cutánea atacan a la piel. Se perturba el revestimiento protector contra los elementos ácidos que, en el peor de los casos, llega a ser destruido. Esa capa mantiene el presupuesto de humedad cutánea y protege frente a intrusiones dañinas. Si la protección deja de funcionar, la piel se seca, se hace permeable y es más propensa a inflamaciones y eccemas.
Leer Mas...

sábado, 13 de noviembre de 2010

James McNeill Whistler


Nacido en Lowell, Massachussets, en 1834, Whistler pasó parte de su infancia en San Petersburgo, Rusia. Vivió en Europa occidental a partir de 1855, sobre todo en Inglaterra, pero con temporadas en Francia, donde, como muchos impresionistas, trabajó en el estudio de Charles Gleyre. Su influencia más importante, sin embargo, fue el encuentro con el pintor realista Gustave Courbet y los artistas de su entorno, Edouard Manet y Edgar Degas.

Más tarde, en Inglaterra, Whistler fue alejándose del realismo. Estaba especialmente interesado en el arte japonés, una moda que alcanzó bastante impacto en Europa desde 1860. Uno de los puntos más relevantes de este periodo de su carrera es la pintura “Variaciones en Violeta y Verde” (Variations in Violet and Green), en la que demostraba una nueva técnica paisajística desarrollada bajo la influencia de la estética del Lejano Oriente. En muchos de sus trabajos, reducía el paisaje a panoramas casi vacíos, acercándose por tanto a la representación abstracta. Esto convirtió a Whistler en un modelo importante a seguir por el arte de la estampación británica, a la que contribuyó a revitalizar en la segunda mitad del siglo XIX.

Whistler también se labró una reputación como retratista; uno de sus trabajos más conocidos en este aspecto es “Arrangement in Gray and Black: Portrait of the Artist´s Mother”. A finales de la década de los setenta del siglo XIX realizó una serie de vistas nocturnas conocidas precisamente como “Nocturnes”, en las que se incluían numerosas vistas sobre el Támesis en coloración monocromática. El tema de estos cuadros recuerda la preferencia impresionista por paisajes urbanos y acuáticos, pero a diferencia de aquellos aristas, Whistler estaba más preocupado por la armonía y estética del color.

En los Nocturnos, intentó plasmar música en la pintura. Con el fin de enfatizar las funciones puramente estéticas de sus cuadros, había comenzado a dar a sus trabajos designaciones musicales, como “sinfonía” o “armonía”. El nexo entre pintura y música tuvo su predicamento en artistas posteriores. Otro de sus trabajos importantes fue el diseño para la Habitación Peacock en la mansión privada londinense del coleccionista Frederick Richards Leyland, considerado un precursor del Art Nouveau.

Whistler tuvo también episodios desgraciados en su vida, algunos de ellos derivados de su vena combativa: en 1878 demandó al crítico John Ruskin por libelo y aunque ganó el caso, los gastos del mismo lo condujeron derecho a la bancarrota. En 1879 hubo de vender sus propiedades londinenses y marchar a Venecia. Tras cerrar su estudio en París en 1901, moriría el 17 de julio de 1903 en Londres.
Leer Mas...

jueves, 11 de noviembre de 2010

¿Cómo se convierte alguien en santo?


Muchas religiones del mundo otorgan una posición especial a aquellos de sus fieles que han demostrado llevar una vida de virtud casi perfecta. En el caso de la Iglesia Católica, estas personas reciben el nombre de santos.

El proceso por medio del cual alguien se convierte en santo se denomina "canonización". La iglesia católica ha canonizado a unas 3.000 personas -el número exacto se desconoce porque no todos los santos reconocidos como tales fueron oficialmente canonizados. De acuerdo con la Iglesia, el papa no es quien asciende a alguien a la santidad (en realidad, sólo reconoce algo que Dios ya ha hecho). Durante siglos, los santos eran elegidos por la opinión popular. En el siglo X, el Papa Juan XV desarrolló un proceso oficial de canonización.

La canonización ha ido revisándose en los últimos 1.000 años, la última vez por el Papa Juan Pablo II en 1983. Éste, que canonizó a 300 personas, hizo varios cambios metodológicos, incluyendo la eliminación del "abogado del diablo", la persona nombrada para contestar la evidencia aportada en favor del aspirante a santo.

El proceso de canonización es largo, a menudo prolongándose durante décadas o incluso siglos. En los últimos años la prensa ha ido ocupándose más de estos asuntos a raíz del movimiento popular a favor de convertir a la Madre Teresa en santa.

Poco después de su muerte en 1997, los seguidores de la Madre Teresa comenzaron a presionar al Vaticano para anular la regla que impide comenzar el proceso de canonización hasta que no hayan pasado cinco años desde el fallecimiento del candidato. El sentido de esta norma es que el paso del tiempo favorece la adopción de una visión más objetiva de la vida y logros de una persona y deja que la emoción del momento se disipe. En 1999, el papa accedió a saltarse la regla, permitiendo que comenzara el proceso de canonización.

Los pasos que han de seguirse en dicho proceso, de acuerdo con el 'Divinus Perfectionis Magister,' promulgado por Juan Pablo II el 25 de enero de 1983 son los siguientes.

1- Como ya hemos dicho, es necesario un intervalo de cinco años a partir de la muerte del candidato.

2- El obispo de la diocésis de la persona cuya beatificación se ha solicitado por parte de la propia diócesis, una parroquia, congregación o asociación religiosa, comienza la investigación de la vida y escritos del candidato, entrevistando a testigos y buscando evidencias de una virtud más allá de lo considerado normal. Esta información se envía al Vaticano y el candidato recibe el título de "Siervo de Dios"

3- En el Vaticano, las actas y la documentación son examinados y evaluados por la Congregación para la Causa de los Santos. Se elabora un sumario con toda la información (conocida como "Positio"), que es revisada por nueve teólogos. Si la mayoría de ellos están a favor, la causa es examinada por los cardenales y obispos que también forman parte de la Congregación, que se reúnen dos veces al mes. Si su veredicto es favorable, el papa proclama públicamente que el candidato es "venerable", esto es, un modelo de virtud católica.

4- El siguiente paso hacia la santidad es la beatificación, lo que permite que esa persona sea honrada de manera especial por un grupo de personas o región geográfica particulares. Para beatificar a alguien, se debe demostrar -a través de la adecuada investigación canónica- que ha realizado un milagro tras su muerte. Los mártires -aquellos que murieron por sus creencias- pueden ser beatificados sin necesidad de milagros. El beato recibe el título de "Bendito". Siguiendo con el caso de la Madre Teresa, fue beatificada el 20 de octubre de 2003.

5- Para que el beato sea considerado un santo debe probarse su intercesión en un segundo milagro póstumo. La canonización se entiende como la autorización para que ese santo sea venerado por toda la Iglesia. En todo ello interviene oficialmente la infalibilidad pontificia.

La hermana Teresa Benedicta de la Cruz fue canonizada en 1997 después de que el Vaticano verificara que una joven que tomó siete veces una dosis letal de Tylenol, se curase repentinamente. Su familia afirmó que había rezado a la Hermana Teresa por su intercesión. Sus devotos más acérrimos afirman que existen al menos dos milagros más: una mujer francesa se rompió varias costillas en un accidente de tráfico en los Estados Unido cuyas heridas se curaron gracias a que llevaba un medallón de la Madre Teresa; y una aparición en sueños a una niña palestina, comunicándole que su cáncer estaba curado.

Una vez que una persona se convierte en santo y es ofrecida a toda la Iglesia para su veneración, puede ser seleccionada como santo patrón, protector especial de alguna ocupación concreta, una iglesia, país o causa. Por ejemplo, el papa trabaja con la idea de nombrar un patrón de los usuarios de Internet y programadores. Aunque hay varios aspirantes, el que lleva la delantera es Isidoro de Sevilla, autor de la primera enciclopedia.

Leer Mas...

domingo, 31 de octubre de 2010

1789-"Que coman pasteles"


No, la frase no la dijo Maria Antonieta

La historia, tal y como es popularmente conocida, es la siguiente. En 1789 la Revolución Francesa está a las puertas. Cuando le comunican que el pueblo de París se levanta porque no tiene pan, la reina Maria Antonieta, indiferente al sufrimiento de los pobres e intentando hacer una gracia –o simplemente diciendo una estupidez- suelta su famosa sugerencia: “Que coman pasteles”.

El primer problema es que no dijo “pasteles”. La frase fue “Qu’ils mangent de la brioche”. El “brioche” del siglo XVIII era un simple pan enriquecido con huevos o mantequilla. Así que es posible que lo que intentara María Antonieta fuera ser amable queriendo decir algo como “Si quieren pan, dadles uno que sea bueno”.

Excepto que María Antonieta no lo dijo. La frase había sido una especie de cliché para atacar la decadencia aristocrática utilizado ya al menos en 1760. Jean-Jacques Rousseau afirmó que lo había oído en 1740 y referido a una reina anterior, María Teresa de Austria (esposa de Luis XIV); la frase original era “S'il ait aucun pain, donnez-leur la croûte au loin du pâté” ("Si no tienen pan, que les den el hojaldre en lugar del paté"). Pero también es posible que esta frase fuera inventada por los enemigos de la monarquía con fines meramente propagandísticos.

Y, por cierto, hay otra historia que atribuye a María Antonieta el mérito de haber introducido los croissants en Francia desde su Viena nativa. Esto parece muy improbable por cuanto la primera referencia que se tiene en Francia a un croissant no aparece hasta 1853.
Leer Mas...

sábado, 30 de octubre de 2010

Terrorismo nuclear (2ª parte)


Mucha gente piensa que las bombas sucias son una opción más viable para los terroristas. Puede que sí, pero su fracaso es igual de probable.

Las bombas radiológicas –nombre técnico de las bombas sucias- no requieren una explosión nuclear como las armas de fisión o fusión, sino que usan explosivos normales para diseminar material radiactivo. Se dice que Sadam Husein probó una de estas bombas en 1987 y que viendo lo mal que funcionaba desistió de fabricarlas. En 1995, unos rebeldes chechenios enterraron una carga de dinamita y una pequeña cantidad del isótopo radiactivo cesio 137 en el parque Ismailovski de Moscú, y acto seguido avisaron a una cadena de televisión de su ubicación exacta. Puede que los terroristas tuviesen presente un hecho probado, a saber: que el valor periodístico de la bomba sería mayor si se descubriese antes de estallar. El impacto psicológico de estas armas puede ser mayor que los daños puntuales que probablemente causen.

José Padilla, un antiguo matón callejero que recibió un amplio adiestramiento de Al Qaeda, tenía la intención de hacer estallar una bomba sucia en Estados Unidos. Según unas declaraciones del Ministerio de Justicia estadounidense hechas en 2004, Al Qaeda dudó de que la propuesta de Padilla de construir una bomba sucia fuese viable y, en lugar de eso, le ordenó que volase dos bloques de pisos con gas natural. Al parecer, la organización terrorista consideró que esta acción tendría más probabilidades de sembrar la muerte y la destrucción que una bomba radiológica. Desde el punto de vista de la física, Al Qaeda tenía razón, lo cual tal vez debería asustar al lector. La organización terrorista parece tener más claras las limitaciones de estos artefactos que muchos jefes de gobierno, periodistas e, incluso, científicos.

No estoy diciendo que los materiales radiactivos sean inocuos. De hecho, quiero recordar el caso de los chatarreros del estado brasileño de Goiania que, en 1987, encontraron una máquina de radioterapia abandonada y la desmontaron. La máquina contenía 1.400 curios de cesio 137 (un curio es la radiactividad que genera un gramo de radio). Dos hombres, una mujer y una niña murieron de intoxicación radiactiva aguda y otras 250 se vieron afectadas por la contaminación. Varias de las 41 casas evacuadas no pudieron limpiarse adecuadamente y fueron demolidas.

Imaginemos que esa radiación no se limitase a unas pocas casas sino que una explosión la propagase por toda la ciudad. ¿No habría más víctimas mortales? La respuesta, por increíble que parezca, es que no. Si la radiactividad se propagase de esa manera, habría que evacuar un área mayor, pero, con toda probabilidad, no se producirían muertes atribuibles al suceso.

Para entender bien los detalles, analicemos paso a paso el diseño de una bomba sucia similar a la que pretendía construir Padilla. Supongamos una cantidad de material radiactivo igual que la que provocó el accidente de Goiania, esto es, 1.400 curios de cesio 137. Los efectos radiológicos de la radiación se cuantifican con una unidad denominada rem; todo aquél que permanezca a un metro de distancia de esa cantidad de cesio, absorberá 450 rem en menos de una hora. Esta dosis de radiación es superior en un 50% a la DL50 –siglas de Dosis Letal 50%- del cesio 137, lo que significa que, sin tratamiento médico, los expuestos a la radiación nuclear tendrán más de un 50% de probabilidades de morir durante los próximos meses.

Con el fin de maximizar el daño, vamos a usar explosivos para propagar nuestros 1.400 curios por una zona más extensa, por ejemplo, 2,5 km2 de vecindario. El resultado será una radiactividad de 0.5 milicurios por metro cuadrado; según un cálculo minucioso, quienes se hallen en la zona, al cabo de una hora habrán absorbido 0.005 rem, es decir, cinco milirem. Se trata de una cantidad minúscula, muy por debajo del umbral de riesgo para la salud -100 rem-, luego nadie caerá enfermo. Aun en el caso de que alguien permaneciese en la zona, la dosis absorbida al cabo de un mes sería de apenas 4 rem, una cifra todavía muy por debajo del umbral de riesgo. A menos que alguien resulte muerto por la explosión propiamente dicha, no habrá un solo cadáver. Me figuro que ésta es la razón por la que Al Qaeda ordenó a José Padilla que se dejase de bombas sucias y planease un atentado con gas natural. De acuerdo, los niveles bajos de radiactividad pueden ser cancerígenos, pero para eso han de pasar varios años. Me temo que Al Qaeda no se contenta con alardear del número de cánceres prematuros que provocaría con su atentado, sino que necesita que sus adeptos vean fotos de cadáveres.

Aun así, analicemos la cuestión del riesgo de cáncer. En el caso de dosis moderadas, los resultados de la exposición a emisiones radiactivas a lo largo de la historia indican que el aumento del riesgo de cáncer es, más o menos, de un 0.04% por rem. Si multiplicamos 4 por 0.04% obtenemos un peligro de cáncer de un 0.16%. Si redondeamos la tasa de cáncer por “causas naturales” en Estados Unidos hasta fijarla en un 20% exacto, vivir durante un año en la zona afectada por la bomba sucia aumentaría las probabilidades de morir de cáncer hasta un 20.16%. Es un dato adverso, ¿pero tanto como para evacuar nuestros hogares? (Doy por hecho que los restos de radiactividad podrían haberse limpiado al cabo de un año).

Naturalmente, si la radiactividad está más concentrada, el peligro es mayor… sólo que para menos personas. La radiactividad es más intensa antes de estallar la bomba, lo cual representa un grave riesgo para los terroristas, que tendrán que montarla y detonarla antes de que acabe con ellos. Los rayos gamma energéticos son difíciles de bloquear, luego probablemente habría que montar la bomba bajo una coraza de varias toneladas de plomo. Si los terroristas decidiesen transportarla sin esta protección, tendrían que hacerlo rápido, antes de caer víctimas de la radiación. No es una tarea fácil.

En los atentados del 11-S, los terroristas se aprovecharon de la política estadounidense y de sus prejuicios. Sabían que no necesitaban armas para hacerse con el control de los aviones porque los pilotos tenían instrucciones de cooperar con los secuestradores, una política basada en que hasta entonces nadie había imaginado que los secuestradores fuesen a convertir aviones comerciales en bombas. Del mismo modo, hoy día un terrorista podría utilizar un arma radiológica, no por su capacidad destructiva propiamente dicha, sino por el pánico desmedido y los consiguientes trastornos económicos que a buen seguro provocaría. Si se produce un atentado radiológico, será responsabilidad del gobernante de turno convencer a la opinión pública de que modere su reacción, pero para eso hace falta que conozca los aspectos físicos del problema. Si el que hace todas las declaraciones tranquilizadoras es el asesor presidencial en cuestiones científicas, los ciudadanos no quedarán satisfechos.

¿Podrían llevarse a cabo ataques radiológicos más potentes que nuestro ejemplo hipotético del cesio 137? Los generadores eléctricos alimentados por desintegración de radioisótopos, como los que quedan en algunos radiofaros rusos abandonados en las antiguas repúblicas soviéticas, contenían 400.000 curios de estroncio 90. Sin embargo, este elemento no emite prácticamente rayos gamma; más que nada, resulta tóxico por vía oral o respiratoria. Una nube de estroncio 90 emitida en forma de aerosol puede ser mortífera, pero enseguida se asienta y no dura mucho en el aire. Basta con no ingerir los alimentos sobre los que se haya asentado, ni comer animales que pazcan la hierba sobre la que haya caído, ni beber la leche que produzcan.

Por el mismo motivo, ni siquiera una bomba radiológica hecha de plutonio representa un peligro probable. El ántrax sería más mortífero y mucho más fácil de obtener y transportar. Las plantas de almacenamiento de residuos radiactivos y los reactores nucleares contienen mucha más radiactividad, y si ésta se lograse transportar, liberar y propagar, el peligro sería considerable. Ahora bien, todas las bombas sucias plantean el mismo problema: antes de estallar, una intensa radiactividad que puede matar a los terroristas, y después de estallar, una radiactividad atenuada que no llega a suponer un riesgo para la salud, a menos que la zona atacada sea muy reducida.

Si la amenaza de las bombas sucias es tan limitada, ¿por qué se las mete en el mismo saco que a las armas de destrucción masiva? Pues porque lo dice la ley en Estados Unidos, tal como aparece redactada en la Ley de Defensa Nacional de 1997 y en otros lugares, como por ejemplo la sección 11417 del código penal de California. Esta clasificación constituye un error, puesto que, en el caso de que alguien usase esas armas, podría dar lugar a una mala asignación de recursos y a una reacción desmedida por parte de los ciudadanos.

El mayor peligro de las armas radiológicas es el pánico desproporcionado y la reacción exagerada que provocarían. Una bomba sucia no es, en realidad, un arma de destrucción masiva, pero puede llegar a ser un arma de conmoción masiva.

En muchos sentidos, la verdadera amenaza no la representan las armas nucleares que puedan fabricar los terroristas, sino las que fabrican los llamados “estados delincuentes”. El término es impreciso y mucha gente lo desaprueba -¿Es Israel un Estado delincuente? ¿Y la India?-, pero es un concepto útil, y desde luego, un gobernante lo oirá a menudo, pues suele aplicarse a países relativamente subdesarrollados que violan el Tratado de No Proliferación Nuclear y fabrican armas nucleares de manera encubierta. Hay varios ejemplos destacados: Irak antes de la primera invasión estadounidense; Corea del Norte en los últimos años; Irán en la actualidad. Un Estado delincuente puede negar que esté fabricando un arma, o declarar que su desarrollo tecnológico persigue objetivos exclusivamente pacíficos –con lo cual el Tratado de No Proliferación no le atañe- para, finalmente, una vez probada el arma, argumentar que tenía derecho a fabricarla porque su seguridad nacional se veía amenazada.

Desde el punto de vista de la física, los conocimientos que debe poseer un gobernante acerca de este tema tienen que ver, en gran medida, con los indicios que sus servicios secretos podrían detectar. La principal preocupación es que un Estado delincuente fabrique armas nucleares “pequeñas”, como las que utilizó Estados Unidos en 1945 para destruir Hiroshima y Nagasaki. Mientras no haya dado el paso previo de construir una bomba de uranio o de plutonio, no hay que preocuparse de que puedan construir una bomba termonuclear, pero podrían usar las primeras en una guerra, o suministrárselas a otros, por ejemplo, a terroristas. Estos dos tipos de armas de fisión –bombas de uranio y bombas de plutonio- requieren tecnologías bastante diferentes. Veamos cuáles son los principales indicios a los que hay que estar atento en ambos casos.

a) Bombas de uranio

El diseño de una bomba de uranio es simple; el problema es cómo obtener uranio 235 enriquecido. Hoy día este problema se resuelve mediante la llamada centrifugadora de gas, de la que hablaremos en una futura entrada. En la actualidad, Irán reconoce estar desarrollando un sistema de centrifugación de gas, aunque asegura que su única finalidad es el enriquecimiento parcial necesario para un reactor nuclear de uranio. Uno de los materiales principales que utilizan las centrifugadoras modernas es el denominado “acero maragin”. La importación de tubos de acero que llevó a cabo Irak justo antes de la segunda invasión estadounidense era un indicio de que podrían estar intentando aplicar el método de centrifugación. En 1990, el Gobierno de Bagdad ya había probado a enriquecer uranio por otro sistema, a saber: construyendo los llamados calutrones –unos dispositivos que describiré en otra entrada de este blog- los mismos que inventó Estados Unidos para enriquecer uranio durante la Segunda Guerra Mundial.

Unas pistas que pueden servir de alerta para detectar la fabricación encubierta de bombas de uranio son los componentes de las máquinas centrifugadoras –cojinetes especiales necesarios para suspenderlas a altas velocidades, o acero maraging para evitar que la centrifugadora se desintegre al girar-, aunque tampoco hay que olvidarse de sistemas de separación de uranio más toscos pero más fáciles, como los calutrones.

b) Bombas de plutonio

El plutonio es relativamente fácil de obtener: hoy día son muchos los países que cuentan con reactores nucleares, unos aparatos donde un tipo de uranio tan abundante como el U-238 se transforma gradualmente en plutonio. El Tratado de No Proliferación Nuclear especifica que los países que lo ratifiquen no podrán extraer ese plutonio de los residuos del reactor, una operación denominada “reprocesamiento del combustible”.

Con el fin de impedir el reprocesamiento subrepticio, la Agencia Internacional de la Energía Atómica lleva a cabo inspecciones de centrales nucleares. Cuando Corea del Norte se negó a permitir una de esas inspecciones, cundió el miedo de que hubiese empezado a reprocesar. De hecho, había empezado: así se lo notificó el propio Gobierno norcoreano a Jim Kelly, asistente de la Secretaría de Estado estadounidense, el 15 de octubre de 2002. Michael May, experto estadounidense en armas nucleares, viajó al país asiático para confirmar el reprocesamiento. May pidió que le dieran una muestra de la sustancia y la cogió con la mano a sabiendas de que las partículas alfa que emitía no suponían ningún peligro, toda vez que no podían penetrar las capas muertas de su epidermis. El experto evaluó el peso y la temperatura del material extraído de los residuos radiactivos. Los indicios eran fidedignos, pues evidentemente los norcoreanos no se esperaban que fuese a manipular la sustancia sin protección. Al término de sus observaciones, May concluyó que el plutonio era verdadero.

Para un Estado delincuente dotado de reactores nucleares, obtener el plutonio es la parte fácil. Una bomba de plutonio requiere una implosión cuidadosamente ajustada, algo muy difícil de conseguir. Para lograrla no sólo hacen falta cargas explosivas de fina factura y una detonación simultánea, sino también un amplio programa de pruebas, y aunque éstas sean satisfactorias, no hay ninguna garantía de que, llegado el momento, la bomba funcione correctamente. El 9 de octubre de 2006, Corea del Norte anunció que había probado con éxito un artefacto nuclear, pero cuando los expertos analizaron las señales sísmicas provocadas por el estallido concluyeron que la potencia había sido tan baja –menos de un kilotón- que sin duda se trató de una explosión fallida, probablemente debido a la implosión incompleta de un núcleo de plutonio.

Las pistas que pueden servir de alertas para detectar la fabricación encubierta de bombas de plutonio son los materiales extraídos clandestinamente de un reactor nuclear, las plantas de reprocesamiento químico diseñadas para manejar material sumamente radiactivo, y los programas de pruebas de implosión.
Leer Mas...