span.fullpost {display:none;} span.fullpost {display:inline;} saber si ocupa lugar: diciembre 2013

miércoles, 25 de diciembre de 2013

Inteligencia Artificial - ¿Piensan los ordenadores?




La creación de una máquina pensante, operante y hablante ha sido siempre una vieja ambición del hombre. Las leyendas y la misma historia así lo corroboran. Sembradas de oráculos, artilugios, autómatas y monstruos dotados de propiedades maravillosas para resolver todo tipo de problemas…, reflejan la eterna obsesión de los investigadores por desentrañar los misterios de la mente humana.

Ya tenemos ordenadores que pueden jugar una partida de ajedrez o realizar cálculos matemáticos complejos. Pero para los investigadores en inteligencia artificial, o IA, un computador que pudiera leer el tabloide semanal de un supermercado y discutir los últimos escándalos sería mucho más notable. Esto se debe a que la IA estudia cómo piensan y actúan los seres humanos en la vida cotidiana. El ordenador es la herramienta que utilizan quienes trabajan en la IA cuando estudian cómo funciona la mente, y el programa informático es el lenguaje que utilizan para articular sus teorías.

La mayoría de nuestras acciones son mucho menos metódicas que las partidas de ajedrez y las soluciones matemáticas. Para funcionar como lo hace una mente humana, un ordenador debe ser capaz de tratar con lo inesperado, dar sentido a datos incompletos, decidir cuál de los muchos significados de una palabra se aplica a una situación, reconocer estructuras y aprender de sus errores. Básicamente, el ordenador debe mostrar sentido común. Debe aprender que la sentencia “La tía Irma dio en el clavo” puede significar que la tía Irma estaba aprendiendo a colgar cuadros, pero es más probable que signifique que ella captó perfectamente una situación.

En una habitación, hay un grupo de personas constituido en jurado competente; en la estancia
contigua, un hombre (A) y una mujer (B). Con el propósito de evitar inflexiones de voz reveladoras, A y B emplean un teclado para comunicarse con la habitación de al lado, desde la que el jurado va haciendo preguntas a las que ambos responden indistintamente, sin revelar su identidad. La misión del jurado consiste en diferenciarlos, guiándose por sus respuestas. Si en una segunda fase del experimento sustituimos al hombre y a la mujer por una máquina y la sometemos al mismo interrogatorio, cuando el jurado sea incapaz de distinguir sus respuestas de las de los humanos… tendremos entonces una máquina inteligente.

Desde 1992 se viene manteniendo una competición anual para conceder un premio al programa informático que engañe a la mayoría de los jueces. Los jueces mantienen conversaciones a través de terminales de ordenador tanto con seres humanos como con los programas competidores sobre temas tales como “Mascotas” y “Malos matrimonios”. Una táctica que parece ayudar a que un programa de ordenador engañe a los jueces consiste en evadirse de cuestiones específicas con bromas.

El matemático británico Alan Mathison Turing (1912-1954) fue el inventor de este experimento que
bautizó como juego de imitación, aunque en su honor se llame el Test de Turing. Propuesto en un artículo de la revista Mind, en 1950, bajo el título de “Computing Machinery and Intelligence”, Turing planteaba la creación de una máquina inteligente que, según sus predicciones, podría conseguirse en un plazo aproximado de cincuenta años.

En el verano de 1956, una decena de jóvenes científicos se reunió para discutir una proposición según la cual: “Podemos describir cualquier aspecto del aprendizaje o de cualquier otro rasgo de la inteligencia con toda precisión y hacer que una máquina lo simule”. Marvin Minsky, John McCarthy, Allen Newell, Herbert Simon y sus respectivos estudiantes fueron los primeros en crear una comunidad intelectual en torno a la Inteligencia Artificial y en lanzar, por tanto, la idea de que la inteligencia humana se podía programar.

Pero antes, en el otoño de 1955, Newell y Simon, con la ayuda de J.C. Shaw, un programador, comenzaron a desarrollar el primer programa de IA: el Logic Theorist (Téorico de Lógica). En él, proponían tres puntos de partida o estudio: el ajedrez, la geometría y la lógica. A partir de ellos intentaban no sólo encontrar una fórmula eficiente de demostrar teoremas, sino estudiar de qué forma los seres humanos, empleando heurísticos selectivos –la heurística es la parte del método histórico que se ocupa del conocimiento de la fuentes y su acción viene seguida y completada por la de la crítica, cuya misión es averiguar el valor real de estas fuentes-, descubrían lo que tenían que hacer.

Pero, en esos momentos, programar un ordenador resultaba harto laborioso, por lo que el trío de
investigadores decidió simular el programa a mano. Su desarrollo real en un ordenador no llegaría hasta el verano de 1956, y Simon se jactó públicamente de haber inventado un programa inteligente que resolvía por sí solo el problema de la mente y el cuerpo, algo que a muchos pareció, como poco, hilarante. El Teórico de Lógica inició entonces un debate sobre sus repercusiones filosóficas que todavía hoy permanece abierto. Sin embargo, Simon, Newell y Shaw introdujeron otra gran innovación: la creación de un lenguaje de programación de potencia y flexibilidad suficientes, al que bautizaron IPL (Information Processing Language), capaz de programar mediante el procesamiento de listas. Gracias a éste, los investigadores podían recoger en un lenguaje informático la capacidad para asociar y modificar estructuras simbólicas.

Neurólogos, psiquiatras, matemáticos e ingenieros se reunieron en el verano de 1956 en New Hampshire, Estados Unidos, para discutir cómo el proceso de pensar podía representarse digitalmente por medio de máquinas y programas informáticos. Igualmente, los organizadores intentaron llegar a un acuerdo respecto al tratamiento de dos puntos: en qué estado se encontraba la disciplina y cuál era su orientación futura. Pero lo cierto es que, a pesar del entusiasmo de los participantes, no se llegó a ninguna conclusión, y Newell y Simon fueron los únicos en presentar un programa de IA que funcionara.

A pesar de todo, se suele decir que esta conferencia marcó el nacimiento de la nueva ciencia y, durante las dos décadas siguientes, casi todos los avances significativos en IA procedieron de los miembros fundadores del grupo o de sus discípulos. Finalmente, otro de los objetivos del encuentro, dar nombre a la nueva disciplina, fue asumido por John McCarthy, principal organizador, que convenció a la mayoría de apoyar la expresión “Inteligencia Artificial”, concepto que facilitaría la definición de sus límites y de su identidad.

Pero si bien la conferencia no fue un gran éxito, a partir de ella el intercambio de ideas fue continuo y
la IA comenzó a avanzar a pasos agigantados, iniciando una primera edad de oro que se prolongaría hasta 1963. El estudio se centró entonces en dos cuestiones fundamentales: limitar la amplitud de la búsqueda en los problemas de prueba y error –fruto de ello fueron el programa del Teórico de Lógica, el Demostrador de Teoremas Geométricos y el SAINT- e intentar que los ordenadores aprendieran por sí mismos, lo que permitió crear programas de ajedrez, de damas y de reconocimiento de patrones. Mientras, John McCarthy, que se encontraba en el departamento de ingeniería eléctrica del MIT de Boston, propuso dos grandes innovaciones: el lenguaje LISP (List Processing), en 1958, y el sistema de tiempo compartido.

Inspirado en el IPL de Simon, Newell y Shaw, el LISP era un lenguaje de programación de alto nivel en el que la mayor parte de sus expresiones estaba compuesta de palabras inglesas y por el cual, mediante una frase, se podía ordenar a la computadora la ejecución de una o varias operaciones. Era, además, un lenguaje de procesamiento de listas. Éste fue adoptado rápidamente como el lenguaje de programación de los investigadores de IA. Pero McCarthy iba más lejos y, en un artículo de 1958 titulado “Programas con Sentido común”, escribió: “Nuestro objetivo último consiste en construir programas que aprendan de su experiencia tan eficazmente como los humanos”.

La otra gran aportación de este investigador, el sistema de tiempo compartido, consistía en hacer posible que varios usuarios pudieran “hablar” con el ordenador al mismo tiempo, sustituyendo una lectora de tarjetas por varias terminales. Éstas, equipadas con su propio teclado, permitían que los usuarios pudieran introducir un programa o instrucciones para ello. McCarthy, con la ayuda de Fernando Corbato, otro informático del MIT, tuvo que desarrollar nuevas memorias de alta velocidad y recurrir a un programa de control, el sistema operativo. El resultado mereció la pena y prescindir de la clásica perforadora de tarjetas permitió aumentar la productividad en un 1.000%.

A finales de los setenta, la IA había adquirido la categoría de disciplina científica y su base teórica era lo suficientemente sólida como para resistir los ataques de sus detractores. Sin embargo, desde el punto de vista práctico, no se estaba más cerca de la máquina inteligente que en los sesenta. Los ochenta, sin embargo, estarían marcados por la expansión y el nacimiento de la IA como industria, gracias al considerable aumento de las inversiones y al apoyo por parte de la publicidad y los medios de comunicación, que propiciaron la desmitificación de la tecnología. Sin embargo, esta década sería recordada como una especie de montaña rusa, debido a la existencia simultánea de éxitos y fracasos en la carrera de los distintos laboratorios por la consecución de una máquina inteligente.

Un concepto básico de la IA es la representación. ¿Cómo se representa en la mente (o el ordenador)
el mundo externo? ¿Cómo manipula dichas representaciones para entender e interaccionar con el mundo, y llegar a nuevas ideas? Un reto de la IA consiste en dar al ordenador una “consciencia” de cómo representa las cosas y la capacidad para mejorar en dicho proceso. Otro concepto crucial es el conocimiento. El conocimiento es el almacén completo de información programada en el ordenador. Un ordenador inteligente debe saber cómo estructurar una revisión de su conocimiento para encontrar eficazmente una solución a un problema dado. Por ejemplo, si el ordenador va a elegir de qué color pintar la habitación de un niño, podría empezar revisando su conocimiento sobre estudios psicológicos acerca de qué colores resultan tranquilizadores y qué colores resultan perturbadores para los seres humanos.

Subcampos de la IA con grandes aplicaciones prácticas potenciales incluyen el reconocimiento del habla (e.g., secretarias informáticas que podrían contestar a las llamadas telefónicas de sus jefes y rechazar con tacto las invitaciones a comer), la robótica, la ayuda a minusválidos, composición de música, análisis de tendencias financieras, detección de explosivos, desarrollo de pilotos automáticos en vehículos, reconocimiento de firmas en documentos, pronósticos meteorológicos, simulación de centrales de producción energéticas, identificación de blancos en los radares, programas de vigilancia de productividad de los asalariados y los sistemas expertos. Un sistema experto es un almacén de conocimiento sobre un tema específico, junto con reglas según las líneas de “si esto, entonces eso”. Los investigadores están trabajando en el uso de sistemas expertos en medicina. Por ejemplo, un médico de familia podría utilizar un sistema experto para ampliar su conocimiento al hacer un diagnóstico. El médico podría introducir los síntomas en el ordenador, que entonces compararía los síntomas con los cientos o miles de casos similares almacenados en su memoria. En teoría, el médico no utilizaría el sistema experto como sustituto de un cuidado atento y compasivo del paciente, sino como una herramienta útil.

Pero, apostando por la evolución y perfeccionamiento futuros de la IA, cuando las máquinas estén
dotadas de una inteligencia superior, ¿quién nos asegura que seremos capaces de mantenerlas a raya? ¿Puede evolucionar una vida no biológica a un estadio superior al humano? ¿Se volverán en contra del ingenio humano los avances en materia de IA?... Preguntas que parecen sacadas de la ciencia ficción, pero que surgen inevitablemente a la hora de formular predicciones de futuro en materia de IA. Sin embargo, la gran pregunta seguirá siendo la misma: ¿puede realmente pensar una máquina? ¿Quién sabe si mañana existirá una máquina capaz de preguntarse algo similar sobre la mente humana.

Leer Mas...

Solsticio y Equinoccio


El solsticio de invierno suele conocerse como el “día más corto del año”. Aunque el 21 de diciembre también dura 24 horas, es el momento en el que hay menos horas de luz. Ese día, el Polo Norte está inclinado hacia su máxima lejanía con respecto al Sol, lo que hace que este astro pase por el punto más bajo del cielo.

Al pasar los meses, el curso del Sol va subiendo hasta llegar el equinoccio de primavera, el día en el que tenemos exactamente 12 horas de luz y 12 horas de oscuridad.

Sobre el 21 de junio, el Polo Norte se inclina hacia su punto más cercano al Sol y éste se coloca en el punto más alto en el cielo. Es cuando tenemos el solsticio de verano, el día más largo del año. Cuando la trayectoria del Sol vuelve a bajar hacia el horizonte, llegamos al equinoccio de otoño, la segunda vez en el año en la que el día y la noche duran lo mismo.

Leer Mas...

¿Cuántos granos contiene un puñado de arena?


En cualquier momento del año habrá forzosamente alguien en este planeta que pueda preguntarse cuántos malditos granos de arena está dejando correr entre sus dedos mientras hunde su mano en la arena caliente. Así que para no decepcionar a nadie, sepan que un puñado de arena seca y fina contiene alrededor de 22 millones de granos. Todo depende, claro, de lo grande que sea la mano y de la estructura de la arena, pues los granos pueden tener desde 0.002 milímetros hasta 1 milímetro de diámetro.

Leer Mas...

martes, 24 de diciembre de 2013

Plantas en vías de extinción - las grandes olvidadas




Cuando se habla de especies en peligro de extinción, muchas personas se refieren exclusivamente a la fauna. Sin embargo, las plantas, sustento no sólo de la vida, sino también de la economía y de la industria, sufren con igual o mayor rigor los efectos de la acción humana. Unas 50.000 especies de plantas están amenazadas de extinción. Una masacre y un despilfarro inaceptables.

Ni una sola planta en el planeta permanece ajena a la actividad del ser humano. Bien por la acción directa del fuego, las talas de árboles –para el aprovechamiento de su madera o para la extensión de cultivos- o por la alteración de la química del entorno.

Este último factor incluye un amplio abanico de factores: desde los pesticidas –que matan a los insectos polinizadores- a otras toxinas industriales, como los PCB o la lluvia ácida, que ha causado importantes daños a los bosques de Europa y de Norteamérica. A esto se suma el calentamiento global del planeta, que podría tener un impacto profundo sobre las plantas: las expectativa más pesimistas auguran que, durante la primera mitad del siglo XXI, el planeta se calentará a un ritmo de entre 0.5 y 1º C por década. Un aumento de 1ºC equivale a unos 100-160 km de desplazamiento latitudinal en latitudes medias.

Estos cambios, en su conjunto, representan un riesgo cierto para la agricultura, pero también para muchos bosques y demás biomasa vegetal por la desecación de los suelos y la disminución de materia orgánica en los suelos, lo que, a su vez, aumenta la concentración de dióxido de carbono y metano en la atmósfera.

Los diferentes cálculos varían, pero todos coinciden en situar el número de especies vegetales amenazadas entre 40.000 y 60.000. Durante los últimos 10.000 años –biológicamente, un tiempo muy escaso-, la superficie boscosa de la Tierra se ha reducido una tercera parte debido al avance de cultivos, pastos y ciudades. Sin duda alguna, la época más intensa de esta acción ha tenido lugar durante el siglo XX. De los 6.200 millones de hectáreas de bosque primario que, según los cálculos, cubrían la superficie de la Tierra, en la actualidad existen unos 4.200, lo que representa una reducción de un tercio.

Sin embargo, no se trata sólo de un problema cuantitativo; la variedad se ha reducido a un ritmo
mayor: de los actuales 4.200 millones de hectáreas, sólo 1.500 millones pertenecen a bosque primario inalterado. En Europa, todos los bosques originales han desaparecido y han sido sustituidos por otros mucho más pobres en especies; mientras que, en Estados Unidos, menos del 5% es bosque primario.

Bajo el nombre de mangle se agrupan varios tipos de plantas tropicales con flor, tanto árboles como arbustos. La característica común de todos ellos es el crecer en lugares pantanosos, en especial a lo largo de costas y estuarios de aguas tranquilas. Los manglares han sufrido fuertes decrementos en Asia, Latinoamérica y oeste de África: en la república del Ecuador, la mitad de estos bosques pantanosos ha sido sustituida por estanques para la cría de langostinos; en Brasil, se ha perdido más del 95% de las extensiones de bosques pluviales y los bosques de la conífera araucaria al sur de Brasil; mientras que fuera de los trópicos han sido prácticamente borrados las grandes arboledas de cedros de Líbano y los antiguos bosques de madera dura de Europa y Norteamérica.

Unas 3.000 especies norteamericanas, prácticamente una de cada ocho especies nativas, están amenazadas; de las 19.000 especies que hay en Europa, unas 2.300 están amenazadas, 120 en peligro de extinción y 20 han desaparecido, en algunos casos debido al traslado de especies: la importación al Reino Unido de olmos americanos con grafiosis –enfermedad parasitaria provocada por un hongo- fue un desastre para Europa, pues ha extinguido el Ulmus minor del Reino Unido, de Francia y de una amplia zona centroeuropea. Pero de todos estos lugares, es el sur de África la zona encargada de batir el triste récord: allí se concentra la mayor cantidad de plantas amenazadas del mundo. El 80% de estas especies son endémicas, y un 13% están continuamente amenazadas.

El valor de cualquier especie, pero más aún de las vegetales, no se restringe a sí misma, sino que
incluye el cobijo y el alimento que proporcionan a otras especies. Por ejemplo, los bosques y las selvas tropicales albergan a la mitad de las especies del planeta, y su extensión ha sido reducida prácticamente a la mitad. No se trata sólo de Brasil, sino de países como Benin, el occidente de Ecuador, El Salvador, Costa de Marfil, Ghana, Haití, Nigeria y Togo, donde los bosques han desaparecido casi por completo. En la mayoría de estos países, alrededor de los bosques diezmados hay sólo extensiones de tierra degradada con apenas capacidad para mantener poblaciones silvestres. Entre los países más afectados por la deforestación, además de los mencionados, están Colombia, México, Indonesia, Perú, Malaisia, India, Zaire o Madagascar.

España tiene aproximadamente un tercio de su superficie poblada por bosques, y una décima parte, de prados y pastizales. En total, un 44% de su superficie está cubierto con algo más de 1.700 especies vegetales diferentes, de las cuales 1.300 no crecen en ningún otro lugar del mundo –endemismo-. Comparado con el endemismo de Grecia -750 especies-, Italia -250- o Gran Bretaña -12-, España es una reserva de incalculable valor. Las cifras varían entre los diferentes investigadores, pero aproximadamente un 20% del total de nuestras especies están amenazadas, y todas ellas son endémicas.

Sin embargo, no todo es malas noticias: algunas han sido protegidas, como el pinsapo –Abies pinsapo-; el araar –Tetraclinis articulata-, un ciprés de origen árabe que sólo existe en Murcia, o la atrapamoscas –Drosophyllum lusitanicum-, una planta carnívora de la que apenas quedan ejemplares en la Península Ibérica.

La reducción de la biodiversidad vegetal no se circunscribe sólo a las especies silvestres: también los
cultivos están perdiendo diversidad genética. La introducción de variedades de alto rendimiento ha conseguido aumentar sensiblemente la producción de alimentos, pero, al mismo tiempo, ha eliminado muchas cepas tradicionales. En Indonesia han desaparecido 1.500 variedades locales de arroz, y casi las tres cuartas partes del arroz plantado en la actualidad procede de una única planta madre. En Estados Unidos, el 71% de los maizales se reduce a 6 variedades, y el 50% del trigo procede de 9.

Aparte de la pérdida de ejemplares de la biblioteca genética –importante, por ejemplo, para las mejoras futuras a través de biotecnología-, esta uniformidad supone un riesgo: la baza de la vida está en la diversidad, la cual aumenta la probabilidad de encontrar entre una especie un número satisfactoriamente alto de ejemplares resistentes a condiciones nuevas. La uniformidad es una peligrosa apuesta a una sola carta: en 1991, la similitud genética de los naranjos de Brasil favoreció una epidemia de infecciones que redujo drásticamente la producción.

Leer Mas...

lunes, 23 de diciembre de 2013

¿Por qué se cierran los ojos automáticamente al estornudar?


El estornudo es uno de los muchos reflejos de que dispone el cuerpo para su protección. Aparece cuando la mucosa nasal experimenta un estímulo, lo que puede ocurrir cuando entra en la nariz un grano de polvo. En el seno frontal se bombea aire que, como si fuera una explosión, se libera a través del órgano olfativo, y de esa forma debe eliminarse el cuerpo extraño que ha provocado irritación.

Tenemos muy claro que los ojos se cierran durante este proceso, pero no se conoce el motivo. Durante el estornudo también existe un intervalo muy corto de tiempo en el que se interrumpe una función vital como es el latido del corazón; sin embargo, este momento pasa tan rápido que no tiene ningún efecto y no es responsable de que cerremos los ojos. También es un bulo la explicación de que los globos oculares saltarían de sus órbitas a causa de la presión. Por ello es aún un misterio el motivo por el que cerramos los párpados de una forma refleja.

Leer Mas...

domingo, 22 de diciembre de 2013

La Música de Cámara – La exploración de los recursos musicales.


En la música de cámara, cada voz está a cargo de un solo instrumentista y el compositor dispone de menos recursos de lo habitual: tiene la ventaja de la proximidad, pero requiere un empleo certero de la armonía, la melodía y la estructura, pues no cuenta con instrumentos comodines que pueden ayudar a sostener el interés.

La música de cámara moderna comienza con Haydn (1832-1809), autor prolífico que escribió más de ochenta cuartetos de cuerda. Pero este género no nace de la nada: las primeras formas camerísticas son la sonata da Chiesa –“sonata de iglesia”- y la sonata da camera –“de cámara”- . La primera tiene sus antecedentes en el siglo XVI, cuando la forma vocal chanson –“canción”- comienza a ser arreglada para conjunto instrumental, está sujeta a una estructua de contrastes musicales y al metro original del verso, que le da un efecto de brevedad dividida en brevedades, por así decir.

Durante el siglo XVI, la música de cámara tiene una influencia coral y madrigalística, y muchas veces se publica como “apta para voces o violas”. La forma italiana canzona es transcrita para órgano, con muchos ornamentos y florituras, y de aquí pronto pasa a ser transcrita para pequeños grupos instrumentales y finalmente a ser compuesta especialmente para ellos. Al mismo tiempo, aparece la suite de danzas, un grupo de piezas escritas para grupo instrumental, basada en el ritmo y la estructura de las chaconas, gigas, pasacalles y demás. De aquí surge la estructura en cuatro movimientos –aunque no es rara la forma en tres u ocho-, y pronto la sonata da camera, que comienza con un primer movimiento que no tiene forma de danza y continúa con unas formas muy idealizadas de danza.

Arcangelo Corelli (1653-1713) escribe 34 sonatas de cámara de estilo homofónico –melodía soportada por las voces inferiores-, mientras que al fin del siglo XVII la sonata da Chiesa adopta una forma contrapuntística –varias melodías entrelazadas-, así como algunas de las ligeras pautas rítmicas de la de cámara. Al final del siglo, ya no es posible distinguir claramente entre ambas, y los términos Chiesa y cámara dan lugar a indicaciones como “a tre” –trio sonata-, que prevalece hasta 1750: es la época de Antonio Vivaldi (1678-1741), quien, aparte de sus conciertos para orquesta, tiene más de 75 obras de cámara y, sobre todo, es la época de G.F.Händel (1685-1759) y J.S.Bach (1685-1750), el primero con su acostumbrado cuidado de la melodía y sus movimientos fugados y el segundo con el absoluto dominio del contrapunto que llevó la música de cámara a la máxima expresión dentro del barroco, con obras para conjunto de solistas como La ofrenda musical y para instrumento solo como El arte de la fuga para clave, las Sonatas y partitas para violín solo y las Suites para violoncelo.

Con el clasicismo se oponen a las complejidades barrocas las construcciones sencillas: a partir de su
Opus 33, Haydn introduce una “nueva manera” que establece lo que será el desarrollo temático, en el que utiliza los mínimos recursos: el despliegue del tema está íntimamente ligado a las texturas y a los cambios de tonalidad. En muchos de sus cuartetos, las melodías están construidas de forma que pueden ser divididas en fragmentos o motivos aparte con una forma y un sentido completamente autónomos. Mozart (1756-1791) escribe 26 cuartetos para cuerda, muchos de ellos ceñidos a la “nueva manera” de Haydn. Los diez últimos, entre ellos los últimos tres escritos para un violoncelo que se ha de defender con el virtuosismo de un violín, están entre lo mejor de la producción mozartiana junto a los ocho quintetos para cuerda, en los que mezcla, de la forma que sólo él era capaz, el humor con la tensión dramática.

Beethoven (1770-1827), al igual que sus predecesores, un admirador de Bach, tiene una importante creación camerística: 17 cuartetos para cuerda que son la columna vertebral del repertorio para esta formación: comienza con el estilo de Haydn en los seis primeros, los cinco cuartetos del periodo medio alargan su duración, son de expresión mucho más profunda y tensa y disponen de una mayor libertad formal, y los seis últimos son obras contrapuntísticas que consiguen, con los medios relativamente escasos del cuarteto, formas, movimientos y desarrollos completamente nuevos que influyen decisivamente en la música de Schubert (1797-1828), Mendelssohn (1809-1847) y Schumann (1810-1856).

En las obras de Schubert, las principales compuestas después de 1824, hay un interés mucho menor por la estructura formal, el autor se basa en un flujo
melódico lírico interminable, en una gran variedad armónica y en un intenso sentimiento dramático propio del romanticismo. Mendelssohn mezcla un retorno al clasicismo con el entusiasmo romántico, mientras que Schumann se interesa por el color tonal, la melodiosidad y una expresión sumamente subjetiva en la que el sostenimiento del interés se encuentra no tanto en una construcción formal como en la potencia del impulso emotivo romántico. En general, el equilibrio del cuarteto de cuerda clasicista es sustituido por las formaciones con piano que permiten, dentro del intimismo de la música de cámara, los mayores contrastes y expresividad que los románticos necesitan. En la segunda mitad del siglo XIX, Brahms (1833-1897) contribuye decisivamente con una música para piano sumamente expresiva y dinámica –su trío para piano Op.8 es una de las partituras más interpretadas del siglo- en la que hay un equilibrio, raro en su tiempo, entre el ímpetu emotivo y la expresión racional que explota a conciencia las sonoridades, las texturas y construye elaborados entramados rítmicos.

La música de cámara del siglo XX estalla con el sexteto para cuerdas Noche Transfigurada, de Arnold Schönberg (1874-1951) y, cuando ya está maduro el sistema dodecafónico, con el Pierrot Lunaire, 21 poemas cortos para voz –casi recitativo- y cinco instrumentos. Los principales alumnos de Schönberg son Alban Berg (1855-1935), quien introduce de nuevo elementos románticos en el sistema dodecafónico, y Anton von Webern (1883-1945), creador de una música breve y consistente.

El húngaro Béla Bartók (1881-1945) introduce en sus cuartetos, igual que en el resto de su música, los motivos y ritmos folclóricos –utiliza los instrumentos de cuerda como percusión y construye algo así como un piano colectivo en el cuarto movimiento de su cuarteto para cuerdas nº 4 -; esto, unido a un cuidado desarrollo estructural de cada cuarteto, así como la tensión y la oscuridad emotiva propia de Bartók, hacen de su música de cámara una parte imprescindible de la música del siglo XX.

Stravinski (1882-1971) escribió apenas una docena de obras de cámara, entre las que destaca La historia del soldado, para narrador y siete instrumentos, y el Octeto, para instrumentos de viento. Durante todo el siglo XX, l os compositores han encontrado en la música de cámara la oportunidad y la obligación de explotar todas las posibilidades de los instrumentos, y han introducido elementos nuevos, como la megafonía para las sopranos o los sonidos generados electrónicamente.

Leer Mas...

sábado, 21 de diciembre de 2013

Noam Chomsky– El innovador de la comprensión del lenguaje



A primera vista, si hay algo que parece estar bien establecido –y, aun más, enormemente diversificado-, es el lenguaje humano. Poca innovación en su comprensión profunda podría aportarse, al menos aparentemente, en estos tiempos.

Pero nada más lejos de la realidad. Los lingüistas no dejan de investigar los fundamentos de nuestra forma de comunicarnos, analizando la evolución de esa capacidad humana desde que éramos apenas unos monos listos que acabábamos de aprender a andar sobre dos patas. Los hallazgos de esta rama del saber humano pasan mucho más desapercibidos que los de otros campos del conocimiento como la física, la astronáutica o la biotecnología… Pero son igualmente trascendentes, sobre todo en estos momentos en que las nuevas tecnologías de la información requieren una vuelta atrás en el estudio de nuestra comunicabilidad y la adopción de nuevos criterios a la hora de obtener esos lenguajes no literarios que requiere el mundo moderno.

Un nombre destaca de manera señalada en el campo de la lingüística moderna: Noam Chomsky. No solo ha hecho aportaciones esenciales al análisis profundo de la estructura del lenguaje humano, sino que ha propiciado que muchas de sus teorías hayan podido ser aplicadas al desarrollo y constante mejora de una novedosa forma de lenguaje muy propia de nuestros días: el de las computadoras. De hecho, la moderna lingüística computacional no hubiera sido posible sin algunas de las tesis de Chomsky.

Avram Noam Chomsky nació en Filadelfia, en 1928. Sus padres eran profesores de hebreo y reputados gramáticos, de origen judeo-ucraniano, que vivían en un barrio de irlandeses y alemanes antisemitas. La Gran Depresión que vivió de niño y la para él incomprensible hostilidad de sus vecinos hizo del joven Chomsky un estudioso retraído, que solo pudo costearse los estudios de postgrado dando clases de hebreo. Se matriculó en la Universidad de Pensilvania, pero pronto se aburrió y dejó de lado los estudios para dedicarse a la agitación política pro-sionista y de izquierdas; curiosamente, por mantener exactamente esas mismas posiciones sería acusado años después de todo lo contrario, es decir de antisionista y profascista.

Finalmente, terminó sus estudios universitarios de matemáticas y lingüística. Mientras preparaba el
doctorado, uno de sus maestros, el filósofo Nelson Goodman, le presentó a la Society of Fellows de Harvard en 1951, quizá una de las más prestigiosas asociaciones universitarias de los Estados Unidos. Tenía sólo 23 años pero ya mostraba un talento más que notable en el análisis de las bases del lenguaje humano. Aun así, abandonó aquellos prometedores inicios porque sus inquietudes políticas le hicieron emigrar a Israel para vivir en un kibutz aunque sin dejar de lado sus investigaciones matemático-lingüísticas. Aquello le pareció inicialmente una vida ideal y solidaria, pero pronto reaccionó ante el racismo y el militarismo del estado de Israel, al que acabó repudiando para regresar a los Estados Unidos en 1955, tras recibir una oferta del prestigioso MIT, en Boston (Massachusetts).

Estuvo trabajando allí más de veinte años como lingüista y profesor de idiomas modernos; luego, sin dejar de investigar en el MIT las nuevas formas de lenguaje que sus diferentes trabajos iban poniendo de manifiesto, inició una estrecha colaboración con los nuevos desarrolladores informáticos. Estos se habían dado cuenta de que necesitaban un mayor bagaje teórico para desarrollar sus propios códigos de comunicación con las máquinas.

En todo caso, su fama como lingüista ya había comenzado a labrarse desde mucho antes, nada más entrar en el MIT, cuando en 1957 escribió, con sólo 29 años de edad, su “Estructuras sintácticas”. Era un libro poco convencional en el que pretendía demostrar que el lenguaje humano no aparece en el cerebro más o menos virgen de los bebés, sino que éste, incluso en los recién nacidos, ya dispone de códigos pre-aprendidos, o sea heredados, que le ayudan a desarrollar cualquier lenguaje complejo. Hasta entonces los expertos pensaban que la adquisición del lenguaje, como las demás destrezas humanas, solo era posible por medio del aprendizaje y la asociación. Chomsky mostraba que poseemos una especie de órgano del lenguaje, un dispositivo cerebral innato que nos permite aprender casi de forma instintiva.

De hecho, eso le llevó a la idea, que desarrollaría más adelante con la famosa Jerarquía de Chomsky,
de que los principios generales de la gramática son, en abstracto, universales para toda la especie humana: como una especie de gramática universal innata. En cierto modo es como si el lenguaje partiese de unas formaciones básicas que se van desarrollando en una variedad de combinaciones sintácticas aplicando determinadas reglas. Cuando se termina de aplicar esta cadena de reglas sintácticas, entran en juego las reglas fonológicas correspondientes a cada idioma para modular la pronunciación, y así se obtienen los distintos lenguajes, muy diferentes entre sí, pero con ese esqueleto básico común que sería la gramática universal.

Esas investigaciones condujeron más adelante a la definición de esa famosa Jerarquía suya, una clasificación en orden de prioridad de varias gramáticas formales básicas que, a su vez, generan lenguajes formales. La idea acabó siendo de enorme interés para los programadores de lenguajes informáticos complejos. Lo interesante de todo este conjunto de saberes es que el propio Chomsky es muy crítico con el empirismo filosófico, e incluso científico, y defiende a rajatabla el racionalismo cartesiano, como un hombre del Renacimiento redivivo. Y, aún así, no deja de ser curioso que las ideas abstractas y con un fondo matemático muy complejo de este lingüista experto inicialmente en el idioma hebreo, hayan acabado siendo esenciales para el desarrollo de lenguajes tan novedosos como los que se usan en las más sofisticadas teorías de la computación.

Además de su decisivo trabajo lingüístico – ha escrito una decena de libros de su especialidad,
algunos de ellos considerados como esenciales por los expertos en comunicación-, Chomsky ha sido y sigue siendo un activista político comprometido y combativo, cuyos análisis a menudo ácidos sobre la sociedad, la economía y la política mundiales siembran el desconcierto, y no poco descontento, entre los líderes del mundo entero. Sus opiniones sobre la política exterior norteamericana e israelí en particular, le han valido sonoras críticas, aunque también un reconocimiento mundial por parte de numerosos partidos de izquierda y, desde luego, de la población de los países más desfavorecidos.

Leer Mas...

viernes, 20 de diciembre de 2013

Astrología - la presunta unidad entre hombre y cosmos






La astrología se basa en una visión del Universo en la que el hombre ocupa el centro y la función principal de los astros es gobernar el destino de los seres humanos. La astronomía ha mostrado un Universo inabarcable y caótico del que el hombre, la Tierra e incluso la galaxia son una parte insignificante. Sin embargo, a pesar de que ni una sola prueba ha apoyado las tesis de los astrólogos, millones de personas se declaran firmes creyentes en la astrología.

Aunque actualmente tendemos a identificarla con una técnica adivinatoria más, no hay que olvidar que la astrología nació como una forma de conocimiento que pretendía dar una explicación unitaria de todo lo existente. En ese sentido, venía a representar la ciencia de lo universal, desde el movimiento de los vientos y las mareas, la formación de los minerales o la vida de las plantas y los animales, hasta la actividad de la mente humana, determinante tanto de las emociones como de la conducta.

La idea en la que se basaba dicho conocimiento era la supuesta analogía o correspondencia entre el cielo y la tierra. Según la famosa fórmula contenida en la Tabla esmeraldina, atribuida al legendario filósofo y alquimista egipcio Hermes Trismegisto, “lo que está arriba es como lo que está abajo y lo que está abajo es como lo que está arriba”. De ese modo, el cielo se convertía en un libro abierto, y los astros que lo habitaban en signos o señales que reflejaban el mundo terrestre.

La creencia astrológica en la “simpatía universal”, entendida como el vínculo armónico entre las diferentes partes del cosmos, llevó a identificar a las estrellas con arquetipos (modelos) de todo lo creado. Estos cuerpos celestes contendrían las características genéricas de las variadas especies del mundo natural, de manera que de su observación detallada podría derivarse una sabiduría aplicable no sólo a los fenómenos exteriores, sino también a la psicología de los individuos.

Desde un punto de vista geocéntrico, para el que la Tierra está quieta y es el centro del Universo, el Sol, la Luna y los planetas parecen moverse por una banda de unos pocos grados de anchura. La división de este círculo en doce secciones de 30º forma el zodiaco, y cada una de las secciones es un signo zodiacal: Aries, Tauro, Géminis y demás, que o tienen nada que ver con las constelaciones.

Sobre este fondo se desplazan los cuerpos del Sistema Solar: cuando se dice que una persona es Aries, sólo significa que el Sol se encontraba en la región de los primeros 30º del zodiaco o, lo que es lo mismo, que nació durante los primeros 30 días de la primavera. Además del Sol, están en el zodiaco la Luna y los planetas, cuyas posiciones calculan los astrólogos con precisiones de hasta segundos de arco.

Después, pasan a considerar en qué lugar estaban los planetas con respecto al horizonte del lugar de
nacimiento. La línea Este-Oeste es representada en la carta astral como ascendente y descendente, en alusión a que los planetas parecen ascender y descender: por ejemplo, al amanecer hay una conjunción entre el Sol y el ascendente. Al igual que ocurre con la banda zodiacal, esta esfera –o cielo local- es dividida en doce sectores –llamados casas-: la primera comienza con el ascendente, y es llamada la casa I, a la que siguen la II, III… Cada una tiene un significado análogo al signo correlativo: la casa I tiene parecido con Aries; la casa II, con Tauro; la III, con Géminis, etcétera.

El signo imprime –dicen los astrólogos- las características básicas: la casa, el campo de la vida en que éstas se aplican. Aries –el carnero- es luchador y agresivo, tiene iniciativa; la casa I representa la manera en que una persona ha nacido, la manera que tiene de comenzar una empresa o de abordar a otra persona. Si la casa I está en Escorpio, las características atribuidas a este signo se considera que se expresan a través del campo atribuido a la casa I: la persona comienza las cosas secretamente, procura esconder sus intenciones o consigue no emprender una relación con otra
persona y seducirla para que sea ésta quien comience el trato. Si, por ejemplo, es la casa III –hermanos, comunicación, vecinos, viajes cortos…- la que está en escorpio, las características del signo se expresan a través de algún hermano, o bien el individuo tiene una forma de expresarse poco directa o simplemente le gusta desaparecer durante breves períodos de tiempo.

Aparte de estas superposiciones entre planetas y casas, los planetas, el Sol, la Luna y otros puntos pueden establecer relaciones angulares: cuando dos factores están en la misma región del zodiaco a una distancia de 0º, se dice que están en conjunción; si la distancia es de 60º están en sextil; a 90º están en cuadratura. Estas distancias, o aspectos, no han de ser necesariamente exactos: hay un margen de error –orbe- específico para cada aspecto, que permite que planetas que se encuentran ente 86º y 96º de distancia estén en cuadratura, o aquellos que estén separados por un ángulo de entre 58º y 62º estén en sextil. En total, sumando todos los aspectos posibles, un planeta cubre un área total de unos 140º -más o menos, pues los astrólogos no están de acuerdo en los valores de os diferentes orbes y en la validez de algunos aspectos-.

La astrología gozó de una enorme popularidad durante el Renacimiento, aunque fue precisamente
entonces cuando comenzó ser cuestionada por algunas figuras aisladas, que decidieron rebelarse contra buena parte de los mitos heredados de la Edad Media. Por ejemplo, Petrarca, que en pleno siglo XIV escribía: “Dejad libre el camino de la verdad y de la vida (…). No tenemos necesidad de astrólogos embaucadores ni de truhanes profetizadores que a sus crédulos secuaces limpian de oro las arcas llenan los oídos de patrañas, entorpecen con errores el juicio y entristecen con nugatorios temores de lo por venir.

Pero lo cierto es que la astrología daba sentido, tanto al universo como al hombre, imagen y espejo de aquél, pues cada ser humano era concebido como un pequeño mundo que en sí mismo compendiaba el equilibrio de la Creación, incluso desde el punto de vista anatómico. Según dicho presupuesto, no es de extrañar que Flavio Mitridate, astrólogo del duque Federico de Montefeltro, definiera la astrología como “la ciencia divina que hace felices a los hombres y les enseña a parecer dioses entre los mortales”.

Todo ese idealismo optimista, la ilusión de poder gobernar el ancho mundo en sintonía con la voluntad divina mediante el estudio del firmamento, entrañaba, no obstante, una contradicción que a lo largo del Renacimiento pusieron de manifiesto una y otra vez los pensadores humanistas. Si la personalidad dependía de la posición de los astros en el momento de nacer, si los actos humanos estaban condicionados por las influencias celestes, ¿hasta qué punto podía hablarse de libre albedrío? ¿A qué quedaban reducidas la dignidad y la capacidad de decisión del individuo?

La Iglesia católica trató de solucionar el dilema afirmando que sólo el cuerpo se encontraba sometido a la influencia del hado y los fenómenos celestes, mientras que el alma poseía plena libertad de acción. Pero esta dicotomía artificial entre el espíritu y la matera dejaba el problema abierto.

Otro intento de resolver la cuestión fue establecer una distinción entre causas y señales. Según eso,
una cosa sería defender que los astros deciden de antemano lo que va a suceder, algo inaceptable desde el punto de vista teológico, y otra, que simplemente se limitan a indicar o señalar lo que ocurre, sin influir en el curso de los acontecimientos. ¿Acaso no estaba escrito en el Génesis (1, 14) que Dios había dicho: “Haya en el firmamento de los cielos lumbreras para separar el día de la noche y para servir de señales a las fiestas, los días y los años”? Esta segund interpretación, sin embargo, seguía sin aclarar nada pues, si pasado, presente y futuro formaban en el plano divino un único instante, todo el porvenir estaba escrito en los astros para quien supiera leerlo.

Durante muchos siglos no existió una auténtica frontera entre la astronomía y la astrología tal y como la entendemos hoy. Prueba de ello es que los considerados tres padres de la astronomía moderna, esto es, Nicolás Copérnico, Tycho Brahe y Johannes Kepler, defensores incansables del sistema heliocéntrico frente a las doctrinas ptolemaicas que situaban la Tierra en el centro del universo, siguieron creyendo firmemente en la astrología. Esto significa que los tres confiaban en la posibilidad de hacer predicciones, ya fuera mediante la realización de horóscopos o la observación de las conjunciones planetarias.

Al margen de las conjunciones planetarias, otros fenómenos de carácter extraordinario como los cometas, los eclipses o los meteoritos (más conocidos como estrellas fugaces) suscitaron gran estupor por su apariencia prodigiosa. Dichas manifestaciones, interpretadas como señales inequívocas enviadas por el cielo, fueron plenamente aceptadas por la Iglesia. En realidad, la astrología en general gozó de tal crédito en el mundo cristiano que, a diferencia de otras ciencias ocultas, nunca llegó a ser condenada de manera categórica.

Por ejemplo, a pesar de su intensa fe y su defensa a ultranza del catolicismo, Felipe II fue un gran
aficionado a las artes ocultas, siguiendo las tendencias filosóficas del momento. Se rodeó de alquimistas y astrólogos y se hizo trazar varios horóscopos a lo largo de su vida. Uno de los más famosos es el que le encargó a John Dee durante su estancia en Inglaterra como esposo de su tía María Tudor. Como recompensa, el rey regaló a Dee un espejo de obsidiana procedente de las colonias americanas (supuestamente utilizado para invocar a los diablos), cuya negra superficie puede contemplarse hoy en el Museo Británico. Pero el horóscopo personal del rey más famoso y detallado es el conocido como Prognosticon, que elaboró el doctor Matías Haco y que todavía hoy se conserva íntegro en la Biblioteca del Monasterio de San Lorenzo de El Escorial. Se dice que Felipe II lo usaba como libro de cabecera y que lo consultaba cuando tenía que tomar alguna decisión importante.

En 1586, el papa Sixto V promulgó la bula Coeli et terrae, en la que se limitaba a distinguir una astrología “falsa”, la que negaba el libre albedrío, de otra “verdadera”, la que podía influir en el mundo natural y, en consecuencia, en la agricultura, la medicina, la navegación o incluso en las tendencias del individuo, pero nunca en sus decisiones.

La fe en los astros estaba tan arraigada que fueron numerosos los intelectuales cristianos dispuestos a
empuñar la pluma contra los ataques de quienes se atrevían a juzgarla como un simple engaño. Así, por ejemplo, en 1538, el médico y teólogo valenciano Miguel Servet publicó en París su “Discrepatio pro astrología”, contando con el apoyo de Juan Tiebault, médico y astrólogo del rey Francisco I de Francia, que anteriormente lo había sido de Carlos V. Las palabras dedicadas a “la buena astrología”, incluidas por el teólogo Gaspar Navarro en su tratado sobre la superstición (1631), no pueden ser más elocuentes: “Esta Astrología es ciencia verdadera y natural, como la Filosofía y Medicina, y aunque muchas vezes los astrólogos yerren, no es maravilla, porque (…) tratan de cosas muy altas”.

Tan altas que el nacimiento y la muerte de Jesucristo se hicieron corresponder con dos señales celestes inconfundibles: en primer lugar, el cometa visto por los Reyes Magos e interpretado como el anuncio de una nueva religión; y, en segundo lugar, el eclipse solar de tres horas que sumió a Palestina en las tinieblas tras la muerte de Cristo. Todavía en el Renacimiento y durante buena parte del siglo XVII, tanto cometas como eclipses siguieron considerándose signos enviados por Dios para prevenir al hombre de las consecuencias de sus pecados.

En el siglo XVII, los investigadores comenzaron a prescindir de las especulaciones y prefirieron la experimentación para obtener datos de la realidad: fue el nacimiento de la ciencia moderna independizada de la teología y la filosofía.

La astrología se basa en la concepción del cosmos como unidad interrelacionada, lo cual no es un concepto físico, y mucho menos científico, sino metafísico y religioso. La astrología jamás ha sido capaz de aportar una prueba que demostrara en alguna medida esa influencia con la que, según dicen, miles de astrólogos realizan predicciones certeras todos los días. Como prueba de la relación cosmos-hombre suele usarse el argumento de que la Luna influye en las mareas y, por tanto, ha de influir en el hombre, porque está compuesto de un 80% de agua; pero este razonamiento no tiene en cuenta que la Luna no atrae al agua porque sea agua, sino porque es masa, y que nuestro satélite también atrae –y mueve- a la corteza terrestre. Además, la Luna ejerce su influencia sobre las mareas dos veces al día, y no parece que nuestras pautas de comportamiento se ajusten a esa pauta, sobre todo teniendo en cuenta que la influencia gravitatoria de la Luna es mucho mayor que la de, por ejemplo, Neptuno.

Por otra parte, los astrólogos jamás han sido capaces de definir las características de la fuerza que
actuaría sobre los hombres: por ejemplo, si su intensidad depende de la distancia, deben explicar por qué Plutón, un planeta que llega a estar a 7 horas-luz de nosotros y es más pequeño que la Luna –que se encuentra a un escaso nanosegundo-luz-, es capaz de inducir, según los astrólogos, crisis y depresiones que persisten durante muchos años; si la intensidad no depende de la distancia o del tamaño, entonces han de explicar por qué no influyen todos los cuerpos del Sistema Solar, las estrellas de nuestra galaxia y todos los demás componentes del Universo.

La astrología, al contrario que otras ciencias, como la astronomía, la física o las matemáticas, no ha sufrido profundas modificaciones a lo largo de su historia. La astronomía desarrolló revoluciones como el heliocentrismo o la expansión del Universo, pues proporcionó hechos que obligaban a replantearse la naturaleza real del cosmos; la astrología no ha aportado hechos y se ha mantenido en un universo pequeño y jerarquizado, propio de los primeros siglos de la era cristiana.

Por otro lado, todas las innovaciones que se han dado en astrología son debidas a otros campos, como la astronomía –descubrimiento de Urano, Neptuno y Plutón, o del asteroide Quirón- o la psicología y psiquiatría –principalmente las teorías psicoanalíticas, y muy especialmente, la psicología junguiana.

Precisamente, el valor de la astrología es el de ser una psicología y una tipología arcaicas: igual que el ser humano vertió en la mitología los contenidos de su psique, la astrología cuenta con un interesante surtido de personajes –casas, planetas y signos- que permite predecir comportamientos –a grandes rasgos-, de la misma manera que lo puede hacer cualquier psicología, sin recurrir a conceptos metafísicos como la presunta unidad del cosmos.

Leer Mas...