span.fullpost {display:none;} span.fullpost {display:inline;} saber si ocupa lugar: junio 2014

lunes, 23 de junio de 2014

¿Es cierto que sólo utilizamos un 10% de la capacidad cerebral?


Este rumor se remonta a los inicios del siglo XX, cuando fue perpetuado por los gurús de la autoayuda que prometían expandir la capacidad mental de sus lectores. Pero, como tantas otras cosas prometidas por los charlatanes, es falso. No hay duda alguna de que estamos ya utilizando cada pequeño rincón.

Incluso mientras dormimos o miramos la tele, el cerebro está quemando una sorprendente cantidad de energía comparada con su tamaño. Si el cerebro representa solo un 2% del peso corporal, equivale al 20% de la energía consumida. La mayor parte de ella, no obstante, se utiliza para tareas distintas al pensamiento.

La mayor parte de la energía cerebral se utiliza para el mantenimiento básico y para la comunicación entre neuronas. El resto se dedica a preparar el cerebro para recibir información y hacer predicciones basadas en experiencias del pasado. Por ejemplo, en lugar de explorar la nevera cada vez que queremos beber leche, podemos dirigirnos directamente al compartimento donde la habíamos dejado por última vez, porque el cerebro ha trabajado duramente para guiarnos. Eso nos ayuda a manejar la enorme cantidad de detalles con los que topamos diariamente.

Podemos estar seguros de que la totalidad del cerebro trabaja a pleno rendimiento, aunque no estemos concentrados. Deberíamos abandonar la idea de que el cerebro está tranquilamente a la espera de que suceda algo. Cada una de sus partes está funcionando a tope a cada momento.

Leer Mas...

domingo, 22 de junio de 2014

La flecha del tiempo



Aunque quizá sea algo en lo que usted piensa sólo cuando está de un humor raro, sabe intuitivamente que el tiempo tiene una dirección. Siempre va desde el pasado al presente y al futuro, y en cuanto usted se centra en el momento presente, ya se está deslizando en el pasado. Quizá la secuencia pasado- presente-futuro sea inalterable, pero diferentes culturas tienen distintas formas de visualizar el flujo del tiempo. La mayoría de los lectores consideran probablemente que el pasado es algo que dejan detrás de ellos y que el futuro es algo que está por delante. Sin embargo, existe una cultura africana que habla del pasado como algo que está por delante de ellos, porque puede verse, y del futuro como algo que está detrás de ellos, porque no se puede ver.

Cualquiera que sea la forma en que se describa el tiempo, la esencia de la flecha del tiempo está en su irreversibilidad. Salvo en algunas raras ocurrencias en el nivel subatómico, los sucesos no pueden invertirse en el tiempo. Esto se hace evidente –y es motivo de risa- cuando una película se proyecta hacia atrás. Nada parece plausible. El agua derramada trepa y se introduce de nuevo en el vaso; los automóviles “deschocan” y los parachoques se alisan; la nieve asciende al cielo, dejando el suelo desnudo.

La irreversibilidad del tiempo está relacionada con la entropía, la tendencia del orden hacia el desorden. El agua derramada y el automóvil abollado están menos ordenados que el agua en el vaso y el automóvil liso. Incluso la nieve que cae desde el cielo está menos ordenada que la nube en la que se originó. De la misma forma que no hay ninguna ley física que diga que el desorden no puede ir hacia el orden, no hay ninguna ley física que diga que los sucesos no pueden suceder al revés. Se trata sólo de que la probabilidad es extraordinariamente baja: tan increíblemente pequeña que es muy poco probable que ocurra.

La probabilidad de que cualquier conjunto de moléculas que haya ido del orden al desorden regrese espontáneamente al orden es muy baja porque hay muchas más configuraciones desordenadas que ordenadas. Si usted derrama el azúcar de un azucarero, el número de configuraciones desordenadas que pueden tomar las moléculas de azúcar en el tablero de la mesa es prácticamente infinito. Pero el número de configuraciones que podrían considerarse ordenadas, tales como una forma esférica o las letras de su nombre, son tan pocas que si usted viera en efecto que el azúcar formaba una bola o deletreaba su nombre, usted pensaría probablemente que estaba sufriendo alucinaciones.

Muy bien; así que no es probable que usted vea la inversión del tiempo en la mesa del comedor. Pero
¿qué pasa en una escala más grande, la más grande posible: el universo? Aunque prácticamente todos los científicos creen que el universo se formó en el Big Bang y ha estado expandiéndose desde entonces, algunos creen que es probable que continúe expandiéndose para siempre, mientras que otros creen que en algún momento colapsará de nuevo sobre sí mismo. ¡Una película proyectada hacia atrás! Semejante colapso sería una forma de inversión temporal. Pero existe otro aspecto de la flecha del tiempo: el cerebro humano y la psicología humana. Tenemos una sensación subjetiva del tiempo; la mayoría de nosotros sentimos que se está moviendo hacia adelante. Así que incluso si llegásemos a estar aquí el tiempo suficiente y sobreviviéramos al colapso del universo, seguiríamos experimentando la secuencia de sucesos tal como corre en nuestro tiempo familiar: hacia adelante.

Leer Mas...

jueves, 19 de junio de 2014

Raymond S. Tomlinson- El inventor del correo electrónico



Las posibilidades que ofrece una interconexión prácticamente instantánea entre ordenadores debió rondarle en la mente a los primeros creadores de máquinas capaces de calcular mucho más deprisa que nuestra mente, sobre todo cuando esas máquinas comenzaron a hacer muchas más cosas que simplemente calcular. Pero las dificultades del lenguaje de programación constituyeron desde el principio una barrera casi infranqueable para que las sofisticadas máquinas que llamábamos inicialmente, con cierta ingenuidad, cerebros electrónicos pudieran estar al alcance de cualquiera.

Muchas mentes geniales consiguieron poner la informática al nivel actual de consumo por personas sin preparación informática previa. Tanto desde su aspecto más técnico –lo que se designa con el anglicismo de hardware-, como en sus sistemas operativos y sus programas de aplicación –el software-. Lo cual requirió innovadores en todas esas ramas de unos saberes nuevos que implicaban a matemáticos, lingüistas, físicos, ingenieros e inventores.

Aun así, el acelerado desarrollo de la informática y sus aplicaciones acabó exigiendo la posibilidad de contactar con personas, al estilo del clásico correo postal pero a través de los ordenadores, de forma asequible y sencilla, y con un alcance universal; algo que pudo ser posible con la llegada de Internet. Es probable que el máximo responsable de que ese tipo de correo informático haya sido no solo posible sino algo incluso banal sea un ingeniero norteamericano apellidado Tomlinson.

Raymond Samuel Tomlinson nació en Amsterdam, una pequeña ciudad del estado de Nueva York, en 1941. Se graduó en Ingeniería Eléctrica a los 22, y después entró como colaborador en el MIT para trabajar en la síntesis electrónica de la voz humana. Corría el año 1965 y uno de los retos de la entonces incipiente industria electrónica consistía en modular de forma electrónica sonidos reales para producirlos mediante sintetizadores. Dos años después entró en la empresa BBN Technologies, una consultora que colaboraba con el MIT en temas de electroacústica. BBN se había hecho famosa en 1963 cuando realizó un análisis acústico del asesinato de Kennedy, ayudando así a localizar de dónde procedían los disparos. Más adelante sería aun más famosa cuando pudo recuperar los 18 minutos borrados de las cintas del caso Watergate, ya en 1972.

El caso es que Tomlinson acabó ocupando enseguida cargos de responsabilidad; en la actualidad es
uno de los máximos responsables de BBN, que acabó convirtiéndose en una de las principales consultoras informáticas del Departamento de Defensa estadounidense. Debido a esa proximidad con la cúpula militar norteamericana la empresa pudo obtener el contrato de creación de los primeros IMP, los ordenadores intermedios que servirían como lo que hoy llamamos routers en el embrión del Internet militar denominado ARPANet (iniciales de Advanced Research Projects Agency Network, “Red de la Agencia de Proyectos de Investigación Avanzados”). Dicha red unía diferentes organismos norteamericanos en los primeros años setenta; los usuarios, que solo eran militares o empresas contratistas de aquéllos, tenían sus ordenadores conectados a alguno de los servidores IMP.

Ray Tomlinson tenía por aquellas fechas el encargo de diseñar programas capaces de enviar ficheros
desde un ordenador a otro, usando aquella primitiva (que por aquel entonces parecía el no va más de la tecnología) red militar. La idea era enviar esos ficheros conectando los ordenadores entre sí, con el fin de aumentar la capacidad de transmisión y el radio de acción de la comunicación. Y así fue como apareció el primer programa rudimentario de lo que hoy llamamos correo electrónico, el SNDMSG; una apalabra impronunciable que en realidad es un sencillo acrónimo de “enviar mensajes”, en inglés send message.

Aquel primer programa tenía un problema muy serio: trabajaba como los actuales e-mails, pero sólo podía ser usado en una máquina. La gente que trabajaba en esa máquina podía dejarle los mensajes a otros usuarios, almacenados en una especie de buzón de la red, que eran unos sencillos directorios con el nombre del destinatario. Parece muy poco útil, desde la perspectiva actual, pero hay que considerar que hace cuarenta años había poquísimos ordenadores, y se trataba de máquinas enormes que ocupaban habitaciones enteras. Por otra parte, enviar archivos informáticos a través de los impulsos eléctricos del teléfono exigía hacer compatibles ambos sistemas; algo obviamente complicado y que requirió mucho ingenio…y tiempo.

Poco después, Tomlinson puso en marcha otro proyecto, CPYNET (acrónimo e copy network; o,
quien sabe, brillante y divertido juego fonético con spynet: “espía de la red”), un programa experimental para transferir ficheros desde una máquina a otra conectada a través de un cable telefónico. De hecho, en cuanto consiguió un programa que pudiera hacer tal cosa, hacia 1971, enseguida se dio cuenta de su potencial: bastaba unir las capacidades del sistema SENDMSG con la posibilidad de envío de archivos de CPYNET, para poder remitir mensajes de todo tipo de ordenador a ordenador –aunque éstos estuvieran muy alejados-, gracias a la conexión de ARPANet por línea telefónica.

Las primeras pruebas consistieron en el envío de palabras del tipo QWERTYUIOP, las letras superiores del teclado de una máquina de escribir. En la dirección del envío utilizó el símbolo @ para separar el nombre del destinatario del correo de la dirección del ordenador. Fue, de hecho, el primer correo electrónico, aunque luego Tomlinson confesaría que en aquel momento aquello le pareció curioso, pero no demasiado útil.

El uso del signo arroba, @, fue bastante casual. En inglés era el símbolo comercial de “at” utilizado, por ejemplo, para aclarar el coste por unidad del contenido de un recipiente grande. Por ejemplo, si un barril de cerveza contenía 50 galones a un precio de 4 dólares el galón, simbólicamente se escribía 50gal @ 4$/gal. En España era el símbolo de la arroba, unidad de peso de origen árabe aproximadamente igual a 25 libras, la cuarta parte de un quintal. Equivaldría, aunque su valor variaba según las regiones, a unos 12 kilos.

Más adelante se crearon otros protocolos bastante más específicos y simplificados. Y ya en los años ochenta, ArpaNET se convirtió en Internet, con el nuevo protocolo TCP/IP. El auge de los ordenadores personales, la web de Tim Berners-lee, ya a finales de los ochenta, y la posterior expansión de la microinformática y la telefonía inteligente han hecho del correo electrónico que diseñara Tomlinson hace cuarenta años el auténtico protagonista de la comunicación interpersonal a través de Internet. Lo que incluye ahora incluso a sistemas aún más sofisticados para enviar mensajes a grupos de amigos (por ejemplo, Facebook o Twitter y, en telefonía móvil, Whatsapp).

Ray Tomlinson ocupa el puesto de ingeniero principal de BBN desde 1987. Ha desarrollado para su empresa en estos últimos decenios diversas mejoras en protocolos de comunicaciones, servidores de información en vídeo y sistemas de teleconferencias multimedia, además de programas militares de logística y programas de seguridad en el floreciente comercio electrónico en red.

Leer Mas...

lunes, 16 de junio de 2014

¿Qué pasa si un astronauta se desprende de la nave durante un paseo espacial?




Nunca ha sucedido, y la NASA confía en que nunca suceda. Pero, por si acaso, los astronautas no suelen flotar libremente en el espacio. En el exterior de la Estación Espacial Internacional siempre permanecen anclados a la nave con un amarre de acero dotado de una fuerza de tracción de 499 kg. Si el paseo espacial es de dos personas, a menudo van amarradas entre sí.

Si los amarres fallaran, los astronautas tienen un asombroso plan B: Cinturones cohete. Cada uno de ellos lleva un SAFER (Ayuda Simplificada para Actividades Extravehiculares de Rescate), una mochila dotada de un sistema de eyección de nitrógeno incorporado que puede redirigirlo de nuevo hacia la estación.

Evidentemente, el SAFER solo es operativo si el astronauta está consciente. Pero, ¿y si recibe un golpe en la cabeza, se desprende el amarre y no puede accionar la mochila? El brazo robótico de la estación no suele estar al alcance del astronauta, y se mueve demasiado despacio como para remolcar a alguien. Los vehículos Soyuz necesitan un día entero para ponerse en marcha y desacoplarse. Para entonces, los filtros de dióxido de carbono que hay en el interior del traje se habrán agotado, y el astronauta habrá muerto asfixiado. Y el ISS no puede redireccionar su cohete de posicionamiento con la suficiente rapidez como para atrapar al astronauta.

En el peor de los casos, la única opción de rescate es que un segundo astronauta una los extremos de varios amarres, los fije a la estación y utilice su SAFER para llegar al encuentro de su compañero y conducirlo hasta la nave. Ciertas condiciones podrían facilitar el rescate. Si un astronauta flotase más o menos en ángulo recto a la órbita de la nave, las leyes de la dinámica orbital (demasiado complejas para explicarlas aquí) harían que volviese a la estación al cabo de una hora.

Leer Mas...

miércoles, 11 de junio de 2014

TRATAMIENTO DE AGUAS RESIDUALES – Medios de depuración


El agua es un elemento indispensable para la vida. Por desgracia, está desigualmente repartida entre las distintas poblaciones humanas: mientras media humanidad se muere de sed, las modernas sociedades industriales la derrochan torpemente. Pero cuanta más agua utilizamos, más agua convertimos en desecho, lo que supone la contaminación de las aguas que vamos a seguir necesitando. Los distintos sistemas de tratamiento de aguas residuales intentan que éstas no envenenen, poco a poco, aquellas que necesitamos para vivir.

En tan sólo un par de siglos, el crecimiento de la población junto con el imparable desarrollo industrial han aumentado de manera espectacular el volumen de aguas residuales, aquellas capaces de transportar residuos sólidos o líquidos derivados de actividades humanas tanto de tipo industrial como doméstico. El destino de las aguas residuales suele ser ríos y lagos, aguas superficiales desde las cuales, por filtración, se alcanzan las subterráneas. De esta manera, la contaminación avanza inexorablemente, llegando prácticamente a cualquier rincón.

El Po ha visto enfermar sus aguas en apenas tres décadas. Actualmente, se calcula que, además de lo aportado por los desagües urbanos, alrededor de 65 toneladas de mercurio, 243 toneladas de arsénico, 485 de plomo y otros metales pesados y diversos productos sintéticos de difícil degradación entran en este río cada año.

La gravedad del problema generado por las aguas residuales depende de un buen número de aspectos, uno de los cuales es el de la llamada demanda biológica de oxígeno. Las aguas residuales contienen una cantidad importante de materia orgánica aportada por efluentes domésticos o industriales. Su descomposición por las bacterias aerobias –aquellas que “trabajan” consumiendo oxígeno –provoca situaciones de anoxia; es decir, una disminución del contenido de oxígeno que, en la mayoría de los casos, ocasiona la muerte de una buena parte de la vida acuática. Cuando el oxígeno se agota, la descomposición de la materia puede seguir realizándose a través de las bacterias anaerobias, pero se origina mal olor y color en sus aguas.

El mar Mediterráneo, por ejemplo, ha adquirido su particular equilibrio a través de sus 5 millones de años de historia. Es un mar pobre en nutrientes debido en parte a la temperatura relativamente alta de sus aguas, que hace que el oxígeno no se disuelva con tanta eficacia como lo hace en los mares fríos.

Pero las aguas residuales de las ciudades llegan a él a través de las cloacas, generalmente sin depurar, con sus correspondientes aportes de fosfatos y nitratos –nutrientes esenciales-, y provocan un fenómeno conocido como eutrofización. Este aporte extra de nutrientes propicia un crecimiento anormal tanto de las algas unicelulares –el fitoplancton- como de las algas macroscópicas. Un
aumento de las primeras enturbia el agua, hecho que impide a los rayos solares transmitir su energía a los organismos fotosintéticos que viven a mayor profundidad, lo que supone su extinción. Al morir y descomponerse tanto las algas pluricelulares como las plantas superiores adaptadas al mar, la demanda de oxígeno de las bacterias descomponedoras aumenta, lo que origina un déficit de consecuencias mortales para la mayor parte de la vida acuática.

El crecimiento desmedido de población –sobre todo la que se asienta junto a las costas-, unido a la escasez de recursos económicos para un desarrollo urbano menos agresivo, ha supuesto la puesta en servicio de cauces semejantes a gigantescas fuentes cuyos caños vierten sus aguas contaminadas de manera incesante. Cerca del 80% de las aguas residuales no han sido tratadas cuando llegan al mar.

Por desgracia, muchas estaciones depuradoras en las que se han invertido considerables sumas de dinero han fracasado a consecuencia de una mala manipulación y de un coste de mantenimiento muy elevado.

Existen, no obstante, técnicas de bajo coste que permiten buenos resultados de depuración. El lagunaje es una técnica basada en la retención de las aguas en lagunas artificiales para producir transformaciones biológicas –a través de bacterias específicas- que afectan a las sustancias en suspensión. Estas aguas han de ser estancadas para evitar cualquier clase de fuga, lo que se consigue utilizando materiales de tipo arcilloso en el recubrimiento del fondo y de los laterales. La ventaja de esta técnica es que requiere poco o ningún gasto energético. Además, está basado en un proceso natural que puede adaptarse al medio agrícola al utilizarse el lodo resultante como abono.

Normalmente, se disponen varias balsas en serie. El agua depurada puede utilizarse en estanques destinados al cultivo de peces aptos para consumo humano, lo cual da una idea de la calidad de depuración realizada por estas técnicas.

Los filtros verdes son zonas agrarias en las que las aguas residuales son vertidas con objeto de
conseguir su depuración a través de una compleja cadena de procesos físicos, químicos y biológicos. Por lo general, estas áreas están pobladas por árboles capaces de vivir en ambientes muy húmedos, como los chopos.

De la materia orgánica aportada por las aguas se sustenta la comunidad biológica del terreno –desde las bacterias hasta los árboles-, obteniendo de ella la energía necesaria para vivir. Lógicamente, el agua que llegue a un filtro verde no puede contener componentes industriales que afecten negativamente a esta comunidad.

Existen técnicas de tratamiento que, aun consumiendo energía en el proceso, ésta no supone un gasto demasiado importante. Los contactores biológicos son un curioso sistema de depuración en el que diversos cilindros o discos con un radio de 1 o 1,5 metros albergan, sobre su superficie, una colonia de bacterias de hasta 2 mm de espesor.

Los cilindros, al ser rotatorios, sumergen a las bacterias en el agua que va a ser tratada durante un 50% del tiempo. Durante este periodo, estos microorganismos realizan su labor de limpieza, mientras que, durante el tiempo restante, la rotación del cilindro saca a la colonia fuera del agua para que se oxigene y se recupere. Estos cilindros o discos, que consumen unos 8 kilovatios a la hora por persona y año, poseen una comunidad biológica sensible tanto a los cambios de temperatura como a las posibles precipitaciones, por lo que conviene instalarlos bajo una cubierta protectora.

Adecuar las aguas residuales a cualquier tratamiento exige una serie de pasos para separar de las aguas aquellos elementos que pudieran obstruir o inhibir las operaciones que han de realizarse en las estaciones de depuración. Durante el cribado, las aguas que han de ser tratadas pasan por una serie de barrotes con una separación de entre 5 y 10 cm, que detienen las piedras o los trozos de madera superiores a ese tamaño. Tras las cribas, los desarenadores separan partículas de tamaños superiores a 0.25 mm.

Los desengrasadores separan el agua de las grasas y se utilizan para evitar posteriores
envenenamientos de ulteriores procesos, ya que una capa de aceite puede llegar a aislar el agua de los efectos oxidantes del aire. Normalmente, la separación de ambas sustancias se consigue mediante un proceso de aireación. El aire se adhiere a las partículas de aceite, aumentando la flotabilidad de éste. Así se consigue una especie de manta en la superficie, que puede retirarse con mayor facilidad.

Nuestro planeta posee una característica que no tiene ningún otro conocido: su superficie está cubierta, en más de un 70%, de agua. Seguramente, esto debe parecer una broma pesada para todos aquellos seres humanos que sobreviven penosamente con una escasez que, en muchas ocasiones, los lleva a la muerte. Este hecho debería llevarnos a una seria reflexión y a una utilización del agua mucho más racional y más inteligente.

Leer Mas...

sábado, 7 de junio de 2014

¿Cuánto tardarían las pirañas en comerse a una persona?


Después de un viaje a la selva amazónica, el presidente Teddy Roosevelt dijo haber visto a un grupo de pirañas devorar una vaca en pocos minutos. Tuvo que haber sido un buen banco de pirañas o una vaca muy pequeña. Se necesitarían entre 300 y 500 pirañas para devorar toda la carne de un humano que pesara 80 kg en cinco minutos. Pero, ¿podría ocurrir alguna vez?

La cuestión es que las pirañas tienen mala fama. Sí, son unos bichos carnívoros con los dientes afilados. Es como si tuvieran la boca llena de escalpelos pero, aun así, los casos de pirañas que muerdan a humanos son extremadamente raros. La mayoría de ellas se contentan con otros peces y con plantas.

En general, si no incordias a este pez dentudo, él hará lo mismo por ti. Pero si decides darte un baño en el Amazonas, asegúrate de no tener ninguna herida abierta porque el olor de la sangre atrae a las pirañas.

Leer Mas...

¿La gente guapa tiene siempre bebés guapos?


Los hijos de las estrellas cinematográficas pueden heredar la fortuna y los envidiables contactos de sus padres, pero el aspecto atractivo no está garantizado. Y es que los miembros mejor adaptados para la reproducción, que normalmente coincidirían con los más sexys, pueden dar lugar en realidad a la descendencia peor adaptada.

Parece que la culpa sería de los genes que guían el apareamiento, los llamados “sexualmente antagonistas”. Aunque beneficien al éxito reproductivo de uno de los sexos, pueden dar al traste con las posibilidades reproductivas del otro.

Si los varones mejor adaptados transmiten sus genes a las hijas, o a la inversa, los retoños tendrán menos éxito en su búsqueda de pareja. Sorprendentemente, los hijos de padres considerados los más atractivos de cada sexo –se ha estudiado el fenómeno en moscas de la fruta, pero sí, hay moscas más atractivas que otras-, eran los peor adaptados.

Aunque los científicos no saben exactamente cómo funcionan estos genes en los seres humanos, el estudio ofrece una explicación al hecho de que una pareja muy atractiva pueda tener hijos poco atractivos. Fijémonos en los rasgos faciales. Una mandíbula rotunda y masculina, atractiva en un hombre, no es demasiado apetecible en una chica.

Leer Mas...

Los rascacielos – la hermanación entre arquitectura e ingeniería.


La arquitectura moderna de los rascacielos, que tan acostumbrados estamos a ver en nuestros días, encuentra su desarrollo a lo largo de todo el siglo XX. Pero todos estos edificios surgieron tras un largo y difícil proceso de experimentación que comenzó a finales del siglo XIX con la denominada Escuela de Chicago, y que aún ahora, a comienzos del siglo XXI, parece continuar.

La arquitectura moderna comienza a formularse a finales del siglo XIX y principios del XX como reacción al caos estilístico dominante. Si los primeros años del XVII significaron la vuelta a las formas clásicas, cuando lo clásico dejó de servir como punto de referencia nacieron los revivals, la imitación de los estilos del pasado, se planteó la necesidad de crear un estilo completamente nuevo, apoyado en los nuevos materiales y procesos constructivos, que fuera válido para nuevas estructuras. Eran los años de revolución industrial, que proporcionó nuevos métodos y materiales constructivos, pero que también planteó nuevos problemas. La nueva sociedad industrial demandaba nuevos edificios para sus nuevas necesidades, se requería un nuevo estilo que fuera útil también para la construcción de fábricas, estaciones de ferrocarril o almacenes, para los que no se tenía modelo alguno. Los estilos pasados no eran adecuados para estas necesidades.

Con esta motivación, comenzó una serie de discusiones teóricas acerca de cómo debía ser la nueva arquitectura. Había que basarse en los métodos existentes y doblegarse a las exigencias de la función del edificio; sus formas debían ser depuradas, eliminando todos los restos de lo histórico, y, además, debía reflejar los adelantos humanos y resolver las nuevas situaciones creadas por la industrialización.

Fue en este clima de debate en el que nació el denominado en un principio edificio en altura, lo que hoy se conoce como rascacielos. Si se tuviera que definir estas nuevas construcciones, se haría con tres características esenciales: el edificio en altura es aquel que tiene ascensor, estructura metálica de más de tres pisos y sistema anti-incendio.

El ascensor fue inventado en Chicago (EE UU) en 1850, y, tres años más tarde, se dio a conocer en la Feria de Nueva York. Los primeros ascensores eran plataformas de carga; más adelante se adaptaron para personas. Hacia 1860, algunos hoteles y grandes almacenes comenzaron a incluir ascensores de pasajeros realizados en hierro. A partir de 1875, los ascensores se convirtieron en algo común en Chicago, tanto que los edificios que lo tenían se denominaban elevator building. Los primeros ascensores eran de vapor; más tarde pasaron a ser hidráulicos; mientras que los eléctricos no se utilizaron en Chicago hasta 1887. El precio de los inmuebles con ascensor comenzó a subir, de manera que los pisos altos se convirtieron en los más caros. El impacto del ascensor fue enorme, lo que ayudó a que la ciudad se extendiera de forma vertical y no horizontalmente.

Antiguamente, los edificios se levantaban a partir de una estructura de madera y un recubrimiento
también de madera o de piedra. Más adelante, se comenzó a utilizar el hierro, lo cual no eliminó el riesgo de incendios, ya que al igual que la madera, el hierro era combustible si no tenía un revestimiento adecuado. El nuevo sistema anti-incendios consistió en cubrir la viga metálica con un revestimiento de cerámica a prueba de incendios.

El uso del hierro constituyó uno de los elementos más innovadores de la nueva arquitectura traída con la revolución industrial. Se habían descubierto ya las ventajas del uso del hierro en la arquitectura, puesto que incluso pequeños elementos de hierro eran capaces de sostener la misma carga que un pilar de piedra, de manera que el edificio podía crecer en altura sin miedo a su derrumbamiento. Así se había demostrado con la Torre Eiffel, un prodigio arquitectónico realizado por entero en hierro.

La estructura metálica comenzó a emplearse a partir de 1850, sobre todo en los frentes de los edificios. Esto permitía que el muro fuera más fino y se pudieran abrir más ventanas sin riesgo de derrumbamiento, de forma que entraba más luz en el interior. Aun así, todavía a finales del siglo XIX, las fachadas eran de hierro, pero las vigas eran todavía de madera o hierro sin revestir.

La confluencia de todas estas novedades constructivas determinó la creación de edificios cada vez con una mayor altura. Los pisos se multiplicaban gracias al empleo de la estructura metálica, que sostenía el peso de los muros, a la vez que permitía que se abrieran vanos. Lógicamente, estos edificios no tenían ningún sentido sin un ascensor que permitiera el acceso a las plantas superiores. Y junto a esto, el nuevo sistema anti-incendio permitiría, mediante la utilización de materiales incombustibles, la eliminación de casi todo riesgo de incendio, que era muy alto en los edificios realizados en madera.

Chicago fue el lugar donde se plasmaron primero estas novedades constructivas. Tras su fundación en
1780 y gracias a su situación privilegiada a orillas de los Grandes Lagos, la ciudad fue rápidamente creciendo no sólo en población, sino también en extensión. El 8 de octubre de 1871 se declaró un incendio que arrasó prácticamente todo Chicago. Este espectacular incendio quemó todos los edificios de la ciudad, que estaban construidos según el sistema del balloon-frame, una estructura hecha con vigas de madera unidas con clavos que se levantaba sobre una estructura de cemento.

Inmediatamente comenzó la reconstrucción de la ciudad. A partir de los años 80, los edificios comenzaron a sobresalir en altura, a partir de cinco pisos, buscando su rentabilidad. Los edificios en altura significaban el nacimiento de un nuevo vocabulario y una nueva estética y, por lo tanto, de una nueva imagen urbana. Esto marcó la eclosión arquitectónica de la ciudad y el establecimiento de la denominada Escuela de Chicago, constituida por una serie de innovadores arquitectos que emplearon en sus construcciones todas las novedades a su alcance.

El boom del edificio en altura, que comenzó entre 1880 y 1885, fue posible gracias a algunas invenciones técnicas. En primer lugar, la estructura de esqueleto en acero, perfeccionada sobre todo por William Le Baron Jenney en el Letter Building (1879) y el Home Insurance Building (1884) –considerado éste el primer rascacielos de la historia-, que permitió aumentar la altura y abrir grandes ventanas. Por otra parte, se propusieron nuevos sistemas de cimentación en piedra, que en 1894 se sustituyeron por el cemento.

La primera generación de arquitectos de Chicago fue la encargada de aplicar en sus edificios todas estas novedades, desarrollando los nuevos sistemas y mejorándolos. Chicago se convirtió en el centro de experimentación de los nuevos edificios en altura. Junto a Le Baron Jenney, Henri Hobson
Richardson fue uno de los más influyentes arquitectos de la ciudad, donde construyó en 1886 el primer edificio de grandes almacenes, el Marshall, Field & Co Building. A partir de entonces, los edificios comenzaron a superar los 10 pisos. En 1891, los arquitectos Burnham y Root construían el Monadrock Building, de 16 pisos, pudiéndose permitir ya realizar un juego de líneas curvas en la fachada a través de las ventanas. Fueron precisamente estos arquitectos los que realizaron el edificio más alto de Chicago en aquella época: el Masonic Temple (1892), que llegó a los 22 pisos y los 90 metros de altura.

Otro arquitecto innovador fue Louis Sullivan, que se planteó que la característica constitucional de un rascacielos radicaba en la existencia de muchos pisos iguales. De hecho, prescindiendo de uno o dos pisos inferiores y del último, los pisos intermedios eran tantos que no se podían diferenciar. El reto estaba, por lo tanto, en la superación del ritmo repetitivo de los pisos. Para solucionar este
problema, Sullivan propuso tratar la zona intermedia de forma unitaria, destacando las líneas verticales, para diferenciarla así de la zona del basamento y del ático, que son horizontales. De esta forma nació el verticalismo, característico de los edificios de Sullivan, que se manifestó en los Wainwright (1890-91) y Guarantee (1904), o en los almacenes Carson, Pirie & Scott (1899-1904).

Durante el periodo de prosperidad económica que se extendió entre la Primera Guerra Mundial y la crisis de 1929, la producción de edificios fue muy intensa y las ciudades americanas cambiaron de aspecto. La actividad de la ciudad se concentraba en el centro, y alrededor de él se situaban los barrios residenciales, que servían como lugar de ocio y descanso de sus habitantes. Fue en el centro de las ciudades donde se condensó la construcción de los rascacielos, edificios derivados de los antiguos tipos de edificios comerciales planteados en Chicago.

El problema que se les presentó a todos los arquitectos a la hora de construir rascacielos derivaba del
gran número de ventanas, que desde lejos daban a estos bloques el aspecto de inmensas colmenas. Esto se resolvió agrupando las ventanas en sentido vertical, mediante potentes nervaduras que acentuaban el verticalismo. Este fue el problema que Sullivan se planteó, pero que no resolvió satisfactoriamente.

En esta época fue Nueva York, cada vez más rica y próspera, la que recogió el testigo de Chicago en cuanto a la construcción de rascacielos. El deseo de tener las oficinas en el barrio bancario y el afán de propaganda de las grandes empresas de la ciudad hicieron que, a principios del siglo XX, las edificaciones comenzasen a multiplicar su número de plantas. Gracias al empleo del hierro a gran escala, al hormigón armado, al vidrio y a la peña viva del subsuelo de Manhattan –la parte central de la ciudad-, los arquitectos neoyorquinos pudieron elevar sin temor gigantescos edificios. Y también, gracias a la electricidad, pudieron iluminarlos y hacerlos accesibles con los ascensores.

En 1916, se publicaba en Nueva York, la Ley de Zonas, que obligaba a respetar una cierta proporción entre la altura del edificio y la anchura de la calle. En términos generales, el edificio no podía salir de una pirámide ideal cuyos lados inferiores estaban en el eje de la calle, lo que produjo un retranqueamiento progresivo de los cuerpos más elevados.

El edificio Flatiron (1900) tenía sólo 20 plantas, pero presentaba una estructura curiosa en forma triangular –como la de una plancha, como reza su nombre-, debida a que estaba situado en la intersección de dos calles. El Woolworth Building (1908), obra de Cass Gilbert, con 45 plantas y 140 metros de altura, se convirtió en el edificio más alto del mundo cuando fue erigido en un estilo neogótico. Igualmente con un estilo gótico se construyó en 1922 el edificio del diario Chicago Tribune, un proyecto a cuyo concurso se presentaron las ideas más innovadoras del momento, pero que optó por la vuelta a lo clásico.

En los años veinte y treinta del siglo XX, los rascacielos se comenzaron a decorar buscando un estilo
que los diferenciara de los demás. El Chrysler Building, construido entre 1928 y 1930 por William Van Allen, con 319 metros de altura, se alzó como uno de los edificios más bellos de la ciudad, ya que en él confluían ornamentaciones art-déco, motivos expresionistas y elementos propios de la marca de coches que lo promocionó.

En 1931, la altura del Woolworth fue ampliamente superada con la construcción del Empire State Building, diseñado por la firma de arquitectos Shreve, Lamb & Harmon Associates. Con sus más de 380 metros y 102 pisos, se convirtió en el edificio más alto del mundo y en el más emblemático de la ciudad. Desprovisto ya de los elementos neogóticos, su enorme estructura retranqueada se remató más adelante en la parte superior con un observatorio y una antena de telecomunicaciones.

Mies Van der Rohe, arquitecto alemán, diseñaba en 1919 y 1922 un proyecto para un edificio de oficinas en Berlín, además de otro del mismo tipo en hormigón armado. Estos proyectos no se llevarían a cabo, pero influyeron decisivamente en la arquitectura moderna no sólo europea sino sobre todo norteamericana. Al retranquearse los soportes de la fachada, y gracias al empleo del aluminio, el muro se convertía en una superficie de cristal sólo interrumpida por delgados listeles.

En 1938, el arquitecto fue llamado a EEUU como profesor de arquitectura. Todas sus ideas arquitectónicas las llevaría a cabo en la ciudad de Chicago, donde realizó el edificio de apartamentos de Lake Shore Drive (1951), con una estructura de acero cubierta por paredes uniformes de cristal, donde todo depende de unas pensadísimas proporciones.

En 1959, realizaría su rascacielos más importante en Nueva York, el Seagram Building. El edificio
había sido construido con medios excepcionales: partes metálicas de bronce, paneles de mármol pulido y cristal rosado. Su construcción fue carísima, no sólo por los materiales, sino también porque se quiso dejar libre la pequeña plaza situada frente al edificio, con lo que se renunció a buena parte de lo que se podía construir sobre el terreno. El arquitecto fue muy criticado por el carácter purista de su edificio, por la ausencia de elementos decorativos, en una estructura recubierta por un muro-cortina de vidrio. Sin embargo, el Seagram se convirtió en un prototipo que sirvió de base para muchas otras realizaciones posteriores.

En los años inmediatos a la posguerra se buscó una cierta renovación en los rascacielos, siendo preciso encontrar una tipología distinta de la de los grandes edificios de oficinas en forma de torre. El primer intento se produjo en la construcción de las sede de las Naciones Unidas en Nueva York. Para ello se nombró en 1947 una comisión consultiva de varios países, en la que figuraba el francés Le Corbusier,
que realizó un proyecto en tres partes que incluía la construcción de dos rascacielos perpendiculares con forma de paralelepípedo. El edificio fue finalmente realizado por los arquitectos Harrison y Abramowitz entre 1948 y 1950, quienes acentuaron aún más los contrastes propuestos por Le Corbusier. Fueron estos dos arquitectos los que en 1952 realizaron en Pittsburgh el edificio del ALCOA, completamente revestido de paneles de aluminio con forma de diamante rehundido.

A partir de 1945, los rascacielos se caracterizaron por el eclecticismo de formas, sin una tipología
única, estando inmersos en una continua experimentación de formas y materiales, en un intento por resultar cada vez más novedosos y atractivos. Un elemento casi constante fue la utilización del muro-cortina que ocultaba la estructura interior del edificio, siguiendo las directrices de Mies Van der Rohe, una fachada totalmente realizada con paneles ligeros. En ocasiones se volvió a los elementos clásicos y los estilos del pasado. Sin duda, el aspecto más desconcertante de esta nueva arquitectura fue la rapidez con que cambian las cosas, lo que propicia una continua búsqueda de elementos nuevos y la no-repetición.

En 1973, el Empire State Building sería desbancado como edificio más alto de Nueva York por las dos torres gemelas de World Trade Centre. El arquitecto Yamasaki ideó la construcción de dos
rascacielos completamente iguales con 107 pisos, que superaban la altura de cualquier otro edificio de la ciudad.

La constante innovación es también la característica principal de los rascacielos construidos hoy en día. Se busca sacar el mayor partido de los materiales y la tecnología, que se encuentra en continua evolución. Se busca lo nuevo, lo nunca antes realizado, por eso no hay terreno para la repetición. Actualmente, los rascacielos pueden encontrarse no sólo en Nueva York o Chicago, sino en la mayoría de las ciudades desarrolladas.

Leer Mas...

miércoles, 4 de junio de 2014

Filosofía y Epistemología - La diferencia entre saber y conocer


El amante desengañado, el médico que inquiere los síntomas de su paciente y el físico que acelera partículas –que no puede ver ni tocar- para ver si se descomponen en otras- que tampoco podrá ver ni tocar- están aplicando tácticas comunes. Estas tácticas, y su legitimidad, es lo que analiza una de las ramas principales de la filosofía: la epistemología.

La epistemología comienza en el momento en que el hombre se da cuenta de que las cosas no son lo que parecen. Apariencia y realidad son dos cosas bien distintas… hasta que intentamos definirlas. Éste ha sido, desde su origen, uno de los problemas centrales de la filosofía. La otra cuestión nace de esa dificultad: ¿qué es el conocimiento?

Tiene que ver con la percepción, pero no es idéntico a ella. Los sentidos nos dicen que el Sol gira
alrededor de la Tierra una vez al día, que el palo sumergido en un vaso de agua está partido y que la materia está llena. Pero la realidad contradice a los sentidos. La Tierra es la que gira alrededor del Sol, la materia es un 99% de vacío y el palo en el vaso no está partido, aunque queda pendiente el cómo determinar su verdadero estado.

De hecho, todos aseguraríamos que el palo está entero, pero es muy difícil reconstruir los pasos que hemos dado para llegar a esa certeza. Si sacamos el palo del agua, ¿cómo asegurar que no es el agua la que lo está partiendo? Podemos recurrir al tacto, y él seguramente nos dará la sensación de su continuidad, pero ¿exactamente qué motivo hay para fiarnos más de un sentido que de otro? Las manos no son menos falibles que los ojos: si una persona calienta una mano, enfría la otra sumerge ambas en un mismo líquido a temperatura media, una mano dirá que el agua está fría y la otra, que caliente. Lo que habría que corregir es el concepto de caliente y frío: está frío con respecto a una mano y caliente con respecto a la otra; el problema aquí consiste en saber recibir y ordenar los datos.
En cuanto a los sentidos, la respuesta es que ninguno por separado puede dar una información completamente fiable, que necesitan corregirse unos a otros y que todos han de ser controlados por eso que llamamos razón, que por su parte, lamentablemente –quizá para dar trabajo a los epistemólogos a lo largo de la historia- también está sujeta a error.

Otro problema básico es cómo saber lo que ocurre en la mente de otras personas. Saber, por ejemplo, si las sensaciones que tienen son equivalentes a las nuestras. Podemos sufrir una fractura del brazo, después ver a otra persona con la misma fractura y, por tanto, deducir lo que está padeciendo. Pero no es una deducción del todo legítima, pues no es posible comparar ambos dolores: entre otras cosas, no es posible averiguar si esa persona es más o menos sensible al dolor o, incluso, si sólo está fingiendo.

Tampoco es posible conocer los contenidos de la mente ajena: si está realmente enamorada de
nosotros o si eso a lo que llamamos “rojo” corresponde en ella a la misma sensación. El conocimiento de la realidad, de la que nuestra mente y la de los demás forma parte, ha sido un tema central en la ética, la estética, la lógica, la filosofía del lenguaje –discutiendo la relación entre el concepto y lo que se expresa-, la filosofía de la ciencia -¿qué método usar para no dejarse engañar por las apariencias?- y la metafísica –en su búsqueda de la naturaleza esencial del mundo-.

Saber cómo, saber dónde, saber por qué, conocer a alguien, saber algo… Durante el siglo XX, los filósofos han estudiado con detalle qué significan estas expresiones. Bertrand Russell (1872-1970) llamó conocimiento por experiencia a las expresiones “conocer a Pedro” o “conocer Roma”. Uno no puede decir en pleno siglo XX “conozco a Galileo Galilei”, pues no ha tenido trato con él. Para hablar de Galileo recurriría al que Russell llamó “conocimiento por descripción”.

Russell intentaba en el fondo demostrar que el sistema de conocimiento está organizado de forma que unas formas del conocimiento dependen de otras. Las frases del tipo “sé cómo…” indican generalmente una habilidad que la persona tiene: por ejemplo, nadar o escribir con los cinco dedos sobre un teclado. Uno puede tener dicho conocimiento sin necesidad de que sea directamente expresable, pues no puede comunicar a otro cómo escribir a máquina: puede hacerle pasar por los mismos ejercicios que lo han llevado a desarrollar la destreza, pero no puede transferirla.

Lo contrario ocurre con las frases del tipo “saber que…”. Uno puede saber que tal perro es peligroso, y puede comunicarlo directamente sin necesidad de enfrentar a la otra persona con el animal. Es el llamado “conocimiento proposicional”. El filósofo Gilbert Ryle (1900-1976) dijo que, dadas esas diferencias, muchos casos de “saber cómo…” no pueden ser reducidos a “saber que…” y, en consecuencia, los tipos de conocimientos son independientes unos de otros.

Las distinciones genéricas entre los tipos de conocimiento son, básicamente, las siguientes:

-Incidental-disposicional, que se aplica tanto a casos de “saber que…” como a “saber cómo…”: uno
puede decir que un terrón de azúcar se disolverá si se sumerge en agua –disposición- y puede comprobar que efectivamente se disuelve si se sumerge –incidente-.

-A priori-a posteriori: un conocimiento a priori es, por ejemplo, “todas las esposas están casadas”; un conocimiento a posteriori es “perro peligroso”; de las esposas podemos decir, sin conocerlas a todas, que están casadas, porque si no están casadas no son esposas; pero para decir lo mismo del perro hay que haber tenido algún trato con él, que haya atacado a alguien –eso sería para el filósofo una “investigación empírica-.

-Necesario-contingente: un conocimiento es necesario si es verdad bajo todas las circunstancias –“todas las esposas están casadas”- y es contingente en caso contrario: “perro peligroso”, posiblemente para el intruso, pero no para el dueño. Muchas proposiciones necesarias son también a priori, y muchas proposiciones a posteriori son contingentes.

-Analítico-sintético: una proposición es analítica si el contenido del predicado puede ser deducido del sujeto: “todas las esposas están casadas” es un argumento analítico porque de “esposa” se deduce “está casada”; un término es “sintético” en el caso contario: por ejemplo, de “perro” no podemos deducir “peligroso”; algunas proposiciones analíticas son a priori y la mayoría de las proposiciones sintéticas son a posteriori. Estas distinciones fueron usadas por Kant (1724-1804) para elucidar una cuestión esencial en la epistemología: ¿qué juicios sintéticos a priori son posibles? tema central de su “Crítica de la razón pura”.

-Tautológico-significativo: una proposición es tautológica si sus constituyentes se repiten a sí mismos o pueden ser reducidos a términos de “a=a”; una proposición es significante si da información nueva.

-Lógico-de hecho: “si A, entonces B” es una construcción lógica: si “esposa”, entonces “casada” es
su aplicación; las proposiciones “de hecho” suelen ser, como en “perro peligroso”, a posteriori, contingentes y sintéticas. Saul Kripke (1940) argumentó que todas estas sentencias son necesarias, incluso las más triviales como “un perro es un perro”. Un ejemplo de esto es la astronomía antigua, que creía que la estrella de la mañana y la estrella de la tarde eran dos entidades diferentes: los planetas Venus y Mercurio. El descubrimiento de que a veces Venus salía por la mañana y otras por la tarde, y que lo mismo ocurría con Mercurio, era algo más que “Venus es Venus, Mercurio es Mercurio y Venus no es Mercurio”: la determinación de que “A es igual a A” y “A no es igual a A” es, al fin y al cabo, el principal objetivo de la ciencia y el conocimiento.

Leer Mas...