20130227

La "Learning Pyramid"

La "Learning Pyramid"

Les aseguro que intento mantenerme relajado y educado en las discusiones pedagógicas, pero a veces me rindo al pronto que me domina y acabo echando sapos y culebras por la boca. Este fue el caso cuando recientemente alguien hizo mención en un debate de la "pirámide del aprendizaje" con la intención de demostrar que la escuela tradicional no enseña nada porque se basa en el papel transmisor del maestro, mientras que la escuela constructivista, activa, que trabaja por proyectos, es la repera. A la gente que utiliza estos argumentos no les puedes preguntar por qué si es tan buena hay tantas que obtienen resultados mediocres, porque entonces te critican por resultadista y se quedan tan anchos. Así que hay que criticarlos por clasistas, que eso les escuece mucho.

Si ustedes quieren buscar por internet información sobre la "learning pyramid" se encontrarán con diferentes versiones de la misma (varían los porcentajes asignados a cada acción e incluso el orden de las acciones) y con abundantes artículos a favor y en contra.

Yo no tengo inconveniente en aceptar los argumentos a favor. Parece que tiene sentido defender que uno comprende bien las cosas cuando se ve en la situación de discutirlas ante un público crítico. El problema es que para demostrar, discutir, practicar y, sobre todo, enseñar algo a alguien, tienes que tener algo que demostrar, discutir, practicar o enseñar. Si no es así, te limitas a enseñar bobadas.

Es decir, la escuela progre, tan moderna ella, cae tan contenta en la trampa del famoso "Efecto Mateo". Recuerden el Evangelio: "Al que tiene, se le dará, y al que no tiene, aun lo que tiene, se le quitará". Quiero decir que esta pirámide funciona de maravilla con los niños que llegan al cole sabiendo cosas. Y funciona tanto mejor cuantas más cosas traen aprendidas de casa. Si poseen un vocabulario amplio y una cultura general extensa, adelante con ella. ¿Pero qué ocurre con los niños de medios culturales desfavorecidos a los que ponemos en situación de explicar lo que no saben? ¡Pues que cometemos un tremendo fraude pedagógico, claro!

Si queremos que nuestros alumnos enseñen lo que saben, asegurémonos antes que les hemos dado conocimientos, cuantos más, mejor.

20130225

La transición hacia la Era del Hidrógeno. ¿La Tercera Revolución industrial?

La transición hacia la Era del Hidrógeno. ¿La Tercera Revolución industrial?

El hombre ha utilizado diversas fuentes de energía, desde las etapas más tempranas de su existencia, que le han permitido evolucionar hacia un mayor grado de desarrollo en sus modos de vida.

En nuestra sociedad actual el control de la energía representa el poder de la civilización además del control de la distribución de los bienes en el planeta. Los países menos poderosos no tienen energía eléctrica. Asegurar el acceso a la electricidad de todo el mundo, según algunos analistas económicos, puede ser posible gracias a la energía renovable del hidrógeno. Hay indicios para pensar que estamos en el fin de la era del petróleo. La cuenta atrás de los combustibles fósiles es inevitable y ya ha comenzado. Es previsible, por tanto, que en un futuro inmediato asistamos a una crisis energética que cambiaría el actual modo de vida de nuestras sociedades, debido a la llegada del hidrógeno como un combustible versátil y eficaz, el más limpio que existe. Se espera que eso se traduzca en un cambio revolucionario que transformará las relaciones sociales y económicas en el planeta. Según algunos políticos, analistas y expertos estaríamos hablando de un nuevo orden mundial. ¿Pero realmente estamos ante un verdadero cambio histórico? ¿Una Tercera Revolución Industrial similar a la que supuso la llegada del petróleo y la electricidad?

El consumo de energía y el progreso en la Historia

Comenzando por el hombre prehistórico; la invención del fuego supone un paso decisivo en la historia de la humanidad. Con la aparición del fuego se inicia un proceso en el que la combustión de materiales para extraer su energía será la base del progreso humano. El hombre prehistórico quemando la madera de los árboles, aprende a dominar y a utilizar el fuego. Descubre el poder que esa combustión representa y aprende a canalizar esta energía para diversos usos. A partir de esta experiencia cambiaron los hábitos en su alimentación y en sus modos de vida. Sin ese primer paso no sabemos qué distinto camino hubiéramos recorrido como especie humana.

Llegado el Neolítico, siguió siendo esencial quemar la madera como conbustible para conseguir fundir los metales a elevadísimas temperaturas, una auténtica revolución, de nuevo, en los modos de vida de las primeras comunidades sedentarias.

Tuvo que pasar mucho tiempo hasta que se diera paso a la combustión del carbón como fuente de energía, dando lugar a la Revolución Industrial mitad del s.XVIII y principios del s.XX que supuso el mayor conjunto de transformaciones socioeconómicas, tecnológicas y culturales de la Historia de la humanidad, desde el Neolítico. La máquina de vapor impulsada por la hulla-un tipo de carbón mineral-fue el motor inicial de la Revolución Industrial.

Ya entre 1870 y 1914 llegó la combustión del petróleo y sus derivados con la Segunda Revolución Industrial. Los “hidrocarburos” (Petróleo) y la electricidad como fuente de energía fueron las principales innovaciones del s.XX. Esta etapa significa un proceso de revoluciones tecnológicas y de desarrollo de las industria eléctrica, del petróleo y del acero, la introducción del motor de combustión interna, la llegada del automóvil, y la invención del teléfono.

Así pues, hemos visto como el hombre ha ido utilizando a lo largo de sus historia en el planeta- aunque en los últimos siglos no siempre de manera sostenible y ecológica-estas materias combustibles para obtener energía ,y con ello ha logrado un mayor progreso; de la madera al carbón y del carbón al petróleo.

En nuestra sociedad actual el control de la energía representa el poder de la civilización además del control de la distribución de los bienes en el planeta. Los países menos poderosos no tienen energía eléctrica. Asegurar el acceso a la electricidad de todo el mundo, según algunos analistas económicos, puede ser posible gracias a la energía renovable del hidrógeno. Hay indicios para pensar que estamos en el fin de la era del petróleo. La cuenta atras de los combustibles fósiles es inevitable y ya ha comenzado.

La era del Hidrógeno :Un nuevo Orden Mundial

Es previsible que en un futuro inmediato asistamos a una crisis energética que cambiaría el actual modo de vida de nuestras sociedades, debido a la llegada del hidrógeno como un combustible versatil y eficaz, el más limpio que existe. Se espera que eso se traduzca en un cambio revolucionario que transformará las relaciones sociales y económicas en el planeta. Según algunos políticos, analistas y expertos estaríamos hablando de un nuevo orden mundial. ¿Pero realmente estamos ante un verdadero cambio histórico? ¿Una Tercera Revolución Industrial similar a la que supuso la llegada del petróleo y la electricidad?

El progreso humano sostenible :La Revolución del Hidrógeno

El hidrógeno es el átomo más simple del Universo y el más abundante, ya que está en todas partes. Pero a pesar de ser el elemento químico más ligero y abundante en el universo, es un combustible que no se puede aprovechar directamente, no es una fuente de energía propiamente dicha, sino un portador de energía. El problema es que no existen yacimientos de hidrógeno. Éste se encuentra en la madera, el carbón, el petróleo y el gas, pero sobre todo en el agua. La manera más limpia de extraer el hidrógeno es directamente del agua, el componente más abundante de la superficie terrestre. Y la gran ventaja del hidrógeno es que al ser un gas puede almacenarse.

Muchos científicos e investigadores siguen experimentando las aplicaciones de la teoría de William Grove de 1839, quien generó corriente eléctrica de una reacción electroquímica entre hidrógeno y oxígeno sin generar gases, sólo agua.

Dos siglos después, se siguen desarrollando nuevas técnicas para encontrar la manera de comprimir y almacenar el elemento más abundante del universo-el hidrógeno- en una pila de combustible, que generaría la energía necesaria para hacer funcionar los automóviles, vehículos de transporte, e incluso plantas industriales o teléfonos móviles sin producir gases contaminantes, únicamente agua y calor.

El hidrógeno se nos presenta como una excelente solución para almacenar energías renovables. Pero para poder extraer el hidrógeno se necesita de otra fuente de energía. La manera más limpia de extraer el hidrógeno es del agua, pero para poder extraerlo se sigue necesitando electricidad que podría extraerse del sol de manera limpia. Actualmente se usan plantas de gas para obtener el hidrógeno, el objetivo de los expertos es sacarlo del agua. También se están realizando experimentos para extraerlo algún día directamente de la luz solar.

En resumidas cuentas; se trata de convertir el hidrógeno en una fuente de energía renovable masiva capaz de mantener las exigencias energéticas de nuestras sociedades y de poner fin a una etapa insostenible de abuso de los recursos energéticos tradicionales.

Actualmente, puede que tengamos la capacidad para pasar de los combustibles fósiles- como el carbón o el petróleo-al hidrógeno con nuevas infraestructuras. Otro aspecto importante es que el hidrógeno se puede almacenar. Esto significa que podríamos disponer de importantes reservas energéticas.

Pero ¿Se trata de una seria posibilidad o de una bonita utopía?

Algunos críticos de la ”era del hidrógeno” piensan que estamos ante la utopía de algunos visionarios.

Sin embargo expertos como Jeremy Rifkin, presidente de la Fundación de Tendencias económicas, asesor del gobierno norteamericano, y creador de “La Economía del Hidrógeno” se han convertido en uno de los máximos defensores de las aplicaciones de la economía del hidrógeno. Rifkin opina que la revolucióndel hidrógeno producirá un cambio histórico espectacular ” similar a la unión de la revolución de la imprenta con la máquina de vapor y el ferrocarril que se tradujo en la primera revolución industrial y cuyo efecto multiplicador se materializó en el s.XIX. La Segunda revolución industrial tuvo un impacto tan potente por la unión del telégrafo al teléfono y la electricidad con el petróleo y el motor de combustiòn interna. Para Rifkin, la tercera Revolución consistirá en una distribución descentralizada del hidrógeno”

Es decir, sus palabras se traducen en cuatro frases: Produccción a gran escala de hidrógeno. Descentralización de la producción de energías. Una ola de desarrolo tecnológico con oportunidad para todos. Producción de hidrógeno para uso propio. Un cambio radical en los modelos de la economía mundial.

Si así fuera estamos a las puertas de una nueva era energética. Una Tercera Revolución Industrial.

Si tomamos como referencia cómo se gestó el proceso de la primera gran revolución industrial sabremos que estos cambios forman parte de un proceso de aplicaciones tecnológicas que conducen a el éxito esperado. La máquina de vapor fue el motor que hizo posible el cambió energético en la primera Revolución Industrial. Pero hubieron algunos intentos hasta llegar hasta la sofisticada máquina de Watt, y siguieron las mejoras, que fueron desplazando a los tradicionales motores como el animal de tiro, el molino o la propia fuerza del hombre y que en Inglaterra, en el contexto de una incipiente Revolución Industrial en los siglos XVII y XVIII, llevaron desde los rudimentarios primeros aparatos sin aplicación práctica a la invención del motor universal que llegó a implantarse en todas las industrias y a utilizarse en el transporte.

Defensores de la economía del Hidrógeno

Algunas compañías, como Honda, DaimlerChrysler, Ford Motor Company, General Motors Corporation/Opel, Hyundai Motor Company, Kia Motors Corporation, la alianza Renault SA y Nissan Motor Corporation y Toyota Motor Corporation están desarrollando proyectos relacionados con los vehículos de hidrógeno. Algunas de ellas incluso han apostado estratégicamente por un futuro energético basado en las tecnologías de hidrógeno, una corriente que ha dado lugar al concepto de Sociedad del Hidrógeno, que a menudo se intercambia con el de economía del hidrógeno.

Islandia por ejemplo, pretende que toda su flota pesquera funcione con motores de hidrógeno para el 2050.

Obstáculos actuales

Aunque se están realizado importantes avances tecnológicos, la implantación de la economía del hidrógeno no es inmediata y requiere aún dar respuesta a importantes retos tecnológicos, económicos y sociales que se describen a continuación.

Desde el punto de vista de la producción del hidrógeno, hay que considerar que los métodos actuales resultan costosos y se basan principalmente en la gasificación de combustibles fósiles a altas presiones y temperaturas. Los procesos basados en energías renovables o energía nuclear no se encuentran suficientemente desarrollados y a nivel industrial su coste es aún mayor. Por otro lado, para dar respuesta a una demanda global de este tipo de energía, se necesitaría el desarrollo de un sistema de distribución de hidrógeno similar al que existe hoy en día para la gasolina.

El almacenamiento supone otro reto aún por resolver ya que, debido a su baja densidad energética, se necesitan enormes volúmenes de hidrógeno para alimentar procesos con alta demanda energética. En la actualidad se investiga en el desarrollo de tanques de alta presión, adsorbentes porosos e hidruros metálicos que permitan almacenar cantidades suficientes de este compuesto en espacios reducidos.

El precio actual de las pilas de combustible y su fiabilidad supone otra barrera a la aplicación masiva de esta tecnología. El uso de electrodos con catalizadores de metales nobles como el paladio y el platino, con un elevado precio de mercado, y los problemas de envenenamiento, sobre todo en procesos que utilizan hidrógeno de menor pureza, también son objeto de investigación.

Otro de los aspectos a superar es el de la seguridad ya que el hidrógeno es un compuesto altamente inflamable y potencialmente explosivo en contacto con el oxígeno de la atmósfera. Por ello se deben adoptar normativas de seguridad específicas que son diferentes a las que hoy se aplican con éxito para otros compuestos como la gasolina, el butano o el gas natural.

20130218

Estados Unidos da el visto bueno para el primer "ojo biónico"

Estados Unidos da el visto bueno para el primer "ojo biónico"


 La Administración de Alimentos y Medicamentos de Estados Unidos (FDA) ha aprobado el primer dispositivo para implantar en retinas con el objetivo de devolver la visión. La prótesis, conocida con el nombre Argus II ha sido desarrollada por la empresa californiana Second Sight Medical Products.

   Esta prótesis se ha creado para los enfermos de retinosis pigmentaria (RP), una enfermedad ocular genética rara que daña las células sensibles a la luz que cubren la retina. Esta enfermedad genera la disminución de la visión nocturna o cuando hay poca luz, pérdida de la visión lateral y de la central y en casos muy graves, la ceguera.

   "Se trata de un dispositivo que se implanta quirúrgicamente y  proporciona una opción para los pacientes que han perdido la vista por RP", dijo el director del Centro de la FDA para Dispositivos y Salud Radiológica, Jeffrey Shuren. El dispositivo puede ayudar a los adultos que han perdido la capacidad de percibir formas y movimiento y así puedan llevar a cabo día a día las actividades.

   El Argus II cuenta con una unidad de procesamiento de video portátil. Esta unidad está compuesta por una pequeña cámara de video y un transmisor montado en unas gafas. Esto junto a unos electrodos que se implantan en la retina del paciente hacen posible que la VPU transforme las imágenes de la cámara en datos electrónicos que se transmiten a una matriz de electrodos que se implantan en la retina del paciente. Estos datos son transformados en impulsos por los electrodos y estimulan la retina que produce las imágenes.

   La compañía ha realizado un ensayo clínico donde 30 personas, con con una agudeza visual por debajo de 1/10, frente a los 10/10 que constituyen la norma, han recibido el trasplante. Tras varias pruebas encontraron una agudeza visual que les permitió distinguir formas en blanco y negro.

   La prótesis sólo podrá ser implantada en mayores de 25 años y está disponible a un precio de 73.000 euros según un responsable de la compañía con base cerca de Los Ángeles. Se estima que en Estados Unidos 100.000 personas padecen retinosis pigmentaria.

   Enlaces relacionados:
   FDA

20130217

El meteorito de Rusia liberó una energía 30 veces superior a la bomba de Hiroshima

del artículo, destacar la intención de hacer comprensibles las magnitudes.. como cuando una superficie se expresa en "campos de fútbol"..


El meteorito de Rusia liberó una energía 30 veces superior a la bomba de Hiroshima

El meteorito de 17 metros que ayer dejó más de 1.100 de heridos en la provincia rusa de Cheliabinsk, en los Urales, liberó una energía de 500 kilotones, una treintena de veces superior a la bomba atómica de Hiroshima, según informó la agencia espacial de Estados Unidos (NASA).

"Un evento de esta magnitud ocurre una vez en 100 años como promedio", señaló Paul Chodas, colaborador del programa de objetos cercanos a la Tierra en el laboratorio de propulsión a chorro de la NASA. "Cuando una bola de fuego es de ese tamaño, numerosos meteoritos pueden alcanzar la superficie y es probable que en este caso lo hayan hecho varios de gran tamaño", dijo.

Los datos infrasónicos recogidos indican que la caída del bólido, desde su entrada en la atmósfera hasta la desintegración, duró 32,5 segundos, y su señal fue recogida por once de las 45 estaciones de seguimiento situadas en 35 países. Su trayectoria, no obstante, fue muy diferente a la del asteroide 2012 DA14 que algunas horas después pasó cerca de la Tierra, por lo que los científicos descartan la relación entre ambos.

Expertos del Ministerio ruso de Emergencias siguen buscando fragmentos del bólido que, según una hipótesis, pudo haber caído en el lago Chebarkul, cerca de Cheliábinsk. Un grupo de seis buzos se encargará de comprobar esta versión en las próximas horas, comunicó la portavoz de Emergencias, Irina Rossius, a la agencia oficial de noticias rusa, RIA Novosti.

El Ministerio de Emergencias ruso estima que los heridos alcanzan los 1.145, en su gran mayoría leves, aunque 50 personas necesitaron hospitalización, entre ellas, una mujer de 52 años con la fractura de dos vértebras que ha sido trasladada hoy sábado en un avión especial a Moscú. El Ministerio del Interior menciona la cifra de 1.200 heridos.

Según los datos de última hora, el bólido reventó ventanas y causó otros daños en más de 3.700 edificios residenciales y más de 700 instalaciones públicas. La superficie total de cristales rotos alcanza 200.000 metros cuadrados.

20130216

Así fue el paso del asteroide 2012 DA14 junto a la Tierra



Telescopios de todo el mundo han seguido este viernes el paso de 2012 DA14, el asteroide conocido que más cerca pasará de la superficie de la Tierra. El objeto ha cruzado el cielo nocturno sobre Sumatra (Indonesia), a tan sólo 27.860 kilómetros de la Tierra, y continuó su travesía cósmica a unos 28.100 kilómetros por hora, informó la agencia espacial estadounidense NASA.

La roca, de unos 45 metros y unas 130.000 toneladas, es el objeto espacial de mayor tamaño que se haya acercado tanto a la Tierra desde que la NASA ha seguido el rastro de los asteroides durante más de medio siglo.

La mayor aproximación ocurrió a las 19.24 GMT, cuando el asteroide estuvo unos 8.500 kilómetros por debajo de la región donde orbitan unos 400 satélites geoestacionarios.

20130215

El prodigioso y desaparecido artificio que Juanelo construyó en Toledo


El prodigioso y desaparecido artificio que Juanelo construyó en Toledo

El 23 de febrero de 1569, en Toledo, se puso en funcionamiento un artificio mecánico capaz de subir al día más de 14.000 litros de agua desde el río Tajo hasta el alcázar de la ciudad. Eran 100 metros de desnivel, una altura que había resultado insalvable para la tecnología de la época, pero Juanelo Turriano lo había conseguido. Cómo lo hizo es, todavía hoy, motivo de debate.

Posible reconstrucción romano que estuvo en pie hasta el siglo X. Original en Toledo Olvidado

Juanelo Turriano, de nacimiento Giovanni Torriani, nació en el Milanesado en 1501. Poco se conoce poco de su infancia. Su leyenda lo retrata como un pastorcillo de familia humilde dotado con un talento innato para la astronomía. Sin embargo, parece más realista pensar que fue su amigo Giorgio Fondulo, un profesor de la Universidad de Pavía, el que lo inició en dicha ciencia.

Según algunos, Turriano habría comenzando a formarse trabajando en el taller de su padre, del que se desconoce el oficio, pero al que el propio Turriano se refiere como “maestro” en alguno de sus escritos. Según otros, su padre era sólo un humilde molinero del río Po. En cualquier caso, se da por hecho que Turriano no acudió a la universidad, sino que adquirió la mayor parte de sus conocimientos mediante la práctica y no la teórica. Aunque no por ello era un iletrado analfabeto.

Años más tarde, ingresaría como aprendiz en algún taller de relojería de Cremona, donde, con el tiempo, conseguiría el grado de maestro. Posteriormente, se mudaría a Milán, donde daría sus primeros pasos como inventor de máquinas ingeniosas. Diseñó una potente grúa, una máquina para dragar la laguna de Venecia (auténtico desafío de la ingeniera italiana de la época) y mejoró algunas bombas de agua.

En 1530, Turriano conocería a Carlos V durante su visita a Milán. Francesco II Sforza, duque de la ciudad, quiso obsequiar al emperador, un apasionado de los relojes, con el astrario de Giovanni Dondi, que era considerado una maravilla de la época. Turriano recibió la distinguida misión de volver a ponerlo en marcha, aunque, finalmente, se empeñó en construir uno nuevo. Le llevó más de 20 años de trabajo, pero Carlos V quedó encantando con su obra, por lo que le concedió una pensión vitalicia y le encargó otro planetario: el “Cristalino”.

Según las descripciones de la época, el nuevo planetario se trataba de “una esfera de metal, cubierta por un cristal, en el cual un zodiaco tenía su propio movimiento”. En el año 1554, Carlos V lo nombra Relojero Real y Turriano se incorpora al servicio del emperador en Bruselas. Allí conocería, entre otros, a Juan de Herrera, y, años más tarde, acompañaría al emperador a su retiro en Yuste, con el que permanecería, hasta su muerte en 1558, encargándose del mantenimiento de sus relojes.

Tras la muerte del emperador pasó al servicio de su hijo, Felipe II. El nuevo monarca no era tan aficionado a los relojes y autómatas como su padre, pero no quiso prescindir de sus servicios, así que lo nombra Matemático Mayor. El italiano asesora a la Corona en numerosas obras de ingeniería (especialmente, hidráulicas), como las del Canal del Jarama, la presa de Colmenar o del embalse de Tibi. Durante este tiempo, además, diseña las campanas de San Lorenzo del Escorial, construye varios molinos y continúa creando nuevos autómatas, algunos tan conocidos como el misterioso “Hombre de palo”.

Escala de Valturio en su “De Re Militari” del 1462. Disponible en googlebooks

Es en 1565 cuando Turriano se instala definitivamente en Toledo. Para aquel entonces, la ciudad ya no es la capital imperial, pues ya hace unos años desde que Felipe II estableció su Corte en Madrid. En los años en los que lo ha sido, Toledo ha vivido una época de esplendor y expansión demográfica, aunque no ha resuelto su problema de suministro de agua que arrastra.

Durante la época romana, el agua llegaba hasta la ciudad gracias a un acueducto-sifón. Un tipo de acueducto que se valía del uso del principio de los vasos comunicantes para reducir su altura. Para ello, el agua no circulaba a cielo abierto, sino que lo hacía por dentro de una cañería. El acueducto, que tenía menos altura que los puntos que unía, estaba compuesto por un primer tramo descendente, seguido de uno llano y, finalmente, otro ascendente para recuperar el nivel. De no haberse construido el tramo llano, la presión a la que se hubiera visto sometida la tubería hubiera sido mucho mayor.

Una vez en la ciudad, el agua se almacenaba en un sistema de depósitos, del que la Cueva de Hércules parece que formaba parte, y del que la gente se abastecía. Sin embargo, después del abandono que sufrió durante la Edad Media, en el siglo XVI apenas quedaban las ruinas del acueducto. La noria gigante que se había construido en tiempos de la dominación musulmana también había desaparecido. Así que Toledo no tenía otra opción que ahogar su sed con los cántaros de agua que se subían a lomos de burros cada día desde el Tajo. Era un método ineficiente y penoso, los animales tenían que superar un desnivel de casi 100 metros cargados con los cántaros.

Varios habían sido los intentos para “modernizar” la situación, pero todos sin éxito. Los sistemas de bombas fracasaron por la enorme presión a la que sometían, y que eran incapaces de aguantar, las tuberías. Para reducir la presión, se pensó en un sistema que superara el desnivel por etapas, aunque la idea tampoco funcionó.

No es de extrañar, entonces, que en una de sus primeras visitas a Toledo, Turriano ya recibiera el desafío por parte de Alfonso de Ávalos, Marqués del Vasto de idear un método más eficiente para llevar el agua hasta la ciudad. El proyecto, sin embargo, parece que quedó aparcado hasta el 1565, cuando la ciudad lo contrató a sugerencia de Felipe II. Después de cerrar un acuerdo con los representantes del monarca y de la ciudad, Turriano se puso manos a la obra a trabajar en su artificio. El ingeniero correría con los gastos de la obra y la ciudad le pagaría cuando estuviera acabada y comprobara que funcionaba. 8.000 ducados del rey y una renta de 1.900 de la ciudad para él y sus sucesores.

En sólo cuatro años, el ingenio estaba listo y suministraba a la ciudad unos 14.100 litros al día, un 50% más de lo comprometido. La primera subida de agua fue el 23 de febrero de 1569. Las autoridades de la ciudad pudieron comprobar lo bien que funcionaba, pero, para sorpresa de Turriano, rehusaron pagar arguyendo que puesto que el agua se almacenaba en el Alcázar era para uso exclusivo del palacio real y no para el de la ciudad.

Frustrado y en una situación económica complicada, Turriano propuso a la ciudad la construcción de un segundo artificio. Esta vez sería él el que retendría los derechos de su explotación. La obra se completó en 1581 y, esta vez, al parecer, Turriano sí que cobró. Aunque su calvario no había acabado. El ingeniero no podía hacer frente a los posteriores costes de mantenimiento del ingenio y tuvo que acabar cediendo su control a la ciudad.

El artificio había causado gran sensación. No sólo dentro de España, donde la mayoría de grandes escritores del Siglo de Oro lo mencionan en sus obras, sino también fuera. Hasta entonces sólo se había conseguido subir agua a menos de la mitad de la altura a la que lo hacía la máquina de Juanelo, unos 40 metros, en Augsburgo (Baviera) usando un tornillo de Arquímedes. Pero pese al éxito y el renombre ganado, Turriano moriría en su casa de Toledo casi en la indigencia el 13 de junio de 1585, poco después de haberse visto obligado a ceder su artificio a la ciudad al no poder hacerse cargo de su mantenimiento. Su cuerpo fue enterrado de caridad en el Convento del Carmen.


Lo poco que quedaba del artificio en 1868. Antes de ser demolido. Fotos originales en Toledo Olvidado

Las máquinas, sin embargo, continuaron funcionando hasta el 1639, aunque cada vez dando un rendimiento menor. Para entonces, por culpa de la falta de mantenimiento y del robo de piezas, las dos máquinas ya estaban en un muy mal estado. Ese año, la primera fue desmantelada y la segunda se dejó en pie como símbolo de la ciudad. Sin los artificios de Juanelo, la situación volvió a la normalidad y el agua volvió a subir a la ciudad a lomos de sus burros. Con el paso del tiempo, poco quedó del segundo. El pillaje lo acabó reduciendo a ruinas también.

Pero pese al paso de los años y la desaparición física de la maquinaría, la admiración por el artificio no se ha perdido, y la respuesta a la pregunta de cómo funcionaba el Artificio de Juanelo todavía sigue siendo motivo de controversia. Han sido varios los que han intentado encontrar una explicación y varios los modelos propuestos, pero no es una tarea fácil, al no haberse conservado ningún plano o dibujo del artificio. Lo único con lo que han podido contar, los que lo han intentado, ha sido con las descripciones efectuadas por los viajeros y escritores de la época.

El primero en enfrentarse al reto fue el ingeniero de minas Luis de la Escosura y Morrogh en 1888. El ayuntamiento de Toledo le había encargado un estudio sobre el problema de abastecimiento de agua de la ciudad, que en esa época aún seguía sin solución. Escosura aprovechó para interesarse por el antiguo artificio e intentó averiguar cómo funcionaba. Escosura partió de lo que había dejado escrito sobre el artificio Ambrosio de Morales, amigo y humanista de Juanelo. Sin embargo, pronto se dio cuenta era demasiado complicado hacerse una idea de su funcionamiento sólo con esa descripción, por lo que decidió buscar la inspiración en alguna ilustración de algún libro de la época.

Vista general y detalle de la máquina de Ramelli para elevar agua de un río. Original(PDF)

Al cabo de un tiempo, Escosura creyó encontrar lo que buscaba en una lámina del ingeniero renacentista italiano Agostino Ramelli en la que muestra el diseño de una máquina para elevar agua. Escosura, sin embargo, hizo pequeñas adaptaciones para que la máquina se ajustara mejor con la descripción de Morales. Cambió los cajones y canales por cazos metálicos y caños, y sustituyó la transmisión original de la lámina por una basada en escalas de Valturio, para hacerla encajar mejor con el fragmento de la descripción de Morales: “La suma de [esta invención] es anexar o engoznar unos maderos pequeños en cruz por en medio y por los extremos, de la manera que en Roberto Valturio está una máquina para levantar un hombre en alto”.

Estas escalas, accionadas por el giro de una rueda, se moverían de forma alternativa y proporcionarían a los cazos el movimiento de vaivén que la máquina de Ramelli necesitaba para su funcionamiento. Un cazo primero descendería para recoger el agua del cazo anterior para luego ascender y verterla sobre el cazo que le seguía. De esta manera, de cazo en cazo, el agua iría ganando altura. Para completar el modelo, Escosura le agregó otra noria que movería una cadena o correa con vasijas de agua y que sería la que subiría el agua desde el río hasta la primera de las máquinas.

Durante mucho tiempo, la hipótesis postulada por Escosura en su “El artificio de Juanelo y el Puente de Julio César” fue ampliamente aceptada, hasta que el investigador de la técnica Ladislao Reti, intrigado por la cuestión, decidió investigar más. En seguida, comprobó que existía más descripciones y documentos de la época de que los que Escosura había usado para formular su hipótesis y, en 1967, propuso su propio modelo.

El torreón de Ramelli

Curiosamente, Reti también se sirvió del mismo libro de Ramelli, “Le diverse et artificiose machine”, para inspirarse, pero reconoció el artificio de Juanelo en una lámina distinta. También se trataba de una máquina que servía para elevar agua gracias a una noria, pero esta vez lo que se hacía oscilar eran los cazos situados en una torre de manera vertical, no sobre un plano inclinado. Según Reti, este sería el verdadero secreto del artificio. Los cazos, o cucharones, de la torre oscilarían de manera que el agua iría pasando de cazo en cazo a través de un caño o tubo hasta subir al depósito superior, desde el cual los cazos de la siguiente torre se encargarían de seguir elevando el agua.

El artificio también estaría compuesto además por dos ruedas hidráulicas. La primera funcionaría como una noria normal y serviría para superar los primeros 14 metros de desnivel. Mientras que la segunda proporcionaría la fuerza motriz para hacer oscilar los torreones de cazos. Con varios de estos torreones el agua superaba finalmente todo el desnivel.

Las dos posiciones de una de las torres

Modelo del artificio completo siguiendo el modelo de cazos oscilantes. Original

Unos años depués, el estudioso Nicolás García Tapia corrigió algunas de las imprecisiones de este modelo y propuso un nuevo modelo basado en él. El mayor problema del anterior modelo era que las torres contaban con una única vía de agua, cuando en la mayoría de documentos siempre se habla de dos. Tampoco parecía coincidir la apariencia de las torres con la descripción que dio de ellas un viajero inglés, según la cual “…los dos lados de la máquina parecían dos pies que alternativamente pisaban el agua, como los hombres que exprimen las uvas en el lagar cuando la vendimia…”.

Teniendo en mente estos problemas y algunos otros, García Tapia propuso unas modificaciones a la solución de Reti. Las torres de su modelo son, en cierta manera, el resultado de combinar ingeniosamente dos de las de Reti en una sola. De esta manera, las torres tendrían dos vías de agua y una apariencia simétrica, lo que haría que su movimiento bien pudiera recordar al de un hombre saltando alternativamente sobre cada uno de sus pies.

Modelo modificado de García Tapia, ver animación

En la actualidad, la de García Tapia es la hipótesis defendida por la Fundación Juanelo Turriano. Sin embargo, tiene, aparentemente, un defecto: no utiliza las escalas de Valturio de las que habla Ambrosio Morales. Según los que apoyan la teoría, tal problema no existe. Por un lado, Morales bien podría haber confundido la disposición de las tablillas que unen los cazos con una de esas escalas, pues la forma es similar, y, además, la descripción de Morales es un tanto ambigua y no permite concluir con total seguridad si bien se refiere simplemente al modo en que estaban encajadas las tablillas unas con otras o si, en efecto, formaban una escala.

Además, la teoría de Reti-García Tapia se vio reforzada con hallazgo y publicación en la Revista de Estudios Extremeños del casi desconocido “Itinerario hispánico del Chantre de Évora en 1604” . Un relato en el que un canónigo de Évora cuenta su peregrinación de 30 días por el centro de España y que le lleva a visitar Toledo. Como no podía ser de otra manera, allí visita el artificio del que dice estar formado por varias torretas oscilantes de cazos que subían el agua de forma escalonada. El documento además incluye unos esquemas, que aunque son bastante rudimentarios, son los únicos realizados por alguien que viera el artificio en funcionamiento.

Esquema del artificio según el Chantre de Évora

Más recientemente, el ingeniero Xavier Jufre (ver entrevista) ha propuesto un nuevo modelo basado totalmente en escalas de Valturio, en este caso verticales. Las diferentes escalas, situadas sobre un plano inclinado, se moverían de forma alternativa hacia arriba y abajo. De manera que cuando una escala se encuentra desplegada del todo, y sus cazos se encuentran en su posición más alta, vierte su agua sobre la siguiente, que se encuentra su posición más baja al estar casi plegada del todo. De esta manera, el agua iría pasando de escala en escala hasta superar todo el desnivel. Las escalas se plegarían y desplegarían mediante un sistema de transmisión accionado por el movimiento de una noria.

El mecanismo según Xavier Jufre Garcia. Original

PS(i): En el 1998 se firmó un contrato para reconstruirlo. PS(ii): El príncipe heredero de Japón, Naruhito, visitó sus ruinas un veraniego día del 2008.

Actualización 7-Septiembre-2010: Entrevista a Xavier Jufre en la que nos explica las bondades de su modelo y otras muchas cosas interesantes

20130214

Rusia se embarca en la construcción de su mayor buque de guerra desde la era soviética

Rusia se embarca en la construcción de su mayor buque de guerra desde la era soviética


La Marina de Guerra rusa ha lanzado su proyecto más ambicioso para la próxima década al aprobar un diseño de destructor de alta mar presentado por el Buró de diseños Sévernoye, en San Petersburgo.

Una vez defendido el concepto del proyecto, en 2-3 años será desarrollada la documentación técnica y el diseño de la nave, y serán definidas las armas que portará, informa este miércoles el diario 'Izvestia' remitiéndose a una fuente anónima de la industria militar rusa. Lo más probable es que el destructor sea armado en los astilleros Severnaya Verf, de San Petersburgo, pero el mando naval supremo todavía no ha tomado una decisión definitiva al respecto, señaló la fuente.

Con un desplazamiento de unas 12.000 toneladas, el nuevo superdestructor será el mayor buque de guerra diseñado y construido desde la época soviética. La última nave de gran desplazamiento fue construida dos años antes de la desaparición de la URSS, en 1989, cuando fue botado el crucero de misiles Piotr Velíki (Pedro el Grande) de propulsión nuclear. En 1998 esta nave se convirtió en el buque insignia de la Flota rusa del Norte y hasta ahora es el buque de guerra más grande (con un desplazamiento máximo de 26.190 toneladas) del mundo, con la excepción de los portaaviones.

"Se supone que el desplazamiento del destructor será igual o poco menor que el proyecto 1164 de cruceros de misiles clase Moskvá [buque insignia de la Flota rusa del mar Negro], es decir, con cerca de 12.000 toneladas. Se trata de una nave universal, capaz de cumplir misiones de ataque, antisubmarinas, antiaéreas e incluso antimisiles. Además, será capaz de brindar un apoyo a las tropas terrestres en las zonas costeras", precisó la fuente de 'Izvestia'.

El superdestructor estará dotado de misiles antibuque, misiles de crucero para ser lanzados contra objetivos en tierra, sistemas de defensa antiaérea y antimisiles, incluyendo el S-500 Prometey. Para combatir los objetivos subacuáticos estará dotado de un potente sonar y de torpedos antisubmarinos.

El único destructor de alta mar de la Armada rusa fue desarrollado en la URSS y pertenece al proyecto 956 clase Sovremenni. Desplaza 8.000 toneladas y está armado sólo con misiles antibuque clase Moskit y sistemas de defensa antiaérea, sin disponer de armas anti-submarino. El destructor requiere un cuidadoso mantenimiento de su planta propulsora, sobre todo respecto a la calidad de agua para sus calderas. Por lo tanto, desde la década de 1990 han quedado operativos solo 9 de estas naves.

"Nuestra Armada necesita un destructor de este tipo desesperadamente y su gran desplazamiento no debe llamar la atención. El principal destructor estadounidense de este tipo, clase Arleigh Burke, tampoco es pequeño: desplaza 9.648 toneladas, porta misiles de crucero Tomahawk y misiles antibuque Harpoon. Los 62 destructores clase Arleigh Burke disponen de defensa antiaérea superpotente, al estar provistos de sistema Aegis", indicó el funcionario.

En primer lugar, el nuevo destructor debería defender a portahelicópteros de clase Mistral, y en el futuro a futuros portaaviones nucleares.

20130213

El Curiosity encuentra un extraño objeto metálico en una roca en Marte

El Curiosity encuentra un extraño objeto metálico en una roca en Marte

La NASA ha explicado que puede estar hecho de un material que se encuentra en el interior de las rocas y que es más resistente a la erosión

El rover Curiosity de la NASA ha fotografiado una segunda protuberancia de aspecto metálico en una roca de la superficie marciana. Según ha explicado la NASA, podría estar hecha de un material que se encuentra en el interior de las rocas y que es más resistente a la erosión. También se baraja la posibilidad (aunque menos probable) de que podría ser algo que está "creciendo" en la roca.

Se trata de la segunda vez que el vehículo capta un objeto de estas características. El pasado mes de octubre se halló la conocida como 'flor' de Marte, que en un principio se pensó que era una pieza de plástico que se había desprendido del rover, aunque aún no se ha hecho público ningún resultado acerca de su origen. Un mes antes, el rover se detenía a analizar una roca en forma de pirámide, que la NASA consideró una "roca perfecta". Ni uno, ni otro finalmente "cambió los libros de historia".

Según los expertos, una de las características que les lleva a pensar que se trata de un objeto metálico es que no está cubierto por el polvo, como el resto de la superficie, a pesar de su pequeño tamaño (aproximadamente 0,5 centímetros de altura). "Las superficies metálicas tienen a limpiarse fácilmente", según ha señalado la agencia espacial estadounidense, cuyos primero experimentos sobre superficie marciana concluyeron que se parece a Hawái.

Desde la NASA han asegurado que el estudio de este objeto, que fue hallado el 30 pasado de enero, continuará con el fin de "obtener más detalles" acerca de su origen. "Sea lo que sea es interesante", ha apuntado uno de los miembros de la misión Curiosity.

20130212

Cómo hacer un Calentador Solar en casa con botellas PET

Cómo hacer un Calentador Solar en casa con botellas PET



Hace ocho años José Alano, un mécanico brasileño retirado, tuvo la inspiración de recoger botellas de plástico (PET) y cartones de leche usados para desarrollar un sistema de calentamiento de agua por energía solar simple, barato y que pudiera construir cualquier persona.

The Ecologist le dedica un estupendo artículo contando su historia:
…viendo que en su pequeño pueblo de Tubarão no existía ninguna infraestructura para reciclar los envases y sintiéndose incapaces de tirar todos esos envases a la basura, Alano y su mujer pronto se encontraron con una habitación llena de botellas y cartones de leche vacíos. [...] Haciendo uso de su ingenio y experiencia con captadores solares, él y su esposa construyeron una versión alternativa utilizando 100 botellas PET y 100 cartones de leche usados. El prototipo funcionó a la perfección, al tiempo que dieron una nueva vida a todos esos desperdicios de manera responsable.

Desde la invención de este calefactor solar allá por 2002, Alano no ha dejado de difundir esta idea en Brasil por medio de conferencias y talleres en comunidades de vecinos y colegios. Entidades locales, medios de comunicación y hasta compañías eléctricas han colaborado en la difusión de esta magnífica práctica. Las cifras exactas no se conocen, aunque Alano menciona algunas:

Más de 7.000 personas se están beneficiando ya de estos captadores auto construidos (DIY) sólo en el estado de Santa Catarina. Ya existen dos cooperativas, una en Tubarão y otra en Florianópolis, la última de las cuales ha producido 437 captadores que se instalarán en ayuntamientos. En el estado de Paraná, el número de captadores instalados en 2008 fue de 6.000, gracias a los talleres y a los folletos distribuidos entre la población.

Adjuntamos varias imágenes del proceso de fabricación.










20130211

Una batería creada por Edison hace un siglo vuelve a estar de actualidad y a competir con las de Litio

Una batería creada por Edison hace un siglo vuelve a estar de actualidad y a competir con las de Litio

baterias ni-fe edison - efimarket

La compañía estadounidense, afincada en Colorado, Iron Edison Battery Company, ha presentado una tecnología de baterías que, aunque siendo poco novedosa, ya que fue una tecnología descubierta y desarrollada por el mismísimo Edison, sí retorna a la actualidad con fuerza renovada. Los últimos desarrollos de esta olvidada tecnología llevados a cabo por la compañía , tras decadas en el olvido, han conseguido alumbrar una alternativa competitiva al predominio de las baterías basadas en tecnología de Litio. Su mayor ventaja frente a las baterías de Litio: su baja toxicidad.

El CEO, Brandon Williams, comenta que han creado su negocio con el fin de servir las necesidades de  almacenamiento energético de los propietarios de edificios, centros de datos, instalaciones aisladas y  clientes que se preocupan tanto por su impacto ambiental, o por tener un respaldo fiable en caso de corte de fluido eléctrico.
“Hemos visto millones de baterías estaban siendo tiradas a la basura cada año, y nos dedicamos a investigar cómo tomar medidas para resolver este problema”, dice Williams.

Las baterías de Níquel-Hierro (Ni-Fe) – desarrolladas hace más de un siglo por Thomas Edison – están reemplazando gradualmente a las baterías de plomo en una serie de aplicaciones, especialmente para energía solar fotovoltaica y renovables. A diferencia de las baterías de plomo-ácido, son de alta fiabilidad , con una vida útil más larga y la operación libre de toxicidad.
“La tecnología de níquel-hierro es grande, porque es como volver a descubrir este gran invento”, añade Williams. ”El hecho de que Thomas Edison desarrollara esta tecnología hace que la historia sea aún más emocionante.”
Modernas baterías de Ni-Fe se utilizan principalmente para aplicaciones estacionarias y por lo general duran más que sus homólogas de plomo-ácido. Williams dice que espera que sus baterías duren 20 años o más en operación contínua, y agregó que tiene conocimiento de algunas baterías de Ni´Fe con más de 50 años de edad que todavía están funcionando bien.

Cita una reacción de carga/descarga perfecta, como razón principal para su máximo rendimiento. En cuanto a las comparaciones de precios y el rendimiento, la batería de Ni-Fe es más cara que una batería de plomo-ácido, sin embargo ofrece una descarga tres veces más profunda sin consecuencias, además de que dura mucho más tiempo, dice Williams.
“En una batería de plomo-ácido, las placas de plomo sólido se disuelven en el electrolito líquido durante la descarga”, dice Williams. ”Cuando se recarga una batería de plomo, no todo el sólido es capaz de salir de la solución y unirse quimicamente de nuevo a las placas, sufriendo una reacción incompleta que va deteriorando la batería”

En cuanto a la batería de iones de litio, Williams opina que es excelente para los vehículos eléctricos ybicicletas, pero que no está lista para las grandes aplicaciones de almacenamiento estacionario, aunque cree que la tecnología Li-ion está progresando mucho últimamente.

Para las baterías de plomo-ácido en todo el mundo, está la cuestión del daño que la composición química del electrolito puede causar al medio ambiente. Las baterías de níquel-hierro no usan metales tóxicos como el plomo y el cadmio. El níquel no es tampoco lo que se dice inocuo, pero es mucho menos tóxicos. ”Los beneficios ambientales reales se reducen al hecho de que no tenemos que sustituir una batería de níquel-hierro, sino que sólo tenemos que actualizar el electrolito líquido cada 7-10 años”, todo un gran avance en cuanto a sostenibilidad.

Williams señala que, en los países en desarrollo donde no hay importantes esfuerzos de reciclaje, las baterías de plomo representan un peligro ambiental grave. El número de baterías de plomo que se utilizan en China para las bicicletas eléctricas y coches, por ejemplo, es enorme. Sin embargo, la mayoría de ellas no se reciclan, y son a menudo simplemente tirabas a la basura, donde se puede lixiviar los contenidos tóxicos en las capas freáticas.

Bienvenidos a una tecnología antigua en una nueva era.

Vía Clean Technica

20130210

Centrales reversibles





https://demanda.ree.es/generacion_acumulada.html

con cosas así se podría reducir la dependencia del petróleo.. pero que cada uno se fabrique parte de la electricidad no conviene a los del "déficit de tarifa"..

20130209

Las diez personas vivas más inteligentes del mundo

Las diez personas vivas más inteligentes del mundo

La organización estadounidense Super Scholar ha elaborado un ranking con las diez personas vivas más inteligentes del mundo. En ella aparece Stephen Hawking, el conocido físico teórico, con un cociente intelectual de 160, 14 premios y 70 años de edad (y experiencia). Según afirman los autores de la lista, con los 7 libros que ha publicado hasta la fecha “ha conseguido que los simples mortales entendamos el universo”.

Otro de los escogidos para este peculiar “top ten” es el ex niño prodigio Kim Ung-Yong, que con un cociente intelectual (CI) de 210 aparece en el Libro Guinness de los Récord y que a los dos años de edad ya hablaba cuatro idiomas; además de que empezó a estudiar en la NASA cuando acababa de cumplir ocho.

También muy populares son otros personajes de la clasificación como Garry Kasparov, el con 190 de cociente intelectual y ganador del título mundial de ajedrez a la edad de 22 años; el matemático británico Andrew Wiles, que demostró el último Teorema de Fermat, considerado “el más difícil del mundo”; y por supuesto Paul Allen, cofundador de Microsoft, que ha sabido utilizar su inteligencia (su CI es de 170) para hacer dinero y figura también en la lista de las 48 personas más ricas del mundo.

Completan la lista el actor James Woods (CI, 180), que antes de entrar en Hollywood estudiaba Álgebra Lineal y fue alumno del prestigioso instituto MIT; el físico Cristopher Hirata (CI, 225), que a los 14 años trabajaba en Caltech; el investigador Terrence Tao (CI, 230),con más de 200 artículos publicados; la niña prodigio del ajedrez Judit Polgar (CI, 170); y el guionista televisivo Rick Rosner (CI, 192).

20130208

La crisis con Amazon AWS

La crisis con Amazon AWS

El viernes 5 de agosto  me voy con toda la familia a un pueblo de Extremadura cerca de la frontera con Portugal (Valencia de Alcántara) a visitar a unos amigos. Regresábamos el martes 9 a la tarde, ¿qué podía pasar en Menéame que no se pudiese solucionar con una navegador y la consola web de AWS si nunca habíamos tenido problemas graves? Si necesitaba algo más, podía instalar las herramientas de AWS en otro ordenador y solucionarlo en pocos minutos. Así que por primera vez viajo sin mi portátil, sólo mi tablet Android con conexión 3G Vodafone (además de mi teléfono también con 3G).

Pues ocurrió el desastre en Amazon, les falló todo lo que podía fallar, todos nuestros planes de contingencia no podía aplicarse (salvo el “rehacer desde cero” con los bakups) y yo sin mi portátil y con el 3G completamente inestable, prácticamente como si no tuviese conexión. Si no hubiese sido así Menéame no habría estado “off line” tanto tiempo, quizás sólo unas pocas horas. Fue una pesadilla.

Amazon tuvo varios fallos: primero el corte completo de la conectividad a todas las instancias, luego la desincronización del API de gestión, luego los EBS que quedaron totalmente inaccesibles y bloqueando la gestión de las instancias que los usaban, y para rematar un fallo en el software de creación de los “snapshots” (backups por bloques en S3) que borraba datos de algunos bloques (lo descubrieron durante la crisis, y nos afectó a nosotros).

Nota: es un relato rápido, ya corregiré erratas, ahora me voy a duchar, que la última vez fue en Valencia de Alcántara ;)

Arquitectura y planes de contingencia de Menéame

  • Los servidores webs de Menéame se crean y destruyen automáticamente, monitorizados por Amazon CloudWatch y el LoadBalancer. Además desarrollé otro programa que se asegura que todos estén en funcionamiento correcto, caso contrario los destruye y obliga a la creación de nuevas instancias, así no tengo que preocuparme siquiera de mirar el estado, se “auto reparan” vía dos sistemas de control independientes. Pero estos no fallaron en ningún momento.
  •  Además  tenemos dos servidores críticos para los servicios: el de base de datos (awsb) y el de NFS+autentificación+réplica base de datos (aws0). awsb es el máster de la base de datos, el más crítico y costoso de levantar, pero tiene una réplica en tiempo real en aws0. Cambiar para que aws0 se convierta en máster (failback) es sólo cuestión de cambiar una línea en un fichero de configuración local.php (y otra más para los programas “offline” en Python y Perl).
  • Se hacen backups diarios de las base de datos que se guardan en otro EBS independiente, y que sincroniza automáticamente los ficheros en S3.
  • Las imágenes y avatares se guardan en un EBS independiente, con copia automática a S3. En caso de fallo del EBS sólo hace falta crear uno nuevo, las imágenes se bajan automáticamente bajo demanda.
  • En caso de fallo del EBS con el código fuente y las utilidades necesarias tienen backup diario en otro EBS, que sincroniza automáticamente con S3.
  • Además teníamos (sí, pretérito, porque también se jodieron con el fallo de Amazon, otro bug que descubrieron ahora) imágenes en “snapshots” de cada una de las dos máquinas. Si una se moría y perdía todos los datos súbitamente, era cuestión de arrancar otra desde el snapshot, recuperar los datos de backups (desde otro EBS o S3) y asignarle la “IP elástica” para que vuelva a la normalidad.
  • Con todos estas precauciones y planes de contingencias, el tiempo de recuperación era desde unos pocos minutos hasta un máximo de 120 minutos, que es lo que se tarda en recuperar completamente la base de datos desde un el “dump” diario (la importación de datos tarda exactamente 110 minutos).
Para hacer cualquiera de las operaciones previas, basta la consola web y comandos básicos de la consola de GNU/Linux, como hacer un tar, o importar los datos a mysql desde un dump de backup. Es decir, nada que no pudiese cualquier otro sysadmin de Menéame. El tiempo estimado en el peor de los casos era de 120 minutos, supongamos que tome el doble. Cuatro horas en cálculos pesimistas para volver online ante un evento de bajísima probabilidad me parecía más que razonable para un sistema que no es crítico para nadie, ni cobra a sus clientes, ni tenemos contratos de servicios con terceros.

Pero lo que no se nos había ocurrido era que fallasen todos los EBS al mismo tiempo, y que los “snapshots” también estuviesen corruptos. No sé si es estupidez o no, pero prometo que no se me pasó por la cabeza, mucho menos que ocurriese mientras yo estuviese en un pueblo casi aislado, sin casi conexión a Internet, ni mi portátil con todas las herramientas. Lo pasé fatal.

La crisis

El domingo a las 19:40 se desconectan todas las instancias, el Menéame es inaccesible por web, tampoco podíamos acceder a las instancias. Aproximadamente a las 20 hs me avisan por SMS. Voy a verificar, no me puedo conectar (usando el ConnectBot de Android) a ninguna de las instancias, sin embargo en la consola web aparecían en estado normal. Abrimos un ticket de soporte web, pocos minutos después Amazon publica que tiene problemas de conectividad en una de sus regiones (i.e. un centro de datos), que es justamente la que estábamos usando. Nos responden que el problema es general y que están trabjando en ello. Me avisan además que hasta Paypal estaba caído. Es decir, una emergencia. Me quedo más tranquilo, ya lo solucionarán. Me voy a cenar con toda la familia, además ese noche era el festejo de la “Boda Regia”.

Durante toda la cena iba probando conectarme desde el móvil. Como a la 1 de la mañana, estando bebiendo unos gintonics en el castillo (@bufetameida y @pixspain en Twitter pueden ratificar lo que cuento, fueron testigos de primera mano)  logro entrar por ssh a ambos servidores, aws0 y awsb. El segundo (el máster de la base de datos) estaba perfecto, la base de datos intacta, pero el kernel de aws0 daba errores graves de acceso a los EBS. Tampoco había conectividad entre ellos (ni con ping).

Volvemos a la casa del pueblo (de Carlos Almeida), me conecto con el tablet. La conexión variaba de GPRS a 3G y HDSPA cada pocos segundos, por lo que la conexión ssh era una pesadilla. Intento arreglarlo desmontando los EBS, pero el umount se quedaba bloqueado, es decir, el fallo era muy importante, no había “comunicación” con esos dispositivos.

Hago un reboot de aws0, el reboot se bloquea en mitad del proceso según se veía en la consola web de Amazon AWS. No importa, pienso, tenía un “snapshot” con su AMI correspondiente (para poder arrancar una instancia idéntica directamente) de hacía pocos meses (el 1 de marzo). Desde la consola web hago que arranque una nueva instancia, me da error del snapshot. ¡Mierda! lo que me faltaba, pensé, había hecho algo mal durante la creación del AMI. Al día siguiente nos avisarían que había sido otro problema:
Separately, and independent from the power issue in the affected availability zone, we’ve discovered an error in the EBS software that cleans up unused snapshots. During a recent run of this EBS software in the EU-West Region, one or more blocks in a number of EBS snapshots were incorrectly deleted. The root cause was a software error that caused the snapshot references to a subset of blocks to be missed during the reference counting process. This process compares the blocks scheduled for deletion to the blocks referenced in customer snapshots. As a result of the software error, the EBS snapshot management system in the EU-West Region incorrectly thought some of the blocks were no longer being used and deleted them. We’ve addressed the error in the EBS snapshot system to prevent it from recurring. We have now also disabled all of the snapshots that contain these missing blocks.
En pocas palabras, que los snapshots de los discos también estaban corruptos por un error en el software que los gestiona.



En la imagen se pueden ver los snapshots, el último (con el nombre “slave”) era el básico para levantar aws0. el Día 8 de agosto Amazon lo detectó como afectado por el error -y otro más- por lo que nos avisó crearía esas copas:
We are in the process of creating a copy of the affected snapshots where we’ve replaced the missing blocks with empty block(s). Customers can then create a volume from that copy and run a recovery tool on it (e.g. a file system recovery tool like fsck); in some cases this may restore normal volume operation. We will email affected customers as soon as we have the copy of their snapshot available. You can tell if you have a snapshot that has been affected via the DescribeSnapshots API or via the AWS Management Console. The status for the snapshot will be shown as “error.” Alternately, if you have any older or more recent snapshots that were unaffected, you will be able to create a volume from those snapshots without error. We apologize for any potential impact it might have on customers applications.
A la mierda, las cosas no podían ser peor (todavía no sabía los que acabo de contar sobre los errores de “snapshots”, ni los marcaba como erróneos en ese momento). En primer lugar, los EBS son dispositivos SAN con replicación automática, se supone (y así lo anuncian y venden) que fallan menos que los discos duros (pero se paga un precio además de las tarifas por operaciones, son muy lentos, no más de 25.000 bloques E/S por segundo, con una variabilidad enorme) y que al estar replicados los datos no se pierden. Pero esta vez no sólo que los datos eran inaccesibles, también bloqueaban a las instancias que lo usaban… y además se habían cargado las imágenes de backups.

Me voy a dormir, sin poder hacer nada (y con una conexión que se me cortaba cada minuto, en el mejor de los casos) más o menos a las 4:30 de la madrugada del lunes. Benjamí se queda trabajando y abriendo tickets de soporte, horas después me entero que le cortaron la luz en su pueblo a las 8 de la mañana y por varias horas. Sí, de verdad, no exagero.

Me levanto a las 10hs, me habían conseguido un portátil con Windows 7 (qué horror de usabilidad, al menos para este tipo de trabajo, no encontraba ni la consola), pongo el tablet en modo servidor de wifi. Me conecto, sigue todo igual que el día anterior, no habían solucionado nada. Incluso estaba peor, no podía acceder a aws0 ni awsb por ssh. Tenía varios mensajes de Carme contándome básicamente que no podía hacer nada, y que no había soluciones desde el soporte de Amazon.

Intento reiniciar aws0 por la consola, no hace nada. Entonces hago lo primero “peligroso”: detengo la instancia para intentar hacer otro snapshot completo y se ser posible volver a arrancarla. Se detiene correctamente, al indicar que la arranque otra vez, pasa a “pendientes” durante unos minutos y enseguida vuelve a ponerse en estado “stopped”.

Intento crear un AMI (la imagen de arranque), pero inmediatamente da “Internal Server error”. Me pongo a hacer snapshots independientes de cada uno de los tres EBS. Me funcionan los dos importantes, el del NFS y la copia de base de datos del slave (son los dos primeros backups que se observan en la imagen anterior) pero falla el del cache (el que se regenera automáticamente desde S3). Intento varias veces hacer un “detach” de ese EBS para ver si desbloqueaba la instancia, pero era imposible:



Así que estaba sin poder conectarme por ssh, ni quitarnos de encima el EBS que parecía ser el problema. Me estiraba de los pelos, no podía creer todo lo que estaba pasando.

Carlos Almeida y mi familia me piden me tranquilice, y casi me llevan a rastras a comer a Portugal (a Castelo de Vide) y con el roaming de datos deshabilitado. Volvemos como a las 19hs, la situación sigue igual, aws0 sigue muerta, sin poder arrancar, aunque puedo ya entrar a awsb. Tomo la decisión de recuperar la instancia desde los backups de EBS que tenía, creo una nueva instancia “limpia” de Ubuntu 10.4. Me bajo la clave privada RSA desde mi copia en Dropbox para poder hacer ssh con el usuario por defecto (ubuntu). No pude hacerla funcionar en putty. Me estaba frustrando, además con la conexión errante. Vi que había herramientas para convertirla a putty, hice lo que pude, pero fue infructuoso (quizás también la cabeza no me daba para mucho más).

Además el portátil con Windows 7 iba de esa forma, cada pocos minutos el puntero del ratón de ponía como una lupa, y no podía moverlo, sólo hacía zoom del escritorio o del navegador web. Tenía que reiniciarlo frecuentemente, y usando sólo el teclado. Lo importante en este punto es que si hubiese tenido mi portátil con las herramientas de AWS (lineas de comando en Java) habría podido recuperar Menéame en pocas horas (como así sucedió cuando regresé a casa). Todavía no termino de arrepentirme de no haberlo llevado.

Al día siguiente, martes 9, a las 18:10 hs teníamos el vuelo de Sevilla a Palma. El viaje en coche desde Valencia de Alcántara a Sevilla son cuatro horas, teníamos pensado salir a la mañana temprano para visitar Mérida, que está a medio camino. Cancelamos la visita así podía quedarme hasta más tarde, saldríamos a las 12hs directamente hacia Sevilla. Me quedé intentando recuperar aws0 y entrar a la instancia nueva hasta las 4 de la mañana. Me voy a dormir, que tenía que conducir. Me levanto a las 10hs, me conecto, sigue todo exactamente igual.

Teníamos varios avisos sobre los EBS y los snapshots, y que tomarían tiempo arreglarlos (entre 24 y 48 hs), que estaban modificando el API y la consola web para agregar el estado “error” en los EBS y snapshots -sí, no tenían previsto que fallasen de esta manera-. Además nos avisan que ya podríamos hacer el “detach” de las instancias, pero no funcionaba. Estaba igual que horas antes.

Salimos a las 12:15hs después de desayunar y tomar un café adicional (yo estaba hecho polvo). Mi mujer prepara unos bocatas así no teníamos que parar a comer. Llegamos a las 15:30 al aeropuerto de Sevilla, en los últimos 20 km no encontré ninguna gasolinera para llenar el depósito antes de devolver el coche. En el aeropuerto pregunto donde hay una, cojo la autovía hacia Sevilla Este, encuentro cerca la gasolinera, cargamos, a las 16hs estábamos en facturación. Veo que el vuelo que estaba programado a las 18:10 hs estaba retrasado, la hora prevista era a las 19:05. No me dejan facturar todavía porque estaban atendiendo sólo a los del vuelo a Lanzarote. Esperamos casi una hora, aprovecho para seguir intentando recuperar, sin éxito, aws0, voy a facturación, paso los DNI… y la chica me dice que nuestro vuelo era para el 9 de setiembre, no para agosto.



Me cago en la madre del primer homosapiens.

¿Qué otra cagada me faltaba por descubrir? Creo que mi mujer estaba por pedirme el divorcio en ese mismo momento. Yo sólo me reía. Nos vamos al mostrador de Air Europa, hay cuatro plazas disponibles. La chica me dice que le penalización por cambio de fechas y clase me sale más caro que comprar los cuatro billetes. Compro cuatro billetes nuevos (casi 300 euros, contando el descuento del 50% por residentes en Balears) y facturamos, allí nos dicen que el vuelo se retrasaría todavía una hora más. Me cago en la madre de neardentales y cromagnones, nunca iba a llegar a Palma.

Pasamos el control, nos instalamos en un bar a dar de comer a las niñas y tomarme un par de cafés. Recibo un correo del director de “social media” de Air Europa, se ofrecen de devolverme el importe de los billetes del 9 de setiembre, ya que recordaba que había tenido muchos problemas con la página web cuando los compré. Al menos una buena noticia, se lo digo a mi mujer, y al menos me puedo vengar de todos los insultos que me había dedicado (y supongo que se calló la mayoría) en los últimos minutos.

Pero la alegría duró poco, en las pantallas sale que la hora estimada de salida era a las 22 horas. A tomar por culo, el cuerpo ya no aguantaba. Me instalo en uno de esos bancos sexagonales del aeropuerto de Sevilla y duermo una siesta con mis piernas haciendo un ángulo perfecto de 120 grados con la espalda.  Raquel me despierta poco antes de las 21hs porque los de Air Europa nos dieron unos tickets para que cenemos, vamos a cenar, luego al avión, subimos, nos explican el retraso se debe a que el avión venía de Lanzarote (sí, parece el mismo que embarcaba cuando llegamos al aeropuerto) y de tres secciones de controladores en Canarias sólo funcionaban dos por falta de personal. Y que para rematar ahora teníamos otro retraso por saturación al aeropuerto de Palma. Resultado, llegamos a las 0:45hs a casa.

Enciendo los ordenadores, la Nespresso, me tomo un par de cafés, un vaso de zumo de naranja y me siento a trabajar. La situación estaba exactamente igual que la noche anterior. Así que decido continuar trabajando en la instancia nueva que había creado estando en Valencia de Alcántara. A las 3 de la mañana Menéame ya funcionaba, a las 4:30 ya había recuperado todos los servicios, incluido la reconstrucción del slave de la base de datos desde el último backup que se había hecho el domingo a la madrugada (para estar más seguro no se perdían datos).

Lecciones aprendidas

Resumen breve: si hay probabilidades de morir por una vaca caída desde el cielo, mira para arriba.
Amazon vende a los EBS como sistemas muy fiables, tanto en su fallo anterior como en este, han sido el problema fundamental y que degeneró todo (de hecho las instancias webs, que sólo usan “almacenamiento volatil” no tuvieron ningún problema, sus datos estaba intactos).

Entiendo lo del rayo y que haya provocado un incendio. Lo que se me hace muy difícil de creer que ese corte haya forzado la resincronización de fase manual (ya en mi época de estudiante del grado de técnico electromecánico, hace 20 años, los sistemas de sincronización de fase eran automáticos), y que justamente haya afectado sólo a los sistemas más críticos (los EBS) y no a la alimentación de las instancias que seguían funcionando normalmente. También entiendo la enorme complejidad de los sistemas de Amazon, pero que además haya habido un bug que destruía los datos de los backups de los EBS me suena a la mayor de las putadas divinas después de la inundación en la que se salvó Noé y muchas parejas más. En el mejor de los casos parece que estamos pagando todos por la baja calidad de las subcontratas de Amazon, sobre todo teniendo en cuenta que los EBS fueron los que ocasionaron los problemas de la caída de hace unos meses en EEUU. Yo pensaba que no podía ocurrir dos veces lo mismo, y menos que fallen tantas cosas del mismo sistema: la alimentación, la sincronización, la pérdida de control desde el API, el bloqueo de instancias, los backups corruptos, la falta de automatización para recuperar la consistencia de datos (dijeron que estaban haciéndolo manualmente), y que haya afectado a todos los volúmenes de una región. ¿Todo por culpa de un rayo? Algo no cuadra.

Si la fiabilidad de EBS es la que hay ahora mismo, Amazon AWS no tiene sentido. Si tuviésemos que hacer un sistema completamente tolerante a todos estos fallos tendríamos que gastar más del doble para tener duplicado en tiempo real en otras regiones (y más complejidad si se hace el fallback  automático o acceso distribuido), el tráfico entre regiones se paga, y la latencia es mayor.

Si hay que construir todo el sistema pensando en que los EBS pueden generar todos estos problemas, no sólo hay problemas de coste, también de administración de sistemas más complejos. Es decir, estamos pagando un sobreprecio importante (en dinero y rendimiento) por la supuesta fiabilidad de los EBS. Por menos de la mitad de precio se puede contruir la misma infraestructura en proveedores de hosting normales. En Menéame pagamos unos $1.300 euros mensuales de AWS, si tuviésemos que tener todo replicado y distribuido para sobrevivir a fallos generales de los EBS deberías gastar como mínimo el doble. Por mucho menos de ese precio podría tener una arquitectura igual de redundante y más eficiente (los discos duros más cutres son mucho más rápidos que un EBS, y por lo visto, mucho más fiables) en cualquier hosting tradicional.

Amazon debería re-estructurar y definir bien las condiciones de servicio de los EBS. Si estos problemas generalizados y “bloqueantes” pueden volver a ocurrir, acabaremos migrando a otro proveedor. No se puede vivir tranquilo con esta espada en la nuca por fallos catastróficos de los sistemas que te venden como “tolerantes a fallos y replicados” y sobre el que no pueden basar para construir los “planes de contingencia”. Teníamos varios de esos planes, todos fallaron. Nuestra estimación en el peor de los casos no llegaba a más de dos horas aún con la mayor catástrofe… si estoy disponible para hacer las tareas más complejas y que requieren mucha experiencia (es reconstruir la arquitectura casi desde cero, y con comandos del API no accesibles desde la consola web). Por lo tanto no disponible para la mayoría de las startups y empresas pequeñas, y mucho menos tener personal duplicado por si uno de ellos está desconectado en un pueblo de la Extremadura profunda cerca de la frontera con Portugal.

Si eres el único que puede recuperar un sistema cuando fallan todos los planes de contingencia anteriores, nunca viajes sin tu ordenador preparado, e incluso con 3G de varias empresas (que manda huevos, también tengo otro SIM de ONO que va por Movistar, y no lo había llevado). ¿Suena ridículo si estás pagando un sobreprecio para estar tranquilo? Pues sí, por eso acabo de ver y/o entender el modelo de negocio para solucionar emergencias de empresas que no pueden tener dos personas expertas en “la nube” para solucionar estas emergencias graves. Pero sigue siendo ridículo que haya que pagar otro sobreprecio para dar tolerancia a fallos a un sistema que te venden como tolerante a fallos.

Creo en “la nube”, y que es el futuro, pero Amazon ha fallado -dos veces- en asegurar el funcionamiento correcto del servicio crítico de un sistema que sirve de pilar a todo lo demás. No sé si tiene solución, ni cómo lo tomará Amazon. Pero si no hay aclaración de por qué no cumplen con sus condiciones de servicio y cómo será en el futuro, habrá que pensar en abandonarlo. Por ahora y mientras no haya esa aclaración técnica de cómo será en el futuro, no aconsejaría a ninguna startup que se mudara allí: te pueden arruinar las vacaciones, y afectar a la familia. Me ha pasado, en el peor momento posible

Sólo me queda pedir otra vez disculpas. Y prometo no volver a viajar sin mi portátil, al menos hasta que tengamos sistemas de fallback automáticos repartidos en al menos dos continentes y tres centros de datos.

20130207

Premiada por el MIT, menospreciada en España: "Es como si no existiéramos"

Los 150 millones del plan PIVE2 dan para 2 años de CERN (somos los únicos morosos de Europa) + 50 millones para investigación patria. Pero hay que subvencionar a los coches, claro..

El que pueda, el que tenga la más mínima posibilidad, que se largue del estercolero, y que no sienta pena, ni siquiera que mire atrás..


Premiada por el MIT, menospreciada en España: "Es como si no existiéramos"

Es la única mujer premiada por el MIT bajo la modalidad de TR35 Spain, que se concede cada año a 10 personas menores de 35 años que hayan destacado como emprendedores y aporten algo nuevo al avance de la ciencia y el conocimiento. La española Ana María Díez Pascual trabaja en el grupo de física de polímeros del Instituto de Ciencia y Tecnología de Polímeros (ICTP-CSIC). Allí ha desarrollado, junto al resto de su equipo de investigación, un proyecto en nanotecnología capaz de fabricar mejores materiales en la industria aeronáutica.

Esta joven nacida en Salamanca y licenciada en Química por la Universidad Complutense de Madrid ha ideado un método simple y escalable a nivel industrial para producir nanocompuestos termoplásticos que incorporan otros materiales que los refuerzan. Estos materiales ofrecen a la industria propiedades tan atractivas como una gran resistencia y ligereza. Cualidades cruciales para los fabricantes de aeronaves, que operan miles de vuelos diarios y cuyo peso de sus componentes influye en la rentabilidad.

Teknautas ha podido entrevistar a Ana María y abordar temas como los premios TR35 Spain, la nanotecnología, el grafeno y la situación de la investigación en España.

¿En qué consiste el proyecto en el que estás trabajando y quiénes forman parte del equipo?

La idea surgió a raíz de una colaboración entre cuatro institutos de investigación, dos del National Research Council de Canada (NRC) y otros dos del Consejo Superior de Investigaciones Científicas (CSIC): el Instituto de Ciencia y Tecnología de Polímeros (ICTP) y el Instituto de Carboquímica (ICB).

Actualmente estamos trabajando en nanocompuestos, un material que tiene distintos elementos de los que uno de ellos son los nanotubos, algo que solo se ve con microscopías de alta resolución. Integramos estos nanotubos de carbono en dos tipos de polímeros muy adecuados para la industria aeronáutica debido a su ligereza y propiedades mecánicas, eléctricas y térmicas. Uno es la polieter éter cetona (PEEK) y el otro es una resina epoxy.

Las estrategias que desarrollamos han dado lugar a una mejor dispersión de los nanotubos que en la integración directa, que es el método habitual de incorporarlos en una matriz polimérica, y que generalmente resulta en la formación de agregados y, por tanto, limita la mejora de sus propiedades.

¿De qué forma puede repercutir en el día a día?

De muchas maneras. En un principio, el desarrollo de estos compuestos a gran escala ofrecerá importantes ventajas en la fabricación de nuevos materiales para el sector del transporte y la industria aeronáutica. Además, nuestros materiales son multifuncionales. Podrían utilizarse tanto en aplicaciones que requieran alta conductividad como por ejemplo recubrimientos antiestáticos o apantallamiento de ondas electromagnéticas, como en aquellas que necesiten buenas propiedades estructurales, como palas de generadores eólicos o puentes.

Nanotecnología, grafeno... ¿cuáles son las tendencias que nos esperan en un futuro?

En el campo de los materiales actualmente se está reforzando mucho el trabajo con todo tipo de partículas a nivel nano, ya sean nanotubos, nanopartículas de óxidos inorgánicos o el grafeno. Este último material es uno de los más resistentes que se conocen, con una resistencia 200 veces superior a la del acero. Se espera que en los próximos años el grafeno facilite muy buenas propiedades pero todavía estamos empezando.

En nuestro sector la tendencia actual es la de reemplazar los metales como el acero por otros materiales más ligeros. Los reforzados con fibras de carbono ocupan cada vez más porcentaje del peso total de los aviones. Una tendencia que se puede cambiar. Ahora hemos descubierto una forma de mejorar la unión entre la matriz y el recubrimiento de nanotubos de carbono, lo que permite una concentración de refuerzo de menos del uno por ciento en peso, muy inferior que la se utiliza normalmente en compuestos que incorporan otro tipo de refuerzos de tamaño nanoscópico, como nanoarcillas o nanofibras. En términos de aplicación industrial, esto supone una reducción de peso y, correspondientemente, de coste y de emisiones contaminantes.

¿Cómo está afectando la crisis a la investigación en nanotecnología?

La crisis está afectando mucho. Primero porque se está recortado el número de contratos, y sobre todo para doctores. Actualmente, los doctores tenemos las convocatorias Juan de la Cierva y Ramón y Cajal, pero el número de contratos se ha reducido prácticamente a la mitad. Si no consigues financiación de allí no hay más porque casi no hay recursos. Además, el Gobierno ha disminuido significativamente el número de proyectos de investigación y los grandes talentos se están marchando a centros extranjeros donde tienen mejores ofertas de trabajo.

Algunos alegan que la investigación puntera en nanotecnología es cara...

Es cierto. La investigación en nanotecnología es cara porque los materiales de partida tienen un precio muy elevado. Pero esto está pasando en todas las áreas, no solo en la nuestra. El dinero que dedican otros países a investigación en general, comparado con el nuestro, es mucho mayor. Aquí parece que no es rentable. Es como si los investigadores no sirviéramos para nada. Aunque haya crisis, en mi opinión la investigación es de lo último que se debe de recortar.

¿Valora la posibilidad de marcharse fuera?

Siempre está esa opción. Desde luego, oportunidades fuera hay. En el MIT por ejemplo ofrecen muchas facilidades tanto como para ciencia como emprendedores. Dependiendo de los casos, te facilitan dinero, apoyo e incluso consultores. También está la opción de abandonar o dedicarse a otra cosa.