20131228
Científicos del calentamiento global quedan atrapados por el hielo
Científicos del calentamiento global quedan atrapados por el hielo
La expedición quedó atrapada por el hielo cuando volvía de estudiar el calentamiento global en la Antártida.
El barco ruso Akademik Shokalskiy volvía de una expedición a la Antártida de Sir Douglas Mawson para hacer una investigación científica sobre el calentamiento global cuando quedó encallado en el hielo el día de Nochebuena.
Los pasajeros atrapados a bordo durante más de tres días podrían ser evacuados en helicóptero, después de que otra embarcación de rescate no pudiera acceder. El barco cuenta con 74 personas a bordo, incluyendo científicos, miembros de la tripulación y los pasajeros que pagan.
El rompehielos chino enviado para el rescate se quedó a seis y media millas náuticas del barco de la expedición, pero tuvo que detenerse porque la capa de hielo era demasiado gruesa. "Se ha encontrado hielo pesado y no es seguro para ellos seguir por su propia seguridad", dijo el capitán. "El capitán del buque debe tener en cuenta la seguridad de su tripulación y su barco también. Vamos a buscar otras opciones". La nave china tiene un helicóptero a bordo y ha pedido permanecer en el área.
20131225
20131224
Turing, condenado por ser gay, recibe el perdón real 60 años después de su muerte
Placa conmemorativa en la antigua casa de Turing
Turing, condenado por ser gay, recibe el perdón real 60 años después de su muerte
El matemático británico Alan Turing (1912-1954), que jugó el papel decisivo en la victoria en la II Guerra Mundial tras descifrar los códigos nazis y al que se considera el padre de la computación, recibió este martes el perdón real a título póstumo, más de 60 años después de su condena por homosexualidad en el Reino Unido.
Considerado el Einstein de las matemáticas, este pionero de la informática murió en 1954 a la edad de 41 años, envenenado con cianuro que había sido impregnado en una manzana. La tesis general es que se suicidó aunque nunca ha sido demostrado en una investigación oficial. Dos años antes, había sido condenado por "atentado contra las moral pública" y obligado a la castración química a causa de su homosexualidad, ilegal en el Reino Unido hasta 1967.
Durante su vida, Turing logró sentar las bases de la informática moderna y definió los criterios de la inteligencia artificial, que siguen todavía en vigor a través del famoso test de Turing, que detecta la capacidad de una máquina para mantener una conversación.
Su hazaña más conocida es haber conseguido descifrar el código de la máquina Enigma, utilizado por los submarinos alemanes en el Atlántico norte durante la II Guerra Mundial. Muchos historiadores creen que sin este logro, que consiguieron los matemáticos de Benchley Park, cerca de Londres, no se hubiese ganado la guerra.
Alan Turing recibió el perdón de la reina Isabel II tras una propuesta del ministro de Justicia, Chris Grayling, que evocó "un hombre excepcional de espíritu brillante". Desde hace años, había una campaña para exigir al Reino Unido el perdón público a Turing. "Su genio aplicado en Benchley Park durante la II Guerra Mundial, donde su aportación fue decisiva para quebrar el código Enigma, ayudó a poner fin al conflicto y salvó millones de vidas", ha comentado el ministro. "Su vida se vio ensombrecida por su condena por homosexualidad, condena que consideramos hoy injusta y discriminatoria y que, por lo tanto, queda anulada", añade.
En 2009, el entonces primer ministro, Gordon Brown, le pidió perdón póstumamente. En 2012, el año del centenario de su nacimiento, 11 científicos británicos, entre ellos Stephen Hawkings, pidideron la anulación de su condena. En 2012, después de que se hubiesen recogido 23.000 firmas, el Gobierno británico rechazó el perdón alegando que "fue condenado por una ley que estaba entonces vigente".
Existe una teoría que señala que la manzana mordida, símbolo de Apple, es un homenaje a la manzana con cianuro con la que Turing presuntamente se suicidó.
20131223
Muere el inventor del fusil Kalshnikov
Muere el inventor del fusil Kalshnikov
El diseñador de armas ruso Mijaíl Kaláshnikov, inventor del fusil AK-47, que actualmente es el arma más utilizada del mundo, ha muerto a los 94 años en un hospital de la república rusa de Udmurtia. "Hoy nos llegó una triste noticia: tras una larga y grave enfermedad falleció a los 94 años de edad el legendario diseñador de armas de fuego Mijaíl Timoféyevich Kaláshnikov", ha escrito en su página de Facebook Víctor Chulkov, portavoz del presidente y Gobierno de Udmurtia.
Kaláshnikov permanecía ingresado desde el pasado 17 de noviembre en el Centro Clínico y Diagnóstico de la República de Udmurtia, donde se le sometió a terapias intensivas por una hemorragia estomacal. Anteriormente, Kaláshnikov, quien no se encontraba bien desde marzo pasado y no acudió al trabajo desde entonces, fue hospitalizado en varias ocasiones por distintos problemas de salud.
Las autoridades sanitarias de Udmurtia, donde residía el diseñador y donde se encuentra la fábrica de armamento, confirmaron que Kaláshnikov sufría diferentes dolencias.
A finales de octubre, Kaláshnikov escribió una carta al presidente ruso, Vladímir Putin, para denunciar la mala gestión de la fábrica por parte de su actual directiva. Debido a su delicado estado de salud sus hijos dejaron de mantenerle al tanto de las operaciones en la fábrica, como cuando el Ejército ruso anunció en 2011 que dejaría de comprar fusiles Kaláshnikov por excesos de existencias en sus arsenales.
Kaláshnikov confesó en 2007, con motivo del 60 aniversario del registro oficial de su fusil en la URSS, que los nazis, al invadir su país en la Segunda Guerra Mundial (1939-1945) fueron los verdaderos responsables de su invento porque su auténtica vocación era diseñar maquinaria agrícola.
El diseñador de armas ruso Mijaíl Kaláshnikov, inventor del fusil AK-47, que actualmente es el arma más utilizada del mundo, ha muerto a los 94 años en un hospital de la república rusa de Udmurtia. "Hoy nos llegó una triste noticia: tras una larga y grave enfermedad falleció a los 94 años de edad el legendario diseñador de armas de fuego Mijaíl Timoféyevich Kaláshnikov", ha escrito en su página de Facebook Víctor Chulkov, portavoz del presidente y Gobierno de Udmurtia.
Kaláshnikov permanecía ingresado desde el pasado 17 de noviembre en el Centro Clínico y Diagnóstico de la República de Udmurtia, donde se le sometió a terapias intensivas por una hemorragia estomacal. Anteriormente, Kaláshnikov, quien no se encontraba bien desde marzo pasado y no acudió al trabajo desde entonces, fue hospitalizado en varias ocasiones por distintos problemas de salud.
Las autoridades sanitarias de Udmurtia, donde residía el diseñador y donde se encuentra la fábrica de armamento, confirmaron que Kaláshnikov sufría diferentes dolencias.
A finales de octubre, Kaláshnikov escribió una carta al presidente ruso, Vladímir Putin, para denunciar la mala gestión de la fábrica por parte de su actual directiva. Debido a su delicado estado de salud sus hijos dejaron de mantenerle al tanto de las operaciones en la fábrica, como cuando el Ejército ruso anunció en 2011 que dejaría de comprar fusiles Kaláshnikov por excesos de existencias en sus arsenales.
Kaláshnikov confesó en 2007, con motivo del 60 aniversario del registro oficial de su fusil en la URSS, que los nazis, al invadir su país en la Segunda Guerra Mundial (1939-1945) fueron los verdaderos responsables de su invento porque su auténtica vocación era diseñar maquinaria agrícola.
20131221
El ADN de los neandertales revela que las cuatro especies humanas se aparearon hace 50.000 años
El ADN de los neandertales revela que las cuatro especies humanas se aparearon hace 50.000 años
Yo ya lo sabía por mis pinitos en Bioinformática, pero esto es la noticia del siglo de momento. La especie humana no es unitaria, como todo el mundo pensaba, ni uniforme viniendo todo dios de África.
El análisis de ADN de los fósiles de los parientes humanos más cercanos no deja de aportar nuevos y revolucionarios datos sobre la evolución del hombre moderno. En 2010, la publicación de un primer borrador del genoma de los neandertales -dirigido por investigadores del Instituto de Antropología Evolutiva del Max Planck, pero con participación española- ya dio las primeras pruebas irrefutables de que la especie humana moderna y los neandertales hibridaron durante los miles de años de coexistencia de ambas especies. Algo de sangre neandertal corre por las venas de los europeos.
Pero la secuencia de nuestro pariente más cercano aún no ha dejado de aportar datos para la ciencia y para el debate. La revista Nature acaba de publicar los resultados del análisis del genoma neandertal completo con una resolución mucho mayor que la de aquel primer borrador -tanta que es equiparable a la que se tiene del ser humano actual- y los resultados han puesto patas arriba la evolución humana en los últimos 70.000 años.
Para empezar, el análisis comparativo ha puesto de manifiesto que los genomas de las tres especies de homínidos conocidas que habitaron Eurasia en el Pleistoceno tardío (hace unos 50.000 años) contienen secuencias que no corresponden a ninguno de los homínidos conocidos, lo que sugiere que en aquel tiempo había otra especie humana en Europa que aún no ha sido descubierta. Además, deja aún más patente no sólo que neandertales y humanos modernos (Homo sapiens) se aparearon e intercambiaron genes, sino que también lo hicieron con la tercera especie conocida, los denisovanos, una especie arcaica conocida sólo por su secuencia genética obtenida a partir del hueso de un dedo encontrado en la Cueva de Denisova, en las Montañas Altai (Siberia).
Precisamente, las muestras de ADN neandertal utilizado por el equipo del Max Planck dirigido por Kay Prüfer y Svante Pääbo para este último análisis provienen precisamente de la misma cueva, aunque el hueso denisovano y el dedo del pie de una mujer neandertal usado ahora están separados en el tiempo por varios miles de años, según citan Ewan Birney y Jonathan Pritchard, del Wellcome Trust Genome Campus de Cambridge (Reino Unido), en un artículo que acompaña a la investigación en la revista 'Nature'.
"El hallazgo significa que podemos entender mejor las interacciones entre neandertales, denisovanos y nuestros propios ancestros", asegura Chris Stringer, del Museo de Historia Natural de Londres. "El fósil también ha aportado evidencias de que neandertales y denisovanos se cruzaron entre ellos y, además, con los humanos modernos y con otra especie arcaica desconocida", dice Stringer.
La investigación llega incluso a determinar cuánto del ADN de los humanos modernos de Eurasia ha sido heredado de los neandertales: un 2%. Y señala que en los africanos actuales no es posible detectar ADN neandertal. "Parece que Eurasia fue un interesante lugar para ser un homínido en el Pleistoceno tardío, con individuos de al menos cuatro grupos encontrándose y, ocasionalmente, teniendo sexo", dicen Birney y Pritchard en su artículo.
y además:
El hombre comparte el 99% del ADN con el chimpancé
Ever since researchers sequenced the chimp genome in 2005, they have known that humans share about 99% of our DNA with chimpanzees, making them our closest living relatives. But there are actually two species of apes that are this closely related to humans: bonobos (Pan paniscus) and the common chimpanzee (Pan troglodytes). This has prompted researchers to speculate whether the ancestor of humans, chimpanzees, and bonobos looked and acted more like a bonobo, a chimpanzee, or something else—and how all three species have evolved differently since the ancestor of humans split with the common ancestor of bonobos and chimps between 4 million and 7 million years ago in Africa.
Yo ya lo sabía por mis pinitos en Bioinformática, pero esto es la noticia del siglo de momento. La especie humana no es unitaria, como todo el mundo pensaba, ni uniforme viniendo todo dios de África.
El análisis de ADN de los fósiles de los parientes humanos más cercanos no deja de aportar nuevos y revolucionarios datos sobre la evolución del hombre moderno. En 2010, la publicación de un primer borrador del genoma de los neandertales -dirigido por investigadores del Instituto de Antropología Evolutiva del Max Planck, pero con participación española- ya dio las primeras pruebas irrefutables de que la especie humana moderna y los neandertales hibridaron durante los miles de años de coexistencia de ambas especies. Algo de sangre neandertal corre por las venas de los europeos.
Pero la secuencia de nuestro pariente más cercano aún no ha dejado de aportar datos para la ciencia y para el debate. La revista Nature acaba de publicar los resultados del análisis del genoma neandertal completo con una resolución mucho mayor que la de aquel primer borrador -tanta que es equiparable a la que se tiene del ser humano actual- y los resultados han puesto patas arriba la evolución humana en los últimos 70.000 años.
Para empezar, el análisis comparativo ha puesto de manifiesto que los genomas de las tres especies de homínidos conocidas que habitaron Eurasia en el Pleistoceno tardío (hace unos 50.000 años) contienen secuencias que no corresponden a ninguno de los homínidos conocidos, lo que sugiere que en aquel tiempo había otra especie humana en Europa que aún no ha sido descubierta. Además, deja aún más patente no sólo que neandertales y humanos modernos (Homo sapiens) se aparearon e intercambiaron genes, sino que también lo hicieron con la tercera especie conocida, los denisovanos, una especie arcaica conocida sólo por su secuencia genética obtenida a partir del hueso de un dedo encontrado en la Cueva de Denisova, en las Montañas Altai (Siberia).
Precisamente, las muestras de ADN neandertal utilizado por el equipo del Max Planck dirigido por Kay Prüfer y Svante Pääbo para este último análisis provienen precisamente de la misma cueva, aunque el hueso denisovano y el dedo del pie de una mujer neandertal usado ahora están separados en el tiempo por varios miles de años, según citan Ewan Birney y Jonathan Pritchard, del Wellcome Trust Genome Campus de Cambridge (Reino Unido), en un artículo que acompaña a la investigación en la revista 'Nature'.
"El hallazgo significa que podemos entender mejor las interacciones entre neandertales, denisovanos y nuestros propios ancestros", asegura Chris Stringer, del Museo de Historia Natural de Londres. "El fósil también ha aportado evidencias de que neandertales y denisovanos se cruzaron entre ellos y, además, con los humanos modernos y con otra especie arcaica desconocida", dice Stringer.
La investigación llega incluso a determinar cuánto del ADN de los humanos modernos de Eurasia ha sido heredado de los neandertales: un 2%. Y señala que en los africanos actuales no es posible detectar ADN neandertal. "Parece que Eurasia fue un interesante lugar para ser un homínido en el Pleistoceno tardío, con individuos de al menos cuatro grupos encontrándose y, ocasionalmente, teniendo sexo", dicen Birney y Pritchard en su artículo.
y además:
El hombre comparte el 99% del ADN con el chimpancé
Ever since researchers sequenced the chimp genome in 2005, they have known that humans share about 99% of our DNA with chimpanzees, making them our closest living relatives. But there are actually two species of apes that are this closely related to humans: bonobos (Pan paniscus) and the common chimpanzee (Pan troglodytes). This has prompted researchers to speculate whether the ancestor of humans, chimpanzees, and bonobos looked and acted more like a bonobo, a chimpanzee, or something else—and how all three species have evolved differently since the ancestor of humans split with the common ancestor of bonobos and chimps between 4 million and 7 million years ago in Africa.
20131220
Gerda Horneck: “Si hay vida en Marte no la traeremos a la Tierra, es demasiado peligroso”
a destacar lo que entiende la NASA por "esterilización"..
Gerda Horneck: “Si hay vida en Marte no la traeremos a la Tierra, es demasiado peligroso”
Interesante entrevista con la astrobióloga alemana Gerda Horneck.
Entre otras cosas comenta:
Cada sonda terrestre de la NASA que aterriza en Marte lleva con ella hasta 300.000 esporas terrestres (nivel de esterilización que la NASA considera no peligroso para contaminar de vida terrestre el planeta rojo).
Para buscar vida hay que ser más cuidadoso (para que las muestras que se toman de Marte no se contaminen con vida terrestre que vaya en la sonda) y el coste sólo de esta esterilización más minuciosa asciende a 200 millones de euros. Es por ello que desde la Viking no se han vuelto a lanzar sondas que busquen vida directamente en ese planeta.
No se deben traer muestras de Marte a la Tierra (salvo que estemos muy seguros de su aislamiento del medio terrestre) por miedo a una posible contaminación de vida extraterrestre en la Tierra con el consiguiente peligro para la vida en nuestro planeta.
No habrá misiones a Marte sin regreso (es decir con infraestructuras en el planeta suficientes para mantener la vida humana de forma indefinida) al menos en 100 años.
Por ultimo, tal vez los chinos sean los primeros en detectar vida extraterrestre ya que, según Horneck, "tienen más coraje y son fiables".
Gerda Horneck: “Si hay vida en Marte no la traeremos a la Tierra, es demasiado peligroso”
Interesante entrevista con la astrobióloga alemana Gerda Horneck.
Entre otras cosas comenta:
Cada sonda terrestre de la NASA que aterriza en Marte lleva con ella hasta 300.000 esporas terrestres (nivel de esterilización que la NASA considera no peligroso para contaminar de vida terrestre el planeta rojo).
Para buscar vida hay que ser más cuidadoso (para que las muestras que se toman de Marte no se contaminen con vida terrestre que vaya en la sonda) y el coste sólo de esta esterilización más minuciosa asciende a 200 millones de euros. Es por ello que desde la Viking no se han vuelto a lanzar sondas que busquen vida directamente en ese planeta.
No se deben traer muestras de Marte a la Tierra (salvo que estemos muy seguros de su aislamiento del medio terrestre) por miedo a una posible contaminación de vida extraterrestre en la Tierra con el consiguiente peligro para la vida en nuestro planeta.
No habrá misiones a Marte sin regreso (es decir con infraestructuras en el planeta suficientes para mantener la vida humana de forma indefinida) al menos en 100 años.
Por ultimo, tal vez los chinos sean los primeros en detectar vida extraterrestre ya que, según Horneck, "tienen más coraje y son fiables".
20131219
Cinco predicciones sobre seguridad informática para el 2014
Cinco predicciones sobre seguridad informática para el 2014
Blue Coat Systems indicó que las extorsiones por Ramsomware
aumentarán a nivel corporativo y las empresas deberán destinar mayores
presupuestos para protegerse de los ciberdelitos. Tome note y prepárese
para el próximo año.
1. Extorsiones por Ramsomware en aumento
Las extorsiones de información por infecciones de Ramsomware están creciendo cada vez más y con mayor sofisticación. El costo de la recuperación de los datos va en aumento en comparación con el año anterior y los delincuentes exigen una mayor recompensa debido a la inflación. No hay garantía de que los extorsionadores desbloqueen los archivos con este pago, por lo que generalmente se aconseja no pagar la recompensa ya que esto provoca que los ciberdelincuentes se fortalezcan. Cryptolocker es un ejemplo reciente de cómo el Ransomware se está convirtiendo en un sofisticado e implacable malware.
2. Incremento en presupuestos para seguridad (detección y reparación de daños)
Gartner declaró recientemente que el presupuesto de la seguridad total gastado en la detección rápida y la capacidad de reparación también se incrementará del 10% al 75 % para el 2020. Un ejemplo de esto es la reciente iniciativa Waking Shark 2 para probar la preparación ciberataque dentro de la industria financiera del Reino Unido. La red se está convirtiendo en un gran punto ciego y a medida que aumenta el tráfico cifrado, las empresas se volverán ciegas ante el tráfico en sus redes que inevitablemente resultará en un mayor número de violaciones a la seguridad.
3. Pensar en ROSI (retorno de inversión en seguridad) dentro del plan de la empresa
El ROI (retorno de inversión) ya no es todo lo que debe medirse en una empresa. El ROSI (retorno de la inversión en seguridad) no es tan fácil de medir cuantitativamente y tiende a medirse cualitativamente, pero ahora ya hay una presión para las áreas de TI y dirección para medir la seguridad más subjetivamente. Tanto el ROSI como el ROI se pueden aprovechar cuando se trata de justificar el presupuesto. El alinear el presupuesto de seguridad con las prioridades del negocio deberá centrarse en la reducción de riesgos.
4. Gestión de tiendas de aplicaciones en las empresas (MDM)
Las empresas desean dar mayor poder de decisión a los empleados. Los empleados quieren ser más productivos en cualquier momento y en cualquier lugar a través de una variedad de dispositivos. Suena bien, ¿verdad? Y lo es, hasta que usted piensa acerca de los problemas de gestión de ancho de banda, problemas de seguridad y problemas de privacidad que pueden surgir al momento en que los empleados descargan más y más aplicaciones.
Para obtener el control sobre la red, las empresas van a crear sus propias tiendas de aplicaciones para mantener sus redes, datos, IP y seguridad de los empleados. La clasificación App va a jugar un papel clave en la creación y gestión de tiendas de aplicaciones empresariales.
5. La empresas necesitan prevenir, detectar y responder
Existe actualmente en las empresas una brecha entre las operaciones de seguridad diarias y los equipos de operaciones de seguridad avanzada que se traduce en violaciones a la seguridad de materiales. De acuerdo a los datos del Informe de Incumplimiento Verizon, el 84% de los ataques dirigidos avanzados tomó segundos, minutos u horas para lograr su objetivo mientras que el 78% de las violaciones tomó semanas, meses o años en descubrirse.
Esta brecha existe porque las defensas de seguridad tradicionales están diseñadas para detectar y bloquear amenazas conocidas, pero siguen siendo en gran medida ciegas ante las amenazas de día cero (zero-day threats) y los nuevos ataques de malware. Las empresas necesitan aumentar sus defensas previniendo lo que se puede, detectando lo que no puede y respondiendo a lo que ya está ahí.
Las extorsiones de información por infecciones de Ramsomware están creciendo cada vez más y con mayor sofisticación. El costo de la recuperación de los datos va en aumento en comparación con el año anterior y los delincuentes exigen una mayor recompensa debido a la inflación. No hay garantía de que los extorsionadores desbloqueen los archivos con este pago, por lo que generalmente se aconseja no pagar la recompensa ya que esto provoca que los ciberdelincuentes se fortalezcan. Cryptolocker es un ejemplo reciente de cómo el Ransomware se está convirtiendo en un sofisticado e implacable malware.
2. Incremento en presupuestos para seguridad (detección y reparación de daños)
Gartner declaró recientemente que el presupuesto de la seguridad total gastado en la detección rápida y la capacidad de reparación también se incrementará del 10% al 75 % para el 2020. Un ejemplo de esto es la reciente iniciativa Waking Shark 2 para probar la preparación ciberataque dentro de la industria financiera del Reino Unido. La red se está convirtiendo en un gran punto ciego y a medida que aumenta el tráfico cifrado, las empresas se volverán ciegas ante el tráfico en sus redes que inevitablemente resultará en un mayor número de violaciones a la seguridad.
3. Pensar en ROSI (retorno de inversión en seguridad) dentro del plan de la empresa
El ROI (retorno de inversión) ya no es todo lo que debe medirse en una empresa. El ROSI (retorno de la inversión en seguridad) no es tan fácil de medir cuantitativamente y tiende a medirse cualitativamente, pero ahora ya hay una presión para las áreas de TI y dirección para medir la seguridad más subjetivamente. Tanto el ROSI como el ROI se pueden aprovechar cuando se trata de justificar el presupuesto. El alinear el presupuesto de seguridad con las prioridades del negocio deberá centrarse en la reducción de riesgos.
4. Gestión de tiendas de aplicaciones en las empresas (MDM)
Las empresas desean dar mayor poder de decisión a los empleados. Los empleados quieren ser más productivos en cualquier momento y en cualquier lugar a través de una variedad de dispositivos. Suena bien, ¿verdad? Y lo es, hasta que usted piensa acerca de los problemas de gestión de ancho de banda, problemas de seguridad y problemas de privacidad que pueden surgir al momento en que los empleados descargan más y más aplicaciones.
Para obtener el control sobre la red, las empresas van a crear sus propias tiendas de aplicaciones para mantener sus redes, datos, IP y seguridad de los empleados. La clasificación App va a jugar un papel clave en la creación y gestión de tiendas de aplicaciones empresariales.
5. La empresas necesitan prevenir, detectar y responder
Existe actualmente en las empresas una brecha entre las operaciones de seguridad diarias y los equipos de operaciones de seguridad avanzada que se traduce en violaciones a la seguridad de materiales. De acuerdo a los datos del Informe de Incumplimiento Verizon, el 84% de los ataques dirigidos avanzados tomó segundos, minutos u horas para lograr su objetivo mientras que el 78% de las violaciones tomó semanas, meses o años en descubrirse.
Esta brecha existe porque las defensas de seguridad tradicionales están diseñadas para detectar y bloquear amenazas conocidas, pero siguen siendo en gran medida ciegas ante las amenazas de día cero (zero-day threats) y los nuevos ataques de malware. Las empresas necesitan aumentar sus defensas previniendo lo que se puede, detectando lo que no puede y respondiendo a lo que ya está ahí.
20131217
20131216
Gmail 'cacheará' las imágenes referenciadas en correos HTML
a priori es un método que presenta muchas ventajas para el usuario..
Gmail 'cacheará' las imágenes referenciadas en correos HTML
El blog oficial de Gmail anuncia un cambio en su política de seguridad que afecta a las imágenes contenidas en los correos electrónicos. Anteriormente, los correos HTML que incluían imágenes descargadas desde servidores externos se mostraban en Gmail con un aviso al usuario, pidiéndole permiso para descargar y mostrar las imágenes.
A partir de ahora, la nueva política de Gmail será mostrar automáticamente las imágenes, sin intervención del usuario. Y para aumentar la seguridad, los mensajes de correo se modificarán al vuelo para que las imágenes no se descarguen de sus servidores originales, sino de servidores proxy de Google que actuarán como caché de imágenes.
La descarga de imágenes al visualizar un mensaje de correo electrónico es un método usado por empresas y particulares para obtener diversos datos del destinatario del correo, como por ejemplo, geolocalización, confirmación de la apertura del correo, etc.
Estos datos pueden usarse con distintos fines caso de obtención de estadísticas de campañas de publicidad por correo electrónico, obtención de datos sobre la computadora para realizar ataques sobre ella, etc.
Google presenta el cambio como ventajoso para el usuario. No habrá que habilitar las imágenes de remitentes desconocidos, y las imágenes cacheadas serán escaneadas en busca de virus o malware.
Gmail 'cacheará' las imágenes referenciadas en correos HTML
El blog oficial de Gmail anuncia un cambio en su política de seguridad que afecta a las imágenes contenidas en los correos electrónicos. Anteriormente, los correos HTML que incluían imágenes descargadas desde servidores externos se mostraban en Gmail con un aviso al usuario, pidiéndole permiso para descargar y mostrar las imágenes.
A partir de ahora, la nueva política de Gmail será mostrar automáticamente las imágenes, sin intervención del usuario. Y para aumentar la seguridad, los mensajes de correo se modificarán al vuelo para que las imágenes no se descarguen de sus servidores originales, sino de servidores proxy de Google que actuarán como caché de imágenes.
La descarga de imágenes al visualizar un mensaje de correo electrónico es un método usado por empresas y particulares para obtener diversos datos del destinatario del correo, como por ejemplo, geolocalización, confirmación de la apertura del correo, etc.
Estos datos pueden usarse con distintos fines caso de obtención de estadísticas de campañas de publicidad por correo electrónico, obtención de datos sobre la computadora para realizar ataques sobre ella, etc.
Google presenta el cambio como ventajoso para el usuario. No habrá que habilitar las imágenes de remitentes desconocidos, y las imágenes cacheadas serán escaneadas en busca de virus o malware.
20131215
Crean los primeros “ciborgs” espermatozoides
Crean los primeros “ciborgs” espermatozoides
Si creíamos haberlo visto todo, esto nos hará saber que no. He aquí el primer espermatozoide ciborg de la historia. En el Instituto Nanocientífico de Dresden (Alemania) han conseguido crear los primeros “biobots” basados en esperma.
Esto ha sido posible al unir un microorganismo artificial con el espermatozoide de un toro, con la posibilidad de controlarlo funcionando como vehículo de transporte de fármacos u otras sustancias a cualquier parte del cuerpo.
El spermbot, como lo han bautizado, se ha creado utilizando un micro-tubo de 50 micras de largo donde va introducido el espermatozoide, pero dejando la cola (flagelo) fuera. De esta forma, mediante el control del campo magnético del tubo, pudieron controlar la dirección de este curioso “vehículo” hacia donde quisieran.
No podemos dejar escapar las palabras del líder de esta investigación, Oliver Schmidt:
Las células de esperma son una opción atractiva debido a que son inofensivos para el cuerpo humano, no requieren una fuente de alimentación externa, y pueden nadar a través de los líquidos viscosos.
Y pese a que nos pueda echar hacia atrás la idea de que un espermatozoide pueda circular por cualquier parte de nuestro cuerpo en el interior de un micro-tubo metálico, lo cierto es que se trata de una idea genial que podrá ayudar a avanzar en muchos proyectos de la medicina.
Si creíamos haberlo visto todo, esto nos hará saber que no. He aquí el primer espermatozoide ciborg de la historia. En el Instituto Nanocientífico de Dresden (Alemania) han conseguido crear los primeros “biobots” basados en esperma.
Esto ha sido posible al unir un microorganismo artificial con el espermatozoide de un toro, con la posibilidad de controlarlo funcionando como vehículo de transporte de fármacos u otras sustancias a cualquier parte del cuerpo.
El spermbot, como lo han bautizado, se ha creado utilizando un micro-tubo de 50 micras de largo donde va introducido el espermatozoide, pero dejando la cola (flagelo) fuera. De esta forma, mediante el control del campo magnético del tubo, pudieron controlar la dirección de este curioso “vehículo” hacia donde quisieran.
No podemos dejar escapar las palabras del líder de esta investigación, Oliver Schmidt:
Las células de esperma son una opción atractiva debido a que son inofensivos para el cuerpo humano, no requieren una fuente de alimentación externa, y pueden nadar a través de los líquidos viscosos.
Y pese a que nos pueda echar hacia atrás la idea de que un espermatozoide pueda circular por cualquier parte de nuestro cuerpo en el interior de un micro-tubo metálico, lo cierto es que se trata de una idea genial que podrá ayudar a avanzar en muchos proyectos de la medicina.
20131212
DOOM: 20 años del juego que revolucionó la industria
DOOM: 20 años del juego que revolucionó la industria
Pocos juegos han significado tanto para la industria como DOOM, el clásico juego mítico que revolucionó por completo el género de "disparos y acción en primera persona", mejor conocido simplemente como FPS por sus siglas en inglés. Y es que la obra maestra de John Carmack y en general de id Software, no fue el primero en su tipo, pero su jgabilidad, dificultad y sobre todo la mezcla de géneros que incluía lo convirtieron el el primero de muchos otros grandes por venir, de los cuales no pocos estuvieron relacionados a sus padres en id.
Porque aunque no podemos menospreciar en lo absoluto a Wofenstein 3D, también creado por id Software, no fue sino DOOM el que inspiró y reafirmó las bases para luego ver llegar otras obras maestras como la saga Quake (también de id), Duke Nukem, e incluso títulos más recientes como BioShock o Rage.
Sí, id Software ha sido, en general, la empresa más importante para la evolución de los FPS. De ello no podemos tener dudas, y DOOM hoy celebra su 20 aniversario recordándonos la grandeza de su historia, su éxito, lo que ha significado para el mundo del gaming, y tratando que olvidemos esa basura de película protagonizada por "La Roca".
Los inicios de DOOM
El primer DOOM llegó al mercado el 10 de diciembre del año 1993. Nos presentaba la historia de un Marine de los Estados Unidos que era condenado a una especie de cárcel espacial en el planeta rojo, Marte, por haber insultado y atacado a su oficial superior. Sin embargo, dos de las lunas del planeta, Phobos y Deimos, se vieron inmiscuidas en una serie de experimentos secretos que, en resumen, abrieron las puertas al infierno.
Allí es cuando nuestro héroe sin nombre pero armado hasta los dientes debe dirigirse a estas lunas para salvar el día, y en general a la especie humana, enfrentándose a cuanto demonio y bestia infernal se le atravesase, no sin antes haber instalado el juego que originalmente funcionaba en MS-DOS y venía incluido en una serie de diskettes, como cualquier otro título de esta, una de las eras de oro de los videojuegos.
La segunda entrega, DOOM II: Hell on Earth, llegó apenas un año más tarde que su predecesora, con la idea de continuar la tenebrosa y espectacular historia con mucha más acción, disparos, sangre, monstruos, demonios, polémicas religiosas y todo eso que fue criticado y condenado por la prensa de más vieja escuela, los "expertos" e incluso miembros de gobiernos que se manifestaron en contra de la infame, pero divertidísima y espectacular saga creada por id Software. Dos años más tarde llegaría Final Doom que querría dar fin a la trilogía original. Pero no fue sino hasta el año 1997, con DOOM 64 (quizás uno de los juegos más violentos que vio la mítica consola de Nintendo), que id Software y en aquel entonces Midway Games estrenaron un nuevo motor gráfico que dotaba al juego de un aspecto tridimensional espectacular, y fue un título que revolucionó la franquicia en términos técnicos, aunque no tuvo tanto éxito como sus antecesores (aunque personalmente, me encantó, aunque podría tener que ver el hecho de que fue el primer DOOM que jugué en mi vida).
Posterior a este lanzamiento la saga estaría en descanso por unos 7 años, hasta la llegada de DOOM 3 para PC y la primera Xbox. En esta ocasión fue Activision el responsable de publicar el juego, y aunque John Carmack no estuvo entre los más involucrados en el proyecto, el título contó con un lanzamiento por todo lo alto, estrenando motor gráficos (id Tech 4) y regresando al jugador al planeta Marte, para vivir una especie de versión modernizada del primer título que muchos disfrutaron, aunque muchos fanáticos de los títulso originales odiaron a muerte (bien sabemos que el mundo del gaming suele ser algo radical).
DOOM ha estado presente en infinidad de plataformas, desde MS-DOS, Windows, Linux y OS X, hasta Xbox, PlayStation 4, Xbox 360, Nintendo 64 e incluso en GameBoy. Incluso los juegos originales están disponibles para la generación de consolas "saliente" (PS3 y Xbox 360) gracias a sus nuevos distribuidores, Bethesda Softworks, quienes con el lanzamiento de DOOM 3: BFG Edition mejoraron los gráficos de la tercera entrega y llevaron los dos primeros juegos a estas consolas.
Pero más allá de la larga espera por un nuevo título que nos tiene viviendo id Software, por el tan anhelado DOOM 4 (ya en desarrollo pero sin fecha de lanzamiento), hoy celebramos los 20 años de esta saga mítica, llena de grandes éxitos, y que dio pie al nacimiento de tantos grandes juegos posteriores.
Quizás un nuevo DOOM sin John Carmack en id pueda ser una idea arriesgada desde el punto de vista de muchos fanáticos, pero sin duda lo esperamos con ansias. Ese "soldado sin nombre" (o "Doomguy") que acabó con tantos demonios en el espacio fue parte de la vida de muchos, y la nueva generación de gamers (y de consolas, por supuesto) debería verlo volver.
Más allá de todo esto, como gamer de corazón no me queda más que decir gracias al equipo original compuesto por grandes como John Carmack, John Romero y Sandy Petersen, entre tantos otros.
La mítica saga de videojuegos de acción y disparos, DOOM, cumple 20 años haciendo historia e influenciando al mundo gamer. John Carmack y los estudios de id Software marcaron un antes y un después en la industria. Hoy, lo celebramos y repasamos la historia de esta gran franquicia.
Pocos juegos han significado tanto para la industria como DOOM, el clásico juego mítico que revolucionó por completo el género de "disparos y acción en primera persona", mejor conocido simplemente como FPS por sus siglas en inglés. Y es que la obra maestra de John Carmack y en general de id Software, no fue el primero en su tipo, pero su jgabilidad, dificultad y sobre todo la mezcla de géneros que incluía lo convirtieron el el primero de muchos otros grandes por venir, de los cuales no pocos estuvieron relacionados a sus padres en id.
DOOM no fue el primer FPS, pero sin dudas revolucionó la industriaDOOM llevaba los géneros del horror y la ciencia ficción como nunca antes a un videojuego. John Carmack, padre y fundador de id Software, que recientemente abandonó la empresa para dedicarse a trabajar en Oculus VR haciendo lo mejor que sabe hacer: innovar, dio vida a una obra maestra, y comentó que él y su equipo se inspiraron en grandes clásicos del cine del horror como Evil Dead, y en la saga Alien de Ridley Scott, que en conjunto con elementos que adoptaron de Dungeons & Dragons, lograron dar vida a la fórmula de este videojuego.
Porque aunque no podemos menospreciar en lo absoluto a Wofenstein 3D, también creado por id Software, no fue sino DOOM el que inspiró y reafirmó las bases para luego ver llegar otras obras maestras como la saga Quake (también de id), Duke Nukem, e incluso títulos más recientes como BioShock o Rage.
Sí, id Software ha sido, en general, la empresa más importante para la evolución de los FPS. De ello no podemos tener dudas, y DOOM hoy celebra su 20 aniversario recordándonos la grandeza de su historia, su éxito, lo que ha significado para el mundo del gaming, y tratando que olvidemos esa basura de película protagonizada por "La Roca".
Los inicios de DOOM
El primer DOOM llegó al mercado el 10 de diciembre del año 1993. Nos presentaba la historia de un Marine de los Estados Unidos que era condenado a una especie de cárcel espacial en el planeta rojo, Marte, por haber insultado y atacado a su oficial superior. Sin embargo, dos de las lunas del planeta, Phobos y Deimos, se vieron inmiscuidas en una serie de experimentos secretos que, en resumen, abrieron las puertas al infierno.
Allí es cuando nuestro héroe sin nombre pero armado hasta los dientes debe dirigirse a estas lunas para salvar el día, y en general a la especie humana, enfrentándose a cuanto demonio y bestia infernal se le atravesase, no sin antes haber instalado el juego que originalmente funcionaba en MS-DOS y venía incluido en una serie de diskettes, como cualquier otro título de esta, una de las eras de oro de los videojuegos.
La segunda entrega, DOOM II: Hell on Earth, llegó apenas un año más tarde que su predecesora, con la idea de continuar la tenebrosa y espectacular historia con mucha más acción, disparos, sangre, monstruos, demonios, polémicas religiosas y todo eso que fue criticado y condenado por la prensa de más vieja escuela, los "expertos" e incluso miembros de gobiernos que se manifestaron en contra de la infame, pero divertidísima y espectacular saga creada por id Software. Dos años más tarde llegaría Final Doom que querría dar fin a la trilogía original. Pero no fue sino hasta el año 1997, con DOOM 64 (quizás uno de los juegos más violentos que vio la mítica consola de Nintendo), que id Software y en aquel entonces Midway Games estrenaron un nuevo motor gráfico que dotaba al juego de un aspecto tridimensional espectacular, y fue un título que revolucionó la franquicia en términos técnicos, aunque no tuvo tanto éxito como sus antecesores (aunque personalmente, me encantó, aunque podría tener que ver el hecho de que fue el primer DOOM que jugué en mi vida).
Posterior a este lanzamiento la saga estaría en descanso por unos 7 años, hasta la llegada de DOOM 3 para PC y la primera Xbox. En esta ocasión fue Activision el responsable de publicar el juego, y aunque John Carmack no estuvo entre los más involucrados en el proyecto, el título contó con un lanzamiento por todo lo alto, estrenando motor gráficos (id Tech 4) y regresando al jugador al planeta Marte, para vivir una especie de versión modernizada del primer título que muchos disfrutaron, aunque muchos fanáticos de los títulso originales odiaron a muerte (bien sabemos que el mundo del gaming suele ser algo radical).
DOOM ha estado presente en infinidad de plataformas, desde MS-DOS, Windows, Linux y OS X, hasta Xbox, PlayStation 4, Xbox 360, Nintendo 64 e incluso en GameBoy. Incluso los juegos originales están disponibles para la generación de consolas "saliente" (PS3 y Xbox 360) gracias a sus nuevos distribuidores, Bethesda Softworks, quienes con el lanzamiento de DOOM 3: BFG Edition mejoraron los gráficos de la tercera entrega y llevaron los dos primeros juegos a estas consolas.
Pero más allá de la larga espera por un nuevo título que nos tiene viviendo id Software, por el tan anhelado DOOM 4 (ya en desarrollo pero sin fecha de lanzamiento), hoy celebramos los 20 años de esta saga mítica, llena de grandes éxitos, y que dio pie al nacimiento de tantos grandes juegos posteriores.
Quizás un nuevo DOOM sin John Carmack en id pueda ser una idea arriesgada desde el punto de vista de muchos fanáticos, pero sin duda lo esperamos con ansias. Ese "soldado sin nombre" (o "Doomguy") que acabó con tantos demonios en el espacio fue parte de la vida de muchos, y la nueva generación de gamers (y de consolas, por supuesto) debería verlo volver.
Más allá de todo esto, como gamer de corazón no me queda más que decir gracias al equipo original compuesto por grandes como John Carmack, John Romero y Sandy Petersen, entre tantos otros.
20131209
91,2 bajo cero: nuevo récord de frío en nuestro planeta
ya está tardando la manifestación de turno contra el "calentamiento global"..
91,2 bajo cero: nuevo récord de frío en nuestro planeta
91,2 grados bajo cero: es la temperatura récord en la superficie de nuestro planeta que han registrado los científicos. El récord fue establecido en la estación japonesa Cúpula Fuji, en la Antártida.
El récord anterior –89,2 bajo cero– también fue registrado en la Antártida, en la estación rusa Vostok, en 1983.
La Cúpula Fuji es la estación antártica situada a más altitud: se ubica a 3.786 metros sobre el nivel del mar.
91,2 bajo cero: nuevo récord de frío en nuestro planeta
91,2 grados bajo cero: es la temperatura récord en la superficie de nuestro planeta que han registrado los científicos. El récord fue establecido en la estación japonesa Cúpula Fuji, en la Antártida.
El récord anterior –89,2 bajo cero– también fue registrado en la Antártida, en la estación rusa Vostok, en 1983.
La Cúpula Fuji es la estación antártica situada a más altitud: se ubica a 3.786 metros sobre el nivel del mar.
20131208
20131205
Charlie Brooker: "Si recargar un iPhone nos quitase 10 minutos de vida, lo haríamos"
Charlie Brooker: "Si recargar un iPhone nos quitase 10 minutos de vida, lo haríamos"
Beppe Grillo, el caso Greenwald, Rajoy en un plasma, las Google Glass (sobre todo las Google Glass), el mero hecho de que tu madre y tu pareja sepan a qué hora te acostaste mirando tu última conexión de Whatsapp. Todo esto es muy Black mirror (Espejo negro).
"Somos como niños en un planeta en los adultos se han marchado y nos han dejado sin supervisión".
La serie, que emitirá su tercera temporada en 2014, tardó muy poco en convertirse en un adjetivo. Cualquiera que la ve, empieza automáticamente a detectar en su vida o en la prensa fenómenos “muy Black mirror”. Y esa era precisamente la intención de su creador, Charlie Brooker, una de las mentes más interesantes de la tele actual. “Me encanta que la gente diga eso, era mi ambición secreta. Lo pusimos ya en el primer briefing que le presentamos a la cadena. Queríamos crear el mismo efecto que cuando la gente decía ‘esto es muy La dimensión desconocida”, cuenta este productor, guionista y columnista, un francotirador semidomesticado empeñado en ser la carabina aguafiestas en nuestro sucio romance con la tecnología.
"Encuentro agotadora la constante necesidad de comunicar, hay veces que simplemente no tengo nada que decir"
Cada uno de los capítulos de Black mirror –sólo tres por temporada– aborda un tema distinto, una “pesadilla plausible”, como las define él, derivada de los tiempos locos en los que vivimos. En el titulado The entire history of you, que ha comprado Robert Downey Jr para rodar un remake en el cine, todos los personajes llevan implantado detrás de la oreja un discreto dispositivo llamado Grain que permite grabar todas nuestras vivencias, rebobinarlas y borrarlas. Los pocos que confían en sus memorias orgánicas se ven como hippies asilvestrados, como ese tío que todo el mundo conoce que no tiene móvil. ¿Exagerado? Lean las instrucciones de las gafitas de Google y verán. En otro, Be Right Back, una joven viuda consigue resucitar virtualmente a su marido gracias a un software que replica su voz y su estilo, utilizando toda la huella digital que dejó en las redes sociales. ¿Raro? Pues ya existen aplicaciones como LivesOn, que mantiene vivo el Twitter de un fallecido gracias a la inteligencia artificial –el finado puede seguir comentando Quien quiere casarse con mi hijo desde el más allá y hasta interactuar con otros usuarios– y Deadsoci.al, que permite componer los estatus que se publicarán después de muertos.
“En realidad, a mi me encanta la tecnología". asegura Brooker. "Pero en estos momentos somos todos como niños en un planeta en el que todos los adultos se han marchado y nos han dejado sin supervisión. Los avances se nos presentan siempre como algo sólo positivo, pero no percibimos las cosas que vamos perdiendo ni el efecto que tiene en nuestras mentes. Es como un coche, puedes utilizarlo para ir rápido a los sitios, que es genial, pero también puedes atropellar a un montón de gente”. Como bonus, regala un ejemplo que no llegó a formar parte de la serie: “Si existiese un smartphone que sólo se pudiese recargar renunciando a diez minutos de vida, la gente lo haría. ¿Diez minutos? Claro, por qué no, tengo que llegar al siguiente nivel en el Angry Birds”.
Los episodios quizá más inquietantes son los que se mueven en la esfera político-mediática, que Brooker disecciona también en el informativo satírico 10 o’clock live y en los especiales del programa Newswipe, que graba ocasionalmente en el salón de su casa. Se ha citado mucho el capítulo The Waldo effect, en el que un personaje virtual, una marioneta malcarada, acaba ganando unas elecciones a base de decir-las-verdades-a-la-cara y ser estudiadamente antisistema. “No lo veo tan lejos de la realidad”, dice el guionista, y cita a Boris Johnson, el alcalde de Londres y firme aspirante a primer ministro tory, que lucha por convertirse en un meme andante: “Se hace el payaso, sabe que cuánto más bufonesco sea, más popular resultará y más poder amasará”.
Black mirror no es la primera creación profética de Brooker. En 2004 firmó la telecomedia de culto Nathan Barley, en la que se cincelaba el perfil del hipster multitarea, un tipo con piso en Shoreditch que se autodefinía como “director de guerrilla, webmaster, gurú de la moda, promotor de clubes y nodo mediático autogestionado”. Un idiota, vamos ¿Qué haría Nathan hoy? “Estaría desarrollando aplicaciones, cultivando su presencia en las redes sociales y siendo generalmente insufrible. Lo mismo que entonces, pero peor”. La serie sigue dando risa pero también puede provocar un incómodo picor de autorreconocimiento en cualquiera que maneje perfiles en un par de redes sociales y que, por tanto, pase una porción significativa de su día dedicado al self-branding.
Brooker está cabreado con Spotify (“¿por qué tuvieron que convertirlo en un club social? No quiero que nadie sepa qué música escucho”), ha dejado Facebook y frecuenta menos Twitter, convertida en “un concurso de ver quien mea más lejos”. Debe formar todo parte de su promesa de “reducir sus emisiones de palabras”, que anunció en su columna de The Guardian el pasado verano y que, dice, ha conseguido cumplir sólo a medias. “Encuentro agotadora la constante necesidad de comunicar, hay veces que simplemente no tengo nada que decir”. Pues qué poco Black mirror.
20131204
20131203
Experimento sobre trepanaciones egipcias
pues si: la ciencia debería poder explicar cómo lo hicieron los egipcios..
Experimento sobre trepanaciones egipcias
He tardado un tiempo en pasarme por aquí a traeros las fotos por mil razones personales y, aunque ganas tenía, de dejar estas fotos que hice durante el verano del experimento casero de los trépanos de cobre egipcio (milagroso cobre debía de ser aquel)... Lamento no haber podido antes
Bien, pues vamos paso a paso...
Cabe explicar, para todos aquellos que nos gusta liarla con el desvío de conceptos a su campo o al absurdo (muy típico de nuestros políticos, así nos va), que entre "trepano" y "barrena (o broca)" hay una diferencia abismal. Por experiencia propia tuve el gusto de conocer profesionalmente a ambos significados y útiles, cosa que no todos hemos hecho. Y, aunque podemos saber en que difieren ambos conceptos con ponerlo en el buscador de google, preferimos hacer comentarios infantiles o inútiles si acaso.
Esto es un TREPANO de diamante sintético (vídea) usado hoy por nuestros canteros para o bien hacer incisiones circulares, o bien sacar "testigos" cilíndricos de la roca
Esto es una BROCA o barrena de vídea... Y siento decirlo, pero cierto es que me siento incomodo teniendo que explicar la diferencia entre ambos al estilo Barrio Sésamo del aquí y allá
Esto es una BROCA o barrena de vídea... Y siento decirlo, pero cierto es que me siento incomodo teniendo que explicar la diferencia entre ambos al estilo Barrio Sésamo del aquí y allá
Hecho el TRÉPANO de cobre, lo fijo en el portabrocas de un taladro vertical. Sitúo el trozo de granito bajo el trepano. Supuestamente, por lo que dice el marmolista, el granito mas blando que tenia (baja calidad a su ver). El taladro tiene las opciones de baja revolución para el taladrado de metales y va a girar a 120 revoluciones por minuto/dos revoluciones por segundo y una presión continua de unos 6Kgr.
[
La rugosidad de la piedra hace perder la estabilidad vertical del trépano y acaba hecho un fiasco...
La rugosidad de la piedra hace perder la estabilidad vertical del trépano y acaba hecho un fiasco...
Tomo el trozo de granito y hago una muesca con un martillo para que, en la siguiente prueba, no pierda el TRÉPANO la estabilidad y se mantenga vertical para, a posteriori, hacer la teórica trepanación en la piedra. Fijo el trozo de granito bajo el portabrocas con un torniquete para evitar los posibles desplazamientos laterales de este que hagan perder la estabilidad. Reparado el TRÉPANO lo vuelvo a fijar al portabrocas, la imagen dentada da este aspecto antes de inicial la taladrada:
Apenas a un minuto tras iniciar el intento de trepanación, el aspecto del TRÉPANO es este:
La mayor mella que pudo hacer el TRÉPANO DE COBRE sobre el GRANITO, fue la de dejar un resto de cobre adherido a la muesca que previamente hice con el martillo sobre el trozo granito de la imagen de la izquierda.
A la derecha, esta una trepanación egipcia sobre DIORITA cuya dureza esta por encima de la dureza del granito. En esta imagen de la derecha, también se pueden apreciar sobre el agujero de la trepanación, las espirales de giro de y la mordida del TRÉPANO.
Sobre las paredes interiores se ve como a cada giro de trepano la penetración sobre la diorita es un par de milímetros mas profunda. Al fondo del agujero se diferencian dos cosas:
Una, el vacío que dejo la mordida del trepano. Fácil de determinar por la diferencia de diámetros entre el diámetro de la trepanación y el diámetro del testigo.
Dos, para todo aquel que pretenda llamarlo taladrada, observe que el corte que queda entre la pared interna del agujero y el testigo NO ES LA MELLA DE UNA BROCA O BARRENA o, dicho más llanamente, taladrada, ya que, una barrena no deja testigo. Desearía de corazón que venga un historiador y hable del cobre que se usó para hacer la segunda taladrada sobre diorita y, a ser posible, exponga su edad del cobre:
Se me olvidaba decir que, la diferencia entre un tubo macizo con exposición a la fricción de 3 centímetros cuadrados y un tubo hueco con 1 centímetro cuadrado de exposición a la fricción no hará variar los efectos de desgaste sobre el total. Es una simple y muy básica ley de los efectos físicos de la fricción: mayor superficie de fricción, mayor superficie de desgaste
20131202
Sexo casero en PS4 y Xbox One: primeros problemas con la grabación de partidas
Una vez más se cumple la ley de Kerensky:
Sexo casero en PS4 y Xbox One: primeros problemas con la grabación de partidas
Poco tiempo ha tardado el nuevo sistema de grabación de partidas en PS4 y Xbox One en encontrarse con los primeros problemas. Y es que a algunos jugadores les ha parecido buena idea compartir con la comunidad online, además de la partida de FIFA, juegos de carácter más privado.
La cuestión es que la grabación de Gameplays en las nuevas consolas de Sony y Microsoft, permiten grabar también, mediante PIP al jugador, gracias a la cámara frontal que disponen ambas consolas, para después compartirlos online.
Pues bien, Twitch, la plataforma de video online que gestiona los vídeos de la Playroom de PS4 ya ha empezado a tener problemas con algunos usuarios, que lejos de compartir sus partidas, estaban empezando a compartir videos de carácter sexual.
De momento la plataforma está intentando moderar el contenido, borrando vídeos y baneando a usuarios reincidentes, y por otro lado algunos servicios de videos sexuales como PornHUB, ya anuncian que son los primeros en tener su servicio adaptado a las videoconsola de Sony y Microsoft:
Veremos como acaba el tema. Lo que está claro es que es imposible ponerles puertas al campo, así que quizás la mejor forma sea moderar el tema mediante controles parentelas, y que cada uno elija que juegos quiere ver, independientemente de la plataforma de acceso a internet utilice.
Al final todo invento tecnológico acaba sufriendo las modificaciones necesarias para ver tías en pelotas.
Sexo casero en PS4 y Xbox One: primeros problemas con la grabación de partidas
Poco tiempo ha tardado el nuevo sistema de grabación de partidas en PS4 y Xbox One en encontrarse con los primeros problemas. Y es que a algunos jugadores les ha parecido buena idea compartir con la comunidad online, además de la partida de FIFA, juegos de carácter más privado.
La cuestión es que la grabación de Gameplays en las nuevas consolas de Sony y Microsoft, permiten grabar también, mediante PIP al jugador, gracias a la cámara frontal que disponen ambas consolas, para después compartirlos online.
Pues bien, Twitch, la plataforma de video online que gestiona los vídeos de la Playroom de PS4 ya ha empezado a tener problemas con algunos usuarios, que lejos de compartir sus partidas, estaban empezando a compartir videos de carácter sexual.
De momento la plataforma está intentando moderar el contenido, borrando vídeos y baneando a usuarios reincidentes, y por otro lado algunos servicios de videos sexuales como PornHUB, ya anuncian que son los primeros en tener su servicio adaptado a las videoconsola de Sony y Microsoft:
Veremos como acaba el tema. Lo que está claro es que es imposible ponerles puertas al campo, así que quizás la mejor forma sea moderar el tema mediante controles parentelas, y que cada uno elija que juegos quiere ver, independientemente de la plataforma de acceso a internet utilice.
20131201
El Gobierno marginará a la Ingeniería Informática en la Ley de Servicios y Colegios según el COITICLM
El Gobierno marginará a la Ingeniería Informática en la Ley de Servicios y Colegios según el COITICLM
La Ingeniería en Informática seguirá sin ningún tipo de regulación en España, perjudicando claramente el crecimiento del sector TIC e impidiendo a nuestros profesionales ejercer su profesión en los países europeos que ya disponen de regulación.
El Colegio Oficial de Ingenieros Técnicos en Informática de Castilla-La Mancha () ha tenido acceso a la versión definitiva de la Ley de Colegios y Servicios Profesionales que el Gobierno ha enviado al Consejo de Estado para que éste proceda a emitir su dictamen. En dicha versión, se exigirá colegiación obligatoria para todas las profesiones técnicas reguladas, incluyendo físicos, químicos y geólogos. Como la Ingeniería Informática no está regulada, ya que los distintos gobiernos de España no han acometido este importantísimo problema histórico, bien por dejadez, bien por presiones de otras profesiones competidoras, nuestra profesión sería la única que se quedaría fuera de dicho reconocimiento profesional.
Esto tendría una serie de gravísimas consecuencias, entre ellas, la inmediata pérdida de competitividad en el sector a nivel nacional ya que, ¿quién se va a matricular de Ingeniería Informática si cualquiera puede ejercer las funciones del Ingeniero o Ingeniero Técnico en Informática? El alumno avezado se matriculará en una titulación conducente a una profesión reconocida por el Estado y, si después quiere ejercer como ingeniero informático, así lo hará como intruso, ya que ninguna ley se lo impedirá. Esto significará que en España cada vez se formarán menos profesionales Ingenieros e Ingenieros Técnicos en Informática, debido a la situación irregular en que se encuentra la profesión, cuestión que en lugar de fomentar la competencia y la prosperidad en el sector TIC español, vendrá a dilapidarlo y hacerlo dependiente de la prosperidad e investigación de otros países que sí consideran el sector como un eje estratégico de su desarrollo y economía.
Por otro lado, el problema de nuestros profesionales se extiende más allá de nuestra fronteras, concretamente, a la Unión Europea, en la que muchos Ingenieros e Ingenieros Técnicos en Informática son rechazados por las empresas cuando éstas les piden que acrediten, fehacientemente y con título convalidado por el Ministerio de Educación de España, que poseen una titulación válida. A nuestra corporación llegan amargas quejas de titulados que han emigrado a países como el Reino Unido en el que, determinadas empresas, que están en su derecho de desconfiar de los títulos aportados por los aspirantes, exigen titulación convalidada por el Ministerio de Educación del país origen y, al no existir regulación profesional en España, nuestro Ministerio de Educación emite una carta, como la adjunta, denegando la acreditación, por tanto impidiéndole trabajar en su profesión en otro país europeo.
Es necesario que los actuales estudiantes de primeros cursos de Grado de Ingeniería Informática, así como los que estén por venir en los años venideros, tengan en cuenta todas estas eventualidades a la hora de decidir si quieren matricularse en los diferentes grados de Ingeniería Informática, ya que estos no conducirán a ninguna profesión regulada en España. Desde el COITICLM y otras organizaciones colegiales del Consejo General luchamos constantemente por revertir esta grave situación que nos perjudica a todos, tanto a los profesionales como a la sociedad.
La Ingeniería en Informática seguirá sin ningún tipo de regulación en España, perjudicando claramente el crecimiento del sector TIC e impidiendo a nuestros profesionales ejercer su profesión en los países europeos que ya disponen de regulación.
El Colegio Oficial de Ingenieros Técnicos en Informática de Castilla-La Mancha () ha tenido acceso a la versión definitiva de la Ley de Colegios y Servicios Profesionales que el Gobierno ha enviado al Consejo de Estado para que éste proceda a emitir su dictamen. En dicha versión, se exigirá colegiación obligatoria para todas las profesiones técnicas reguladas, incluyendo físicos, químicos y geólogos. Como la Ingeniería Informática no está regulada, ya que los distintos gobiernos de España no han acometido este importantísimo problema histórico, bien por dejadez, bien por presiones de otras profesiones competidoras, nuestra profesión sería la única que se quedaría fuera de dicho reconocimiento profesional.
Esto tendría una serie de gravísimas consecuencias, entre ellas, la inmediata pérdida de competitividad en el sector a nivel nacional ya que, ¿quién se va a matricular de Ingeniería Informática si cualquiera puede ejercer las funciones del Ingeniero o Ingeniero Técnico en Informática? El alumno avezado se matriculará en una titulación conducente a una profesión reconocida por el Estado y, si después quiere ejercer como ingeniero informático, así lo hará como intruso, ya que ninguna ley se lo impedirá. Esto significará que en España cada vez se formarán menos profesionales Ingenieros e Ingenieros Técnicos en Informática, debido a la situación irregular en que se encuentra la profesión, cuestión que en lugar de fomentar la competencia y la prosperidad en el sector TIC español, vendrá a dilapidarlo y hacerlo dependiente de la prosperidad e investigación de otros países que sí consideran el sector como un eje estratégico de su desarrollo y economía.
Por otro lado, el problema de nuestros profesionales se extiende más allá de nuestra fronteras, concretamente, a la Unión Europea, en la que muchos Ingenieros e Ingenieros Técnicos en Informática son rechazados por las empresas cuando éstas les piden que acrediten, fehacientemente y con título convalidado por el Ministerio de Educación de España, que poseen una titulación válida. A nuestra corporación llegan amargas quejas de titulados que han emigrado a países como el Reino Unido en el que, determinadas empresas, que están en su derecho de desconfiar de los títulos aportados por los aspirantes, exigen titulación convalidada por el Ministerio de Educación del país origen y, al no existir regulación profesional en España, nuestro Ministerio de Educación emite una carta, como la adjunta, denegando la acreditación, por tanto impidiéndole trabajar en su profesión en otro país europeo.
Es necesario que los actuales estudiantes de primeros cursos de Grado de Ingeniería Informática, así como los que estén por venir en los años venideros, tengan en cuenta todas estas eventualidades a la hora de decidir si quieren matricularse en los diferentes grados de Ingeniería Informática, ya que estos no conducirán a ninguna profesión regulada en España. Desde el COITICLM y otras organizaciones colegiales del Consejo General luchamos constantemente por revertir esta grave situación que nos perjudica a todos, tanto a los profesionales como a la sociedad.
20131130
Lista de las tecnologías que revolucionarán el mundo
una lista de las tecnologías que revolucionarán el mundo si antes no colapsa todo:
1- COMPUTACION CUANTICA
Computación cuántica - Wikipedia, la enciclopedia libre
Large-scale quantum computers will be able to solve certain problems much more quickly than any classical computer using the best currently known algorithms, like integer factorization using Shor's algorithm or the simulation of quantum many-body systems. There exist quantum algorithms, such as Simon's algorithm, which run faster than any possible probabilistic classical algorithm.
La computacion cuantica hace lo mismo que la computacion clasica pero muchisimo mas rapido. Problemas que un ordenador clasico los resolveria en tiempo larguisimo, varias veces la vida de un ser humano, un computador cuantico los podria resolver inmediatamente.
Si la computacion clasica en la actualidad parece que hace magia, en un futuro nos podriamos encontrar un mundo que solo hemos visto en las peliculas de ciencia ficcion. Se podrian hacer androides con un comportamiento y capacidades a la altura de cualquier ser humano, haciendo a la mayoria de la poblacion totalmente prescindible del sistema productivo.
2- FUSION NUCLEAR
Nuclear fusion - Wikipedia, the free encyclopedia
Fusion reactions have an energy density many times greater than nuclear fission; the reactions produce far greater energy per unit of mass even though individual fission reactions are generally much more energetic than individual fusion ones, which are themselves millions of times more energetic than chemical reactions. Only Direct conversion of mass into energy, such as that caused by the annihilatory collision of matter and antimatter, is more energetic per unit of mass than nuclear fusion.
Esta tecnologia permitiria pasar a un modelo que ya no se necesitaria carbon o petroleo, porque mediante sintesis quimica se podria producir combustible mucho mas barato que el extraido. Se podria hacer una transicion poco traumatica hacia otro modelos de transporte y produccion que no necesitaran petroleo, gas natural, carbon, etc.
Ademas con energia muy barata se podria volver poco costoso energeticamente el reciclaje de materias primas, residuos urbanos, residuos industriales, etc. Con lo que se resolveria el problema del cambio climatico, contaminacion, etc.
Tambien se podria dar un salto a una agricultura 100% artificial que no dependiera del clima. Invernaderos gigantescos bajo tierra con luz artificial y climatizados producirian cosechas durante todo el año en cualquier parte del mundo.
Tambien se revolucionaria las infraestructuras. Obras que hoy parecen inasumibles como presas, canales, tuneles, puertos, islas artificiales, ganar terreno al mar, etc podrian hacer realidad gracias a la abundante e inagotable energia que produciria la fusion. Podriamos transformar el planeta tierra al gusto de nuestra especie. Tomad nota ecologistas.
3- VACTRAIN
Esta tecnologia dependeria de las otras dos. Son trenes de levitacion magnetica que van en tuneles en vacio que podrian alcanzar velocidades de 6000km/hora. Si se hace la aceleracion y desacelaracion suave podria valer para pasajeros y ciertas mercancias. Su ejecucion y funcionamiento necesitaria grandes cantidades de energia que provendrian de la fusion nuclear. Para su funcionamiento y seguridad se necesitarian complejismos sistemas informaticos que con la computacion cuantica se podrian resolver.
Vactrain - Wikipedia, the free encyclopedia
A vactrain (or vacuum tube train) is a proposed, as-yet-unbuilt design for future high-speed railroad transportation. It is a maglev line run through evacuated (air-less) or partly evacuated tubes or tunnels. The lack of air resistance could permit vactrains to use little power and to move at extremely high speeds, up to 4000–5000 mph (6400–8000 km/h, 2 km/s), or 5–6 times the speed of sound (Mach 1) at standard conditions.[1] Though the technology is currently being investigated for development of regional networks, advocates have suggested establishing vactrains for transcontinental routes to form a global network.
Esta tecnologia revolucionaria el transporte y la distribucion de mercancias a escala global.
1- COMPUTACION CUANTICA
Computación cuántica - Wikipedia, la enciclopedia libre
Large-scale quantum computers will be able to solve certain problems much more quickly than any classical computer using the best currently known algorithms, like integer factorization using Shor's algorithm or the simulation of quantum many-body systems. There exist quantum algorithms, such as Simon's algorithm, which run faster than any possible probabilistic classical algorithm.
La computacion cuantica hace lo mismo que la computacion clasica pero muchisimo mas rapido. Problemas que un ordenador clasico los resolveria en tiempo larguisimo, varias veces la vida de un ser humano, un computador cuantico los podria resolver inmediatamente.
Si la computacion clasica en la actualidad parece que hace magia, en un futuro nos podriamos encontrar un mundo que solo hemos visto en las peliculas de ciencia ficcion. Se podrian hacer androides con un comportamiento y capacidades a la altura de cualquier ser humano, haciendo a la mayoria de la poblacion totalmente prescindible del sistema productivo.
2- FUSION NUCLEAR
Nuclear fusion - Wikipedia, the free encyclopedia
Fusion reactions have an energy density many times greater than nuclear fission; the reactions produce far greater energy per unit of mass even though individual fission reactions are generally much more energetic than individual fusion ones, which are themselves millions of times more energetic than chemical reactions. Only Direct conversion of mass into energy, such as that caused by the annihilatory collision of matter and antimatter, is more energetic per unit of mass than nuclear fusion.
Esta tecnologia permitiria pasar a un modelo que ya no se necesitaria carbon o petroleo, porque mediante sintesis quimica se podria producir combustible mucho mas barato que el extraido. Se podria hacer una transicion poco traumatica hacia otro modelos de transporte y produccion que no necesitaran petroleo, gas natural, carbon, etc.
Ademas con energia muy barata se podria volver poco costoso energeticamente el reciclaje de materias primas, residuos urbanos, residuos industriales, etc. Con lo que se resolveria el problema del cambio climatico, contaminacion, etc.
Tambien se podria dar un salto a una agricultura 100% artificial que no dependiera del clima. Invernaderos gigantescos bajo tierra con luz artificial y climatizados producirian cosechas durante todo el año en cualquier parte del mundo.
Tambien se revolucionaria las infraestructuras. Obras que hoy parecen inasumibles como presas, canales, tuneles, puertos, islas artificiales, ganar terreno al mar, etc podrian hacer realidad gracias a la abundante e inagotable energia que produciria la fusion. Podriamos transformar el planeta tierra al gusto de nuestra especie. Tomad nota ecologistas.
3- VACTRAIN
Esta tecnologia dependeria de las otras dos. Son trenes de levitacion magnetica que van en tuneles en vacio que podrian alcanzar velocidades de 6000km/hora. Si se hace la aceleracion y desacelaracion suave podria valer para pasajeros y ciertas mercancias. Su ejecucion y funcionamiento necesitaria grandes cantidades de energia que provendrian de la fusion nuclear. Para su funcionamiento y seguridad se necesitarian complejismos sistemas informaticos que con la computacion cuantica se podrian resolver.
Vactrain - Wikipedia, the free encyclopedia
A vactrain (or vacuum tube train) is a proposed, as-yet-unbuilt design for future high-speed railroad transportation. It is a maglev line run through evacuated (air-less) or partly evacuated tubes or tunnels. The lack of air resistance could permit vactrains to use little power and to move at extremely high speeds, up to 4000–5000 mph (6400–8000 km/h, 2 km/s), or 5–6 times the speed of sound (Mach 1) at standard conditions.[1] Though the technology is currently being investigated for development of regional networks, advocates have suggested establishing vactrains for transcontinental routes to form a global network.
Esta tecnologia revolucionaria el transporte y la distribucion de mercancias a escala global.
20131128
20131126
20131125
20131124
Las Fuerzas Armadas 'ficharán' a civiles para luchar contra los ciberataques en la red
o eso, o los utilizarán como "opinadores desinteresados" porque hispanistán ya está "en la senda de la recuperación"..
Las Fuerzas Armadas 'ficharán' a civiles para luchar contra los ciberataques en la red
Las Fuerzas Armadas tienen previsto 'fichar' bajo la fórmula de reservistas voluntarios a civiles expertos que quieran colaborar con el Mando Conjunto de Ciberdefensa, de modo que puedan aportar sus conocimientos informáticos para hacer frente ante cualquier tipo de ataques a las redes y sistemas de información españoles.
El jefe del Mando Conjunto, general de Brigada del Ejército del Aire Carlos Gómez López de Medina, ha explicado en un encuentro con periodistas que el personal con el que contará la recientemente creada unidad de Ciberdefensa estará formado fundamentalmente por militares expertos en la materia, aunque también se prevé la contratación de civiles.
20131123
Los 50 inventos más importantes de la historia
Los 50 inventos más importantes de la historia
¿Cuáles son los 50 descubrimientos más importantes de la historia?
La publicación The Atlantic preguntó a una docena de científicos, historiadores y miembros del sector de la tecnología, que clasificaran las innovaciones más importantes de la historia desde la rueda. Aquí están los resultados:
1. La imprenta, 1430
Fue mencionada por 10 de nuestros 12 expertos, cinco de los cuales la clasificaron entre los tres inventos más importantes de la historia. Dyson escribe su invención como el punto de inflexión en el que el “conocimiento comenzó a replicarse libre y rápidamente, y asumió vida propia.”
2. Electricidad, siglo XIX
Y se hizo la luz y la mayoría del resto de la vida moderna.
3. Penicilina, 1928
Se descubrió accidentalmente en 1928, aunque los antibióticos no fueron distribuidos de forma masiva hasta después de la Segunda Guerra Mundial, cuando se convirtieron en la bala de plata de un gran número de enfermedades que antes eran mortales.
4. Electrónica de semiconductores, mediados del siglo XX
Es la base física del mundo virtual.
5. Lentes ópticas, siglo XIII
La refracción de la luz a través del vidrio es una de esas ideas simples que tardó inexplicablemente mucho tiempo en hacerse popular. Los romanos tenían una industria del vidrio. Incluso un pasaje de Séneca habla sobre los efectos ópticos de un cuenco de cristal de agua. Pero fue siglos después que la invención de las gafas elevó drásticamente el índice de inteligencia humana colectiva, y finalmente condujo a la creación del microscopio y el telescopio.
6. El papel, siglo II
Las imágenes estampadas antes eran habituales, pero hasta la invención del papel, eran económicamente inasequibles.
7. El motor de combustión interna, a finales del siglo 19
La mezcla de aire y combustible sustituiría en el futuro la máquina de vapor.
8. Vacunas
El médico británico Edward Jenner usó la vacuna del virus de la viruela para proteger contra la propia enfermedad en 1796, pero no fue hasta que Louis Pasteur desarrolló una vacuna contra la rabia en 1885 que la medicina y los gobiernos no comenzaron a aceptar la idea de que hacer que alguien enfermara podría prevenir la enfermedad.
9. Internet, 1960
La infraestructura de la era digital.
10 La máquina de vapor de 1712
Suministraron energía a las fábricas, los trenes y los barcos lo que originó la Revolución Industrial.
11. La fijación del nitrógeno, 1918
El químico alemán Fritz Haber ganó el premio nobel por su desarrollo del proceso de la síntesis del amoníaco, lo que se utilizó para crear una nueva clase de fertilizantes que propició la revolución verde.
12. Los sistemas de saneamiento, mediados del siglo XIX
Una de las principales razones por la que vivimos 40 años más de lo que lo hacíamos en 1880.
13. Refrigeración, 1850
Descubrir cómo hacer frío iba a cambiar la forma de comer y vivir de una manera casi tan profunda como el descubrimiento de la forma de cocinar.
14. La pólvora, siglo X
15. El avión, 1903
Transformó los viajes, la guerra y nuestra visión del mundo
16. El ordenador personal, 1970
Aumentó considerablemente las capacidades humanas.
17. La brújula, siglo XII
Nos orientó, incluso en el mar.
18. El automóvil, a finales del siglo XIX
Transformó la vida cotidiana, de nuestra cultura y nuestro paisaje.
19. La fabricación del acero industrial, 1850
El acero producido en masa se convirtió en la base de la industria moderna
20. La píldora, 1960
Lanzó una revolución social
21. La fisión nuclear, 1939
Dio a los humanos un nuevo poder para la destrucción y la creación
22. La revolución verde, mediados del siglo XX
La combinación de tecnologías como los fertilizantes sintéticos y el fitomejoramiento científico, incrementó enormemente la producción de alimentos en todo el mundo. Norman Borlang, el economista agrícola que ideó este enfoque, ha evitado que más de 1.000 millones de personas pasaran hambre en el mundo.
23. El Sextante, 1757
Dibujó camino en las estrellas.
24. El teléfono, 1876
25. Alfabetización, primer milenio aC
Hizo el conocimiento accesible. Contribuyó al aumento de las sociedades que utilizaron las letras fonéticas sobre aquellas que utilizaron las ideográficas.
26. El telégrafo, 1837
Como afirmó Joel Mokyr: "Antes de la invención del telégrafo, la información no podía moverse más rápido que un hombre a caballo"
27. El reloj mecanizado, siglo 15
28. Radio, 1906
29. Fotografía, principios del siglo 19
30. El arado de vertedera, siglo 18
El primer arado que no sólo cavaba el suelo sino que le daba la vuelta, lo que permitía el cultivo en terrenos más difíciles. Sin él, la agricultura tal como la conocemos no existiría en el norte de Europa o el Medio Oeste americano.
31. El tornillo de Arquímedes, en el tercer siglo aC
32. La desmotadora de algodón de 1793
Institucionalizado la industria del algodón y la esclavitud en el Sur de América
33. La pasteurización en 1863
Una de las primeras aplicaciones prácticas de la teoría de los gérmenes de Louis Pasteur. Este método usa el calor para esterilizar el vino, la cerveza y la leche, y es ampliamente considerado como una de las intervenciones de salud pública más eficaces de la historia.
34. El calendario gregoriano, 1582
Depuró el calendario juliano, saltándose 10 días para sincronizar el mundo con las estaciones del año.
35. Refino de petróleo, mediados del siglo 19
Sin ella, la extracción de petróleo no tendría sentido.
36. La turbina de vapor de 1884
Las turbinas son la columna vertebral de la infraestructura energética de hoy: generan el 80 por ciento de la electricidad del mundo.
37. Cemento, primer milenio aC
El fundamento de la civilización. Literalmente.
38. Fitomejoramiento, 1920
Los seres humanos han estado manipulando las especies de plantas durante casi tanto tiempo como las hemos cultivado, pero no fue hasta que los científicos de principios del siglo 20 descubrieron un documento de 1866 olvidado del botánico austriaco Gregor Mendel, que no nos dimos cuenta de cómo el fitomejoramiento y, más tarde, la genética humana, funciona.
39. Perforación de petróleo de 1859
Impulsa la economía moderna, estableció su geopolítica, y cambió el clima.
40. El velero, cuarto milenio aC
Transformado los viajes, la guerra, y nuestra visión del mundo.
41. Cohetes de 1926
"La única manera de salir del planeta - hasta ahora." - George Dyson.
42. El papel moneda, siglo 11
La abstracción en el núcleo de la economía moderna.
43. El ábaco, el tercer milenio aC
Uno de los primeros dispositivos para aumentar la inteligencia humana.
44. Aire acondicionado, 1902
45. Televisión, principios del siglo 20
46. Anestesia, 1846
En respuesta a la primera demostración pública del éter, Oliver Wendell Holmes escribió: "El feroz extremo del sufrimiento ha sido sumergido en las aguas del olvido, y los surcos profundos en la frente por la agonía se han suavizado para siempre."
47. El clavo, segundo milenio aC
48. La palanca, el tercer milenio aC
Los egipcios aún no habían descubierto la rueda cuando construyeron sus pirámides, que se cree que dependieron en gran medida de las palancas.
49. La línea de montaje de 1913
Cambió una economía basada en la artesanía a un mercado masivo.
50. La cosechadora, 1930
Mecanizó la granja, liberando la gente hacia nuevos tipos de trabajo.
¿Cuáles son los 50 descubrimientos más importantes de la historia?
La publicación The Atlantic preguntó a una docena de científicos, historiadores y miembros del sector de la tecnología, que clasificaran las innovaciones más importantes de la historia desde la rueda. Aquí están los resultados:
1. La imprenta, 1430
Fue mencionada por 10 de nuestros 12 expertos, cinco de los cuales la clasificaron entre los tres inventos más importantes de la historia. Dyson escribe su invención como el punto de inflexión en el que el “conocimiento comenzó a replicarse libre y rápidamente, y asumió vida propia.”
2. Electricidad, siglo XIX
Y se hizo la luz y la mayoría del resto de la vida moderna.
3. Penicilina, 1928
Se descubrió accidentalmente en 1928, aunque los antibióticos no fueron distribuidos de forma masiva hasta después de la Segunda Guerra Mundial, cuando se convirtieron en la bala de plata de un gran número de enfermedades que antes eran mortales.
4. Electrónica de semiconductores, mediados del siglo XX
Es la base física del mundo virtual.
5. Lentes ópticas, siglo XIII
La refracción de la luz a través del vidrio es una de esas ideas simples que tardó inexplicablemente mucho tiempo en hacerse popular. Los romanos tenían una industria del vidrio. Incluso un pasaje de Séneca habla sobre los efectos ópticos de un cuenco de cristal de agua. Pero fue siglos después que la invención de las gafas elevó drásticamente el índice de inteligencia humana colectiva, y finalmente condujo a la creación del microscopio y el telescopio.
6. El papel, siglo II
Las imágenes estampadas antes eran habituales, pero hasta la invención del papel, eran económicamente inasequibles.
7. El motor de combustión interna, a finales del siglo 19
La mezcla de aire y combustible sustituiría en el futuro la máquina de vapor.
8. Vacunas
El médico británico Edward Jenner usó la vacuna del virus de la viruela para proteger contra la propia enfermedad en 1796, pero no fue hasta que Louis Pasteur desarrolló una vacuna contra la rabia en 1885 que la medicina y los gobiernos no comenzaron a aceptar la idea de que hacer que alguien enfermara podría prevenir la enfermedad.
9. Internet, 1960
La infraestructura de la era digital.
10 La máquina de vapor de 1712
Suministraron energía a las fábricas, los trenes y los barcos lo que originó la Revolución Industrial.
11. La fijación del nitrógeno, 1918
El químico alemán Fritz Haber ganó el premio nobel por su desarrollo del proceso de la síntesis del amoníaco, lo que se utilizó para crear una nueva clase de fertilizantes que propició la revolución verde.
12. Los sistemas de saneamiento, mediados del siglo XIX
Una de las principales razones por la que vivimos 40 años más de lo que lo hacíamos en 1880.
13. Refrigeración, 1850
Descubrir cómo hacer frío iba a cambiar la forma de comer y vivir de una manera casi tan profunda como el descubrimiento de la forma de cocinar.
14. La pólvora, siglo X
15. El avión, 1903
Transformó los viajes, la guerra y nuestra visión del mundo
16. El ordenador personal, 1970
Aumentó considerablemente las capacidades humanas.
17. La brújula, siglo XII
Nos orientó, incluso en el mar.
18. El automóvil, a finales del siglo XIX
Transformó la vida cotidiana, de nuestra cultura y nuestro paisaje.
19. La fabricación del acero industrial, 1850
El acero producido en masa se convirtió en la base de la industria moderna
20. La píldora, 1960
Lanzó una revolución social
21. La fisión nuclear, 1939
Dio a los humanos un nuevo poder para la destrucción y la creación
22. La revolución verde, mediados del siglo XX
La combinación de tecnologías como los fertilizantes sintéticos y el fitomejoramiento científico, incrementó enormemente la producción de alimentos en todo el mundo. Norman Borlang, el economista agrícola que ideó este enfoque, ha evitado que más de 1.000 millones de personas pasaran hambre en el mundo.
23. El Sextante, 1757
Dibujó camino en las estrellas.
24. El teléfono, 1876
25. Alfabetización, primer milenio aC
Hizo el conocimiento accesible. Contribuyó al aumento de las sociedades que utilizaron las letras fonéticas sobre aquellas que utilizaron las ideográficas.
26. El telégrafo, 1837
Como afirmó Joel Mokyr: "Antes de la invención del telégrafo, la información no podía moverse más rápido que un hombre a caballo"
27. El reloj mecanizado, siglo 15
28. Radio, 1906
29. Fotografía, principios del siglo 19
30. El arado de vertedera, siglo 18
El primer arado que no sólo cavaba el suelo sino que le daba la vuelta, lo que permitía el cultivo en terrenos más difíciles. Sin él, la agricultura tal como la conocemos no existiría en el norte de Europa o el Medio Oeste americano.
31. El tornillo de Arquímedes, en el tercer siglo aC
32. La desmotadora de algodón de 1793
Institucionalizado la industria del algodón y la esclavitud en el Sur de América
33. La pasteurización en 1863
Una de las primeras aplicaciones prácticas de la teoría de los gérmenes de Louis Pasteur. Este método usa el calor para esterilizar el vino, la cerveza y la leche, y es ampliamente considerado como una de las intervenciones de salud pública más eficaces de la historia.
34. El calendario gregoriano, 1582
Depuró el calendario juliano, saltándose 10 días para sincronizar el mundo con las estaciones del año.
35. Refino de petróleo, mediados del siglo 19
Sin ella, la extracción de petróleo no tendría sentido.
36. La turbina de vapor de 1884
Las turbinas son la columna vertebral de la infraestructura energética de hoy: generan el 80 por ciento de la electricidad del mundo.
37. Cemento, primer milenio aC
El fundamento de la civilización. Literalmente.
38. Fitomejoramiento, 1920
Los seres humanos han estado manipulando las especies de plantas durante casi tanto tiempo como las hemos cultivado, pero no fue hasta que los científicos de principios del siglo 20 descubrieron un documento de 1866 olvidado del botánico austriaco Gregor Mendel, que no nos dimos cuenta de cómo el fitomejoramiento y, más tarde, la genética humana, funciona.
39. Perforación de petróleo de 1859
Impulsa la economía moderna, estableció su geopolítica, y cambió el clima.
40. El velero, cuarto milenio aC
Transformado los viajes, la guerra, y nuestra visión del mundo.
41. Cohetes de 1926
"La única manera de salir del planeta - hasta ahora." - George Dyson.
42. El papel moneda, siglo 11
La abstracción en el núcleo de la economía moderna.
43. El ábaco, el tercer milenio aC
Uno de los primeros dispositivos para aumentar la inteligencia humana.
44. Aire acondicionado, 1902
45. Televisión, principios del siglo 20
46. Anestesia, 1846
En respuesta a la primera demostración pública del éter, Oliver Wendell Holmes escribió: "El feroz extremo del sufrimiento ha sido sumergido en las aguas del olvido, y los surcos profundos en la frente por la agonía se han suavizado para siempre."
47. El clavo, segundo milenio aC
48. La palanca, el tercer milenio aC
Los egipcios aún no habían descubierto la rueda cuando construyeron sus pirámides, que se cree que dependieron en gran medida de las palancas.
49. La línea de montaje de 1913
Cambió una economía basada en la artesanía a un mercado masivo.
50. La cosechadora, 1930
Mecanizó la granja, liberando la gente hacia nuevos tipos de trabajo.
20131122
Neutrinos extraterrestres detectados en el Polo Sur
Neutrinos extraterrestres detectados en el Polo Sur
Un grupo de 276 científicos de 12 países que trabaja en IceCube ha detectado por primera vez neutrinos -un tipo de partículas subatómicas que pueden generarse en el Sol, en fenómenos astrofísicos como el Big Bang, el CERN o en las centrales nucleares- de alta energía que proceden de más allá de nuestra galaxia.
«Este es el primer indicio de neutrinos de muy alta energía de fuera del Sistema Solar», explicaba ayer Francis Halzen, investigador principal de IceCube, profesor distinguido de Física en la Universidad de Wisconsin-Madison y verdadero padre intelectual del proyecto. «Es muy gratificante ver finalmente lo que hemos estado buscando. Este es el comienzo de una nueva era para la Astronomía», sentenció.
20131120
Visita virtual al HMS Ocelot (S17)
HMS Ocelot (S17): un submarino diesel-eléctrico retirado del servicio en
1991. En la actualidad se encuentra anclado en el puerto histórico de
Gillingham, en el suroeste de Inglaterra.
Se puede visitar el interior del submarino completo con Google Street View en este enlace:
https://www.google.co.uk/maps?ll=51....495%2C0.526705
Se puede visitar el interior del submarino completo con Google Street View en este enlace:
https://www.google.co.uk/maps?ll=51....495%2C0.526705
20131119
Cuando Tesla hizo temblar la tierra
Cuando Tesla hizo temblar la tierra
Un tranquilo día de 1898 los vecinos de varios bloques de edificios de Manhattan de los concurridos barrios Chino e Italiano empezaron a experimentar un temblor que pronto comenzó a sacudir todos los edificios y romper cristales, provocando que la gente saliera asustada a las calles de Nueva York. La policía, tras comprobar que el temblor se circunscribía solo a aquella pequeña parte de la ciudad y sospechando de quién podía ser el causante, enviaron a dos de sus agentes al número 46 de la calle East Houston. Justo antes de entrar en el edificio notaron que el temblor cesaba, y al traspasar la puerta de un laboratorio, los recibió un hombre alto y delgado, con bigote, elegantemente vestido, y armado con un martillo, diciéndoles “Caballeros, lo siento. Han llegado tarde para contemplar mi experimento. He visto necesario detenerlo de forma súbita y inesperada… ” y añadió mirando el martillo “ y de una forma inusual”. Este hombre era Nikola Tesla, el genial inventor que nos dio, entre otras cosas, la corriente eléctrica alterna gracias a la cual estás leyendo esto.
El causante de aquel incidente había sido un pequeño oscilador electromecánico con el que Tesla estaba experimentando aquel día para su investigación en la resonancia mecánica. Tras colocarlo sobre un pilar de su laboratorio, la vibración provocada comenzó a extenderse por los subterráneos del edificio hacia los edificios colindantes creando el caos entre sus vecinos. Tan absorto y fascinado estaba que hasta que no notó que todo su laboratorio estaba temblando no decidió finalizar el experimento de forma contundente dándole un martillazo al oscilador.
Otro de sus experimentos se lo relataría algunos años después a un periodista. Esta vez Tesla decidió experimentar fuera de su laboratorio y tras localizar un edificio en construcción en el barrio de Wall Street, que aún era un esqueleto de metal, colocó el oscilador sobre una de las vigas y lo activó. En pocos minutos toda la estructura dediez pisos del edificio empezó a vibrar, asustando a los trabajadores y provocando de nuevo que la policía hiciera acto de presencia. Antes de que nadie se pudiera dar cuenta de lo que pasaba, Tesla desactivó el dispositivo, se lo guardó en el bolsillo y continuó su camino. En la misma entrevista el inventor aseguró que en menos de una hora podría derribar el puente de Brooklyn, y llego a afirmar que con una máquina adecuada y dinamita, sería capaz partir la Tierra en dos. Esta claro que Tesla siempre pensaba a lo grande.
No se sabe a ciencia cierta si estos episodios ocurrieron tal cual o estaban magnificados por Tesla, aficionado a hacer grandes aseveraciones sobre sus investigaciones, pero así nos lo relata Margaret Cheney en una de las mejores biografías hechas sobre el inventor, Tesla: The Man Out of Time, que tiene edición en español (prologada por uno de los fans letales de Tesla que es Nacho de Microsiervos). En un episodio del año 2006 del programa Cazadores de Mitos intentaron reproducir el experimento de varias formas, pero con el experimento final sobre el puente Carquinez solo consiguieron provocar una vibración que se podía sentir a cierta distancia, pero nada parecido a un terremoto. Si llegó a crear o diseñar realmente aparatos con esa potencia, probablemente nunca lo sepamos y quede como uno de los tantos misterios que rodean a este genio.
Para aquellos que quieran intentar emular a Tesla, existe un libro con el rimbombante titulo de Nikola Tesla’s Earthquake Machine: With Tesla’s Original Patents Plus New Blueprints to Build Your Own Working Model, que parece dar las claves para construirlo, pero creo que, salvo que te creas las peregrinas teorías conspirativas sobre los terremotos ocurridos los últimos años que circulan por la red, por ahora nadie lo ha conseguido.
Un tranquilo día de 1898 los vecinos de varios bloques de edificios de Manhattan de los concurridos barrios Chino e Italiano empezaron a experimentar un temblor que pronto comenzó a sacudir todos los edificios y romper cristales, provocando que la gente saliera asustada a las calles de Nueva York. La policía, tras comprobar que el temblor se circunscribía solo a aquella pequeña parte de la ciudad y sospechando de quién podía ser el causante, enviaron a dos de sus agentes al número 46 de la calle East Houston. Justo antes de entrar en el edificio notaron que el temblor cesaba, y al traspasar la puerta de un laboratorio, los recibió un hombre alto y delgado, con bigote, elegantemente vestido, y armado con un martillo, diciéndoles “Caballeros, lo siento. Han llegado tarde para contemplar mi experimento. He visto necesario detenerlo de forma súbita y inesperada… ” y añadió mirando el martillo “ y de una forma inusual”. Este hombre era Nikola Tesla, el genial inventor que nos dio, entre otras cosas, la corriente eléctrica alterna gracias a la cual estás leyendo esto.
El causante de aquel incidente había sido un pequeño oscilador electromecánico con el que Tesla estaba experimentando aquel día para su investigación en la resonancia mecánica. Tras colocarlo sobre un pilar de su laboratorio, la vibración provocada comenzó a extenderse por los subterráneos del edificio hacia los edificios colindantes creando el caos entre sus vecinos. Tan absorto y fascinado estaba que hasta que no notó que todo su laboratorio estaba temblando no decidió finalizar el experimento de forma contundente dándole un martillazo al oscilador.
Otro de sus experimentos se lo relataría algunos años después a un periodista. Esta vez Tesla decidió experimentar fuera de su laboratorio y tras localizar un edificio en construcción en el barrio de Wall Street, que aún era un esqueleto de metal, colocó el oscilador sobre una de las vigas y lo activó. En pocos minutos toda la estructura dediez pisos del edificio empezó a vibrar, asustando a los trabajadores y provocando de nuevo que la policía hiciera acto de presencia. Antes de que nadie se pudiera dar cuenta de lo que pasaba, Tesla desactivó el dispositivo, se lo guardó en el bolsillo y continuó su camino. En la misma entrevista el inventor aseguró que en menos de una hora podría derribar el puente de Brooklyn, y llego a afirmar que con una máquina adecuada y dinamita, sería capaz partir la Tierra en dos. Esta claro que Tesla siempre pensaba a lo grande.
No se sabe a ciencia cierta si estos episodios ocurrieron tal cual o estaban magnificados por Tesla, aficionado a hacer grandes aseveraciones sobre sus investigaciones, pero así nos lo relata Margaret Cheney en una de las mejores biografías hechas sobre el inventor, Tesla: The Man Out of Time, que tiene edición en español (prologada por uno de los fans letales de Tesla que es Nacho de Microsiervos). En un episodio del año 2006 del programa Cazadores de Mitos intentaron reproducir el experimento de varias formas, pero con el experimento final sobre el puente Carquinez solo consiguieron provocar una vibración que se podía sentir a cierta distancia, pero nada parecido a un terremoto. Si llegó a crear o diseñar realmente aparatos con esa potencia, probablemente nunca lo sepamos y quede como uno de los tantos misterios que rodean a este genio.
Para aquellos que quieran intentar emular a Tesla, existe un libro con el rimbombante titulo de Nikola Tesla’s Earthquake Machine: With Tesla’s Original Patents Plus New Blueprints to Build Your Own Working Model, que parece dar las claves para construirlo, pero creo que, salvo que te creas las peregrinas teorías conspirativas sobre los terremotos ocurridos los últimos años que circulan por la red, por ahora nadie lo ha conseguido.
20131118
The Navy’s newest warship is powered by Linux
The Navy’s newest warship is powered by Linux
When the USS Zumwalt (DDG 1000) puts to sea later this year, it will be different from any other ship in the Navy's fleet in many ways. The $3.5 billon ship is designed for stealth, survivability, and firepower, and it's packed with advanced technology. And at the heart of its operations is a virtual data center powered by off-the-shelf server hardware, various flavors of Linux, and over 6 million lines of software code.
On October 10, I flew up to Rhode Island to visit Raytheon's Seapower Capability Center in Portsmouth, where engineers assembled and pre-tested the systems at the heart of the Zumwalt and are preparing to do the same for the next ship in line, the USS Michael Monsoor—already well into construction. There, Raytheon's DDG-1000 team gave me a tour of the centerpiece of the ship's systems—a mockup of the Zumwalt's operations center, where the ship's commanding officer and crew will control the ship's sensors, missile launchers, guns, and other systems.
Over 20 years ago, I learned how to be a ship watch stander a few miles from the Raytheon facility at the Navy's Surface Warfare Officer School. But the operations center of the Zumwalt will have more in common with the fictional starship USS Enterprise's bridge than it does with the combat information centers of the ships I went to sea on. Every console on the Zumwalt will be equipped with touch screens and software capable of taking on the needs of any operator on duty, and big screens on the forward bulkhead will display tactical plots of sea, air, and land.
Perhaps it's appropriate that the first commanding officer of the Zumwalt will be Captain James Kirk (yes, that's actually his name). But considering how heavily the ship leans on its computer networks, maybe they should look for a chief engineer named Vint Cerf.
In the past, you couldn't just put off-the-shelf computer systems aboard a ship for mission critical tasks—when I was aboard the USS Iowa, we had to shut down non-tactical systems before the guns were fired because the shock and vibration would crash systems hard. So typically, individual computer systems are ruggedized. But that adds heavily to the cost of the systems and makes it more difficult to maintain them.
The design of the Zumwalt solves that problem by using off-the-shelf hardware—mostly IBM blade servers running Red Hat Linux—and putting it in a ruggedized server room. Those ruggedized server rooms are called Electronic Modular Enclosures (EMEs), sixteen self-contained, mini data centers built by Raytheon.
Measuring 35 feet long, 8 feet high, and 12 feet wide, the 16 EMEs have more than 235 equipment cabinets (racks) in total. The EMEs were all configured and pre-tested before being shipped to Bath, Maine, to be installed aboard the Zumwalt. The EME approach lowered overall cost of the hardware itself, and allows Raytheon to pre-integrate systems before they're installed. "It costs a lot to do the work in the shipyard," said Raytheon's DDG-1000 deputy program manager Tom Moore, "and we get limited time of access."
Each EME has its own shock and vibration damping, power protection, water cooling systems, and electromagnetic shielding to prevent interference from the ship's radar and other big radio frequency emitters.
The EMEs tap into the Total Ship Computing Environment, the Zumwalt's shipboard Internet. Running multiple partitioned networks over a mix of fiber and copper, TSCE's redundantly switched network system connects all of the ship's systems—internal and external communications, weapons, engineering, sensors, etc.—over Internet protocols, including TCP and UDP. Almost all of the ship's internal communications are based on Voice Over IP (with the exception of a few old-school, sound-powered phones for emergency use).
There's also some wireless networking capability aboard the Zumwalt, but Raytheon officials giving me the tour were not at liberty to discuss just what sort of wireless this is. Still, that capability is supposed to allow for roving crew members to connect to data from the network while performing maintenance and other tasks.
Systems that weren't built to be wired into an IP network—other "programs of record" within the ship, which are installed across multiple classes of Navy ships—are wired in using adaptors based on single-board computers and the Lynx OS real-time Linux operating system. Called Distributed Adaptation Processors, or DAPs, these systems connect things like the ship's engineering systems, fire suppression systems, missile launchers, and radio and satellite communications gear into the network so they can be controlled by networked clients.
Some of those networked clients were what I was looking at in the mocked-up Zumwalt operations center. The operations center isn't just where screens are watched and commands are shouted—the whole ship can be practically run from the space, from guns and missiles to engines. There's no "radio room" on the Zumwalt; all the communications are managed from the operations center. The ship's guns are fully automated and operated by an operations center watch stander instead of a gunner's mate in the mount. Theoretically, the ship could even be steered from the ops center—the ship is piloted by computer, not a helmsman. And all of these tasks are performed from the same type of console.
Called the Common Display System, or CDS (pronounced as "keds" by those who work with it), the three-screen workstations in the operations center are powered by a collection of quad-processor Intel motherboards in an armored case, which gives new meaning to the nautical phrase "toe buster." Even the commanding officer's and executive officer's chairs on the bridge have CDS workstations built-in. Each CDS system can run multiple Linux virtual machines atop LynuxWorx's LynxSecure, a separation kernel tthat has been implemented in CDS as a hypervisor. This allows the workstation to connect to various networks partitioned by security level and purpose. "Every watch stander station runs out of the same box," Raytheon's DDG-1000 developer lead Robert Froncillo told me. "So they can sit at any CDS and bring up their station."
This may not seem like a big deal to most people. But on past ships, workstations tended to be purpose-built for a specific weapons system or sensor. That meant every system had a different configuration and interface, and you couldn't have a watch stander handle multiple tasks without having to switch seats. The CDS workstation uses common USB interfaces for its peripheral devices (such as trackballs and specialized button panels) and is equipped with touchscreens, as well, so that watch standers have a choice between "classic" and touch interfaces.
That doesn't mean there's necessarily a "Clippy" to help new operators master their systems. The Raytheon team has had sailors in to perform usability assessments from before code was even written, showing them screen shots of interfaces to get feedback from users. "We had a chief that said, 'We don't want any 'wizards,'" said Froncillo.
Putting all of the pieces together is a collection of middleware running on those IBM blade servers. Many of the shipboard systems use a commercial publish/subscribe middleware platform to send updates to operator consoles. But for other systems that need to be more tightly coupled (like, for example, missile launch commands), the Navy has specified the use of the Common Object Request Broker Architecture (CORBA)—the military's favorite mission-critical middleware model. (The software for the Joint Tactical Radio System's software-defined radios was also developed using CORBA.)
The Zumwalt may not have sailed yet, but its software has already shipped six times. When Release 5 was completed, Raytheon brought in more sailors to test the system, tethering it to the company's Total Ship System Simulator to run through a number of combat scenarios. "We did antisubmarine warfare, air, and land attack missions," Froncillo said. The lessons learned were incorporated into release 6, and 7 will be installed on the ship before the ship's "shakedown" cruise. Another upgrade will be installed post-delivery, and continual improvements will be made as the software is deployed to the other two ships in the class.
But the life of the technology being deployed on the Zumwalt won't end there. CDS will be used as part of the Navy's Aegis Modernization Program to upgrade the systems of the fleet's guided missile cruisers and destroyers. "And there are a lot of things we're developing that will be reused," Moore said.
Considering how much has been spent over the past decade trying to get the Zumwalt built, and the other technologies that were developed in the process, one can hope that more than just the software gets some reuse.
When the USS Zumwalt (DDG 1000) puts to sea later this year, it will be different from any other ship in the Navy's fleet in many ways. The $3.5 billon ship is designed for stealth, survivability, and firepower, and it's packed with advanced technology. And at the heart of its operations is a virtual data center powered by off-the-shelf server hardware, various flavors of Linux, and over 6 million lines of software code.
On October 10, I flew up to Rhode Island to visit Raytheon's Seapower Capability Center in Portsmouth, where engineers assembled and pre-tested the systems at the heart of the Zumwalt and are preparing to do the same for the next ship in line, the USS Michael Monsoor—already well into construction. There, Raytheon's DDG-1000 team gave me a tour of the centerpiece of the ship's systems—a mockup of the Zumwalt's operations center, where the ship's commanding officer and crew will control the ship's sensors, missile launchers, guns, and other systems.
Over 20 years ago, I learned how to be a ship watch stander a few miles from the Raytheon facility at the Navy's Surface Warfare Officer School. But the operations center of the Zumwalt will have more in common with the fictional starship USS Enterprise's bridge than it does with the combat information centers of the ships I went to sea on. Every console on the Zumwalt will be equipped with touch screens and software capable of taking on the needs of any operator on duty, and big screens on the forward bulkhead will display tactical plots of sea, air, and land.
Perhaps it's appropriate that the first commanding officer of the Zumwalt will be Captain James Kirk (yes, that's actually his name). But considering how heavily the ship leans on its computer networks, maybe they should look for a chief engineer named Vint Cerf.
Off the shelf and on the ship
In the past, you couldn't just put off-the-shelf computer systems aboard a ship for mission critical tasks—when I was aboard the USS Iowa, we had to shut down non-tactical systems before the guns were fired because the shock and vibration would crash systems hard. So typically, individual computer systems are ruggedized. But that adds heavily to the cost of the systems and makes it more difficult to maintain them.
The design of the Zumwalt solves that problem by using off-the-shelf hardware—mostly IBM blade servers running Red Hat Linux—and putting it in a ruggedized server room. Those ruggedized server rooms are called Electronic Modular Enclosures (EMEs), sixteen self-contained, mini data centers built by Raytheon.
Measuring 35 feet long, 8 feet high, and 12 feet wide, the 16 EMEs have more than 235 equipment cabinets (racks) in total. The EMEs were all configured and pre-tested before being shipped to Bath, Maine, to be installed aboard the Zumwalt. The EME approach lowered overall cost of the hardware itself, and allows Raytheon to pre-integrate systems before they're installed. "It costs a lot to do the work in the shipyard," said Raytheon's DDG-1000 deputy program manager Tom Moore, "and we get limited time of access."
Each EME has its own shock and vibration damping, power protection, water cooling systems, and electromagnetic shielding to prevent interference from the ship's radar and other big radio frequency emitters.
The EMEs tap into the Total Ship Computing Environment, the Zumwalt's shipboard Internet. Running multiple partitioned networks over a mix of fiber and copper, TSCE's redundantly switched network system connects all of the ship's systems—internal and external communications, weapons, engineering, sensors, etc.—over Internet protocols, including TCP and UDP. Almost all of the ship's internal communications are based on Voice Over IP (with the exception of a few old-school, sound-powered phones for emergency use).
There's also some wireless networking capability aboard the Zumwalt, but Raytheon officials giving me the tour were not at liberty to discuss just what sort of wireless this is. Still, that capability is supposed to allow for roving crew members to connect to data from the network while performing maintenance and other tasks.
Systems that weren't built to be wired into an IP network—other "programs of record" within the ship, which are installed across multiple classes of Navy ships—are wired in using adaptors based on single-board computers and the Lynx OS real-time Linux operating system. Called Distributed Adaptation Processors, or DAPs, these systems connect things like the ship's engineering systems, fire suppression systems, missile launchers, and radio and satellite communications gear into the network so they can be controlled by networked clients.
It looks like you want to launch a missile
Some of those networked clients were what I was looking at in the mocked-up Zumwalt operations center. The operations center isn't just where screens are watched and commands are shouted—the whole ship can be practically run from the space, from guns and missiles to engines. There's no "radio room" on the Zumwalt; all the communications are managed from the operations center. The ship's guns are fully automated and operated by an operations center watch stander instead of a gunner's mate in the mount. Theoretically, the ship could even be steered from the ops center—the ship is piloted by computer, not a helmsman. And all of these tasks are performed from the same type of console.
Called the Common Display System, or CDS (pronounced as "keds" by those who work with it), the three-screen workstations in the operations center are powered by a collection of quad-processor Intel motherboards in an armored case, which gives new meaning to the nautical phrase "toe buster." Even the commanding officer's and executive officer's chairs on the bridge have CDS workstations built-in. Each CDS system can run multiple Linux virtual machines atop LynuxWorx's LynxSecure, a separation kernel tthat has been implemented in CDS as a hypervisor. This allows the workstation to connect to various networks partitioned by security level and purpose. "Every watch stander station runs out of the same box," Raytheon's DDG-1000 developer lead Robert Froncillo told me. "So they can sit at any CDS and bring up their station."
This may not seem like a big deal to most people. But on past ships, workstations tended to be purpose-built for a specific weapons system or sensor. That meant every system had a different configuration and interface, and you couldn't have a watch stander handle multiple tasks without having to switch seats. The CDS workstation uses common USB interfaces for its peripheral devices (such as trackballs and specialized button panels) and is equipped with touchscreens, as well, so that watch standers have a choice between "classic" and touch interfaces.
That doesn't mean there's necessarily a "Clippy" to help new operators master their systems. The Raytheon team has had sailors in to perform usability assessments from before code was even written, showing them screen shots of interfaces to get feedback from users. "We had a chief that said, 'We don't want any 'wizards,'" said Froncillo.
Putting all of the pieces together is a collection of middleware running on those IBM blade servers. Many of the shipboard systems use a commercial publish/subscribe middleware platform to send updates to operator consoles. But for other systems that need to be more tightly coupled (like, for example, missile launch commands), the Navy has specified the use of the Common Object Request Broker Architecture (CORBA)—the military's favorite mission-critical middleware model. (The software for the Joint Tactical Radio System's software-defined radios was also developed using CORBA.)
The next release
The Zumwalt may not have sailed yet, but its software has already shipped six times. When Release 5 was completed, Raytheon brought in more sailors to test the system, tethering it to the company's Total Ship System Simulator to run through a number of combat scenarios. "We did antisubmarine warfare, air, and land attack missions," Froncillo said. The lessons learned were incorporated into release 6, and 7 will be installed on the ship before the ship's "shakedown" cruise. Another upgrade will be installed post-delivery, and continual improvements will be made as the software is deployed to the other two ships in the class.
But the life of the technology being deployed on the Zumwalt won't end there. CDS will be used as part of the Navy's Aegis Modernization Program to upgrade the systems of the fleet's guided missile cruisers and destroyers. "And there are a lot of things we're developing that will be reused," Moore said.
Considering how much has been spent over the past decade trying to get the Zumwalt built, and the other technologies that were developed in the process, one can hope that more than just the software gets some reuse.
20131117
Los avances en la electricidad 'sin cables' dan vida a la utopía de Tesla
Los avances en la electricidad 'sin cables' dan vida a la utopía de Tesla
Aunque las primeras bases teóricas de la electricidad inalámbrica proceden de principios del siglo XIX, con la demostración de los campos magnéticos generados a partir de la corriente o la formulación de la ley de inducción, fue Nikola Tesla el primero en aplicar estos conocimientos, dando vida a experimentos donde la energía se transportaba sin cables.
Se bautizó a esta tecnología, que ha sobrevivido al paso del tiempo, en parte, como un mito, como el efecto Tesla, cuya manifestación más utópica en el pensamiento del inventor de origen serbio planteaba la posibilidad de surtir de energía a todo el planeta como si se tratase de una red wifi universal. La falta de financiación lastró aquel colosal proyecto, pero el sueño de Tesla se ha mantenido vivo desde entonces, generando a lo largo del siglo XX una bibliografía científica inabarcable que en los últimos años ha comenzado a cristalizar en aplicaciones reales.
La falta de financiación lastró el proyecto, pero el sueño de Tesla se ha mantenido vivo, generando a lo largo del siglo XX una amplia bibliografía científica que en los últimos años ha comenzado a cristalizar en aplicaciones realesQuizás la innovación más popular es el denominado estándar Qi, una tecnología auspiciada por Wireless Power Consortium, y que ha dado lugar a una generación de cargadores de inducción que, aunque de momento cuentan con una potencia limitada (5W) que impide la carga de dispositivos con altas necesidades energéticas, funciona con éxito.
No obstante, la aplicación de Qi hace necesario el contacto entre el dispositivo y una base de carga, igual que ocurre con el estándar A4WP, desarrollado por el consorcio Alliance for Wireless Power, del que forman parte -entre otros muchos- Samsung, Broadcom o Qualcomm; y que en su caso aplica la tecnología de resonancia magnética de campo cercano.
El sistema Cota
Precisamente, una de las ventajas principales de las tecnologías anteriores es la gran cantidad de empresas que forman parte del movimiento, permitiendo una carrera constante de innovación que fructifica en una normalización de la que, finalmente, se benefician los usuarios.
Algo que todavía no ocurre con el sistema Cota, lanzado este mismo año por la startup norteamericana Ossia. Se trata de una tecnología revolucionaria que consiste -con elementos similares a las conexiones wifi- en la integración de un cargador y un receptor para conectar el flujo de electricidad a cualquier dispositivo de forma inalámbrica.
La compañía comenzó a desarrollar la tecnología, prácticamente en secreto, en 2006, y a día de hoy su camino parece imparable, después de haber recibido una inyección de 3,2 millones de euros en una ronda de financiación. Apostamos a que no será la única. En el caso de Cota no es necesario el contacto con ninguna base de carga: su alcance es superior a los diez metros y puede alimentar hasta 30 dispositivos al mismo tiempo. A priori, parece el sistema idóneo para llevar la electricidad inalámbrica al hogar a corto plazo.
Autopistas con electricidad
No es casualidad que una de las startups llamadas a marcar el paso del futuro lleve el nombre del inventor. Si Tesla Motors se encuenta hoy por hoy en la vanguardia tecnológica de los vehículos eléctricos, la firma Qualcomm, por su parte, lidera la carrera de innovación en el ámbito del suministro energético de este tipo de vehículos. Recordemos, además, que el almcaneamiento de energía está llamada a ser una de las tecnologías que generen mayor volumen de negocio en 2025.
En la actualidad, existen sistemas que permiten recargar un coche eléctrico de forma inalámbrica colocándolo sobre una plataforma, de un modo similar al sistema para cargar los móviles y tablets a través de Qi o A4WP.
Más allá de esto, Qualcomm ha desarrollado un revolucionario sistema capaz de cargar un coche en movimiento, sentando las bases de lo que pueden ser las autopistas del futuro, donde el pavimento estaría dotado de un sistema capaz de alimentar los vehículos en ruta. Combinando este tipo de tecnología con la del pavimento inteligente, cuyo objetivo último es absober la energía del propio tráfico, podemos imaginar el sistema más eficiente y ecológico del mundo.
De momento, la tecnología Qualcomm Halo se probará a lo grande en 2014 en una competición automovilística, también organizada por la FIA, que llevará el nombre de Fórmula E, un campeonato que recorrerá diez ciudades del mundo y en el que participarán exclusivamente coches eléctricos, que en su caso pueden alcanzar velocidades superiores a los 220 kilómetros por hora.
Una tecnología emergente
El hecho de que el estudio considerado como el definitivo, hasta el momento, en el ámbito de la electricidad inalámbrica, proceda del reciente 2007, ejemplifica que se trata de una tecnología todavía en ciernes. Hablamos del trabajo de varios investigadores del Massachusetts Institute of Technology (MIT) difundido por la revista Science.
El hecho de que el estudio considerado como el definitivo, hasta el momento, en el ámbito de la electricidad inalámbrica, proceda del reciente 2007, ejemplifica que se trata de una tecnología todavía en ciernesEn este artículo se acuñó el término witricity (witricidad), hoy una marca registrada de la empresa WiTricity, de Eric Giler, quien se ha convertido, a su manera, en una especie de Nikola Tesla moderno, siendo habituales sus demostraciones públicas, igual que el inventor serbio, sobre el funcionamiento de la electricidad sin cables. Una de sus exhibiciones más famosas ocurrió en 2009, en Oxford, donde usó su tecnología para encender un televisor y tres teléfonos móviles.
Contra todo lo anterior, la base filosófica de Nikola Tesla consistía en crear un sistema global de energía eléctrica gratuita que abarcase todo el proceso, desde la generación de la energía a su distribución, pero según los sistemas actuales parece improbable que esta tecnología pueda saltar por encima de los proveedores habituales y su sistema de tarificación del consumo.
Aunque las primeras bases teóricas de la electricidad inalámbrica proceden de principios del siglo XIX, con la demostración de los campos magnéticos generados a partir de la corriente o la formulación de la ley de inducción, fue Nikola Tesla el primero en aplicar estos conocimientos, dando vida a experimentos donde la energía se transportaba sin cables.
Se bautizó a esta tecnología, que ha sobrevivido al paso del tiempo, en parte, como un mito, como el efecto Tesla, cuya manifestación más utópica en el pensamiento del inventor de origen serbio planteaba la posibilidad de surtir de energía a todo el planeta como si se tratase de una red wifi universal. La falta de financiación lastró aquel colosal proyecto, pero el sueño de Tesla se ha mantenido vivo desde entonces, generando a lo largo del siglo XX una bibliografía científica inabarcable que en los últimos años ha comenzado a cristalizar en aplicaciones reales.
La falta de financiación lastró el proyecto, pero el sueño de Tesla se ha mantenido vivo, generando a lo largo del siglo XX una amplia bibliografía científica que en los últimos años ha comenzado a cristalizar en aplicaciones realesQuizás la innovación más popular es el denominado estándar Qi, una tecnología auspiciada por Wireless Power Consortium, y que ha dado lugar a una generación de cargadores de inducción que, aunque de momento cuentan con una potencia limitada (5W) que impide la carga de dispositivos con altas necesidades energéticas, funciona con éxito.
No obstante, la aplicación de Qi hace necesario el contacto entre el dispositivo y una base de carga, igual que ocurre con el estándar A4WP, desarrollado por el consorcio Alliance for Wireless Power, del que forman parte -entre otros muchos- Samsung, Broadcom o Qualcomm; y que en su caso aplica la tecnología de resonancia magnética de campo cercano.
El sistema Cota
Precisamente, una de las ventajas principales de las tecnologías anteriores es la gran cantidad de empresas que forman parte del movimiento, permitiendo una carrera constante de innovación que fructifica en una normalización de la que, finalmente, se benefician los usuarios.
Algo que todavía no ocurre con el sistema Cota, lanzado este mismo año por la startup norteamericana Ossia. Se trata de una tecnología revolucionaria que consiste -con elementos similares a las conexiones wifi- en la integración de un cargador y un receptor para conectar el flujo de electricidad a cualquier dispositivo de forma inalámbrica.
La compañía comenzó a desarrollar la tecnología, prácticamente en secreto, en 2006, y a día de hoy su camino parece imparable, después de haber recibido una inyección de 3,2 millones de euros en una ronda de financiación. Apostamos a que no será la única. En el caso de Cota no es necesario el contacto con ninguna base de carga: su alcance es superior a los diez metros y puede alimentar hasta 30 dispositivos al mismo tiempo. A priori, parece el sistema idóneo para llevar la electricidad inalámbrica al hogar a corto plazo.
Autopistas con electricidad
No es casualidad que una de las startups llamadas a marcar el paso del futuro lleve el nombre del inventor. Si Tesla Motors se encuenta hoy por hoy en la vanguardia tecnológica de los vehículos eléctricos, la firma Qualcomm, por su parte, lidera la carrera de innovación en el ámbito del suministro energético de este tipo de vehículos. Recordemos, además, que el almcaneamiento de energía está llamada a ser una de las tecnologías que generen mayor volumen de negocio en 2025.
En la actualidad, existen sistemas que permiten recargar un coche eléctrico de forma inalámbrica colocándolo sobre una plataforma, de un modo similar al sistema para cargar los móviles y tablets a través de Qi o A4WP.
Más allá de esto, Qualcomm ha desarrollado un revolucionario sistema capaz de cargar un coche en movimiento, sentando las bases de lo que pueden ser las autopistas del futuro, donde el pavimento estaría dotado de un sistema capaz de alimentar los vehículos en ruta. Combinando este tipo de tecnología con la del pavimento inteligente, cuyo objetivo último es absober la energía del propio tráfico, podemos imaginar el sistema más eficiente y ecológico del mundo.
De momento, la tecnología Qualcomm Halo se probará a lo grande en 2014 en una competición automovilística, también organizada por la FIA, que llevará el nombre de Fórmula E, un campeonato que recorrerá diez ciudades del mundo y en el que participarán exclusivamente coches eléctricos, que en su caso pueden alcanzar velocidades superiores a los 220 kilómetros por hora.
Una tecnología emergente
El hecho de que el estudio considerado como el definitivo, hasta el momento, en el ámbito de la electricidad inalámbrica, proceda del reciente 2007, ejemplifica que se trata de una tecnología todavía en ciernes. Hablamos del trabajo de varios investigadores del Massachusetts Institute of Technology (MIT) difundido por la revista Science.
El hecho de que el estudio considerado como el definitivo, hasta el momento, en el ámbito de la electricidad inalámbrica, proceda del reciente 2007, ejemplifica que se trata de una tecnología todavía en ciernesEn este artículo se acuñó el término witricity (witricidad), hoy una marca registrada de la empresa WiTricity, de Eric Giler, quien se ha convertido, a su manera, en una especie de Nikola Tesla moderno, siendo habituales sus demostraciones públicas, igual que el inventor serbio, sobre el funcionamiento de la electricidad sin cables. Una de sus exhibiciones más famosas ocurrió en 2009, en Oxford, donde usó su tecnología para encender un televisor y tres teléfonos móviles.
Contra todo lo anterior, la base filosófica de Nikola Tesla consistía en crear un sistema global de energía eléctrica gratuita que abarcase todo el proceso, desde la generación de la energía a su distribución, pero según los sistemas actuales parece improbable que esta tecnología pueda saltar por encima de los proveedores habituales y su sistema de tarificación del consumo.
20131115
La NASA muestra cómo pudo ser Marte antes de sufrir un dramático cambio climático
La NASA muestra cómo pudo ser Marte antes de sufrir un dramático cambio climático
Hoy, Marte es un mundo desierto, frío y estéril, sin ningún signo de vida, al menos en la superficie. Sin embargo, miles de millones de años atrás, cuando el planeta rojo era joven, podría haber tenido una atmósfera densa lo suficientemente caliente para albergar océanos de agua líquida -un ingrediente esencial para la vida-.
El agua líquida no puede existir en la superficie de Marte en la actualidad debido a la baja presión atmosférica y a la temperatura de la superficie, aunque hay evidencia de regueros de flujo líquido que podrían responder a una solución salada ligeramente congelada, según relata Joseph Grebowsky, del Centro Goddard de Vuelos Espaciales de la NASA. El agua en las actuales condiciones atmosféricas de Marte puede ser hielo o estar sublimada directamente en vapor, sin estar en una fase líquida.
El vídeo muestra cómo podría haber sido la superficie de Marte durante este período antiguo, clemente atmosféricamente, mostrando, en el inicio del mismo, lo que pudo haber sido un lago marciano.
El concepto del autor de la recreación visual se basa en la evidencia de que Marte una vez fue muy diferente. Las características superficiales y composiciones minerales sugieren que el antiguo Marte tenía una atmósfera más densa y agua líquida en su superficie, según Grebowsky.
"Hay característicos canales dendríticos estructurados que, al igual que en la Tierra, cuadran con la erosión de la superficie que provocan las corrientes de agua. Los interiores de algunos cráteres de impacto tienen cuencas que sugieren lagos de cráter, con muchos canales de conexión que albergaban flujos de agua dentro y fuera del cráter. Pequeños cráteres de impacto se han eliminado con el tiempo y cráteres más grandes muestran signos de la erosión por el agua de hace 3.700 millones años. Y la estratificación sedimentaria se puede ver en las paredes del valle. Los minerales que están presentes en la superficie, hematita y arcillas, solo se pueden producir gracias a la presencia de agua líquida", explica Grebowsky.
Inyecciones de oxígeno
Inyecciones de oxígeno: Scientists Invent Oxygen Particle That If Injected, Allows You To Live Without Breathing - Entertainment, Science and Technology
Un equipo de científicos del Hospital de Niños de Boston han inventado lo que se considera uno de los grandes avances médicos en los últimos años. Ellos han diseñado una micropartícula que se puede inyectar en la corriente sanguínea de una persona que rápidamente puede oxigenar la sangre.
Esto es muy útil si la capacidad de respirar se ha limitado, o incluso se corta por completo.
Este descubrimiento tiene el potencial de salvar millones de vidas cada año. Las micropartículas pueden mantener vivo una persona en un máximo de 30 minutos después de la insuficiencia respiratoria. Se logra a través de una inyección en las venas de los pacientes. Una vez inyectado, las micropartículas pueden oxigenar la sangre a niveles casi normales.
Tiene innumerables usos potenciales, ya que permite que la vida continúe cuando se necesita oxígeno, pero no está disponible. Para el personal médico, se trata del tiempo suficiente para evitar el riesgo de un ataque cardíaco o una lesión cerebral permanente cuando el oxígeno se limita o se corta a los pacientes.
El Dr. John Kheir, que comenzó el estudio, trabaja en el departamento de pediatría del Hospital de Boston en Cardiología. Encontró la inspiración para la droga en 2006, cuando él estaba tratando a una chica en la UCI, que tenía un caso de neumonía severa. En ese momento, la chica no tenía un tubo de respiración, cuando en el momento en que ella sufría de una hemorragia pulmonar. Esto significa que sus pulmones habían comienzan a llenarse de sangre, y finalmente sufrió un paro cardíaco. Tomó médicos unos 25 minutos para eliminar suficiente sangre de los pulmones para que le permita respirar. Sin embargo, el cerebro de la niña fue gravemente herido debido a la privación de oxígeno durante tanto tiempo y que finalmente murió.
20131113
Crean refrigerador magnético que ahorra 90% de energía
mientras no funcione con el mismo principio que las PowerBalance..
Crean refrigerador magnético que ahorra 90% de energía
Científicos mexicanos desarrollaron un prototipo de refrigerador revolucionario donde aplicaron un concepto de la física originado hace 300 años. A lo largo de casi cinco años, investigadores del Centro de Investigación en Materiales Avanzados (Cimav) han trabajado en este sistema que no emplea compresores ni gases refrigerantes, principio utilizado desde mediados del siglo XIX, sino del efecto magnetocalórico, que es la variación de la temperatura de un material magnético cuando se aplica o retira un campo magnético.
La clave del proyecto está en las propiedades de ese material, “puesto que hasta ahora no se habían podido desarrollar aquellos con capacidad de disminuir la temperatura en unos 35 grados Celsius”, señala Jesús González Hernández, director del Cimav.
Pero los investigadores de la institución, centro Conacyt con sede en Chihuahua, trabajaron en una mezcla de materiales capaz de llegar por debajo de los cero grados desde una temperatura ambiente. “Son una mezcla de 7 materiales, entre ellos manganeso, estroncio y oxígeno, con partículas nanométricas que potencian la propiedad magetocalórica”, añade el doctor en física.
Un refrigerador común tiene un compresor con un gas refrigerante que bombea a áreas que se busca enfriar. Estos gases pueden ser nocivos cuando se liberan al medio ambiente y todo el sistema puede consumir, en promedio, 200 watts de energía. El refrigerador magnético sólo emplearía 8 watts, carecería de gases, compactaría el espacio diseñado para compresor y además no emite ruido alguno.
MERCADO. El proyecto surgió debido a un intercambio académico con científicos de Irlanda, donde se han hecho avances importantes en el área. El proyecto en el Cimav ha sido coordinado por el investigador José Matutes.
El prototipo fue obtenido en conjunto con una empresa del estado y ahora el centro está en pláticas con Mabe y General Electric, quienes están interesadas en desarrollar la tecnología, refiere González Hernández.
“Ahora trabajamos en el diseño final, que no sería más que el de una caja común de refrigerador; el asunto es que sea competitivo y el precio de producción tenga ventajas. Esperaríamos que este tipo de tecnología esté disponible en el mercado en, aproximadamente, cinco años”.
Ahora mismo, añade, podrían hacer uno de tipo comercial, pero los científicos buscan optimizar su “licuado” de materiales y procesos, para desarrollar un producto que no pueda ser superado en los próximos años. “Tenemos que optimizar los materiales porque otros grupos pueden intuir el concepto, por lo que debemos llevarlo a un nivel más de maduración”.
Crean refrigerador magnético que ahorra 90% de energía
Científicos mexicanos desarrollaron un prototipo de refrigerador revolucionario donde aplicaron un concepto de la física originado hace 300 años. A lo largo de casi cinco años, investigadores del Centro de Investigación en Materiales Avanzados (Cimav) han trabajado en este sistema que no emplea compresores ni gases refrigerantes, principio utilizado desde mediados del siglo XIX, sino del efecto magnetocalórico, que es la variación de la temperatura de un material magnético cuando se aplica o retira un campo magnético.
La clave del proyecto está en las propiedades de ese material, “puesto que hasta ahora no se habían podido desarrollar aquellos con capacidad de disminuir la temperatura en unos 35 grados Celsius”, señala Jesús González Hernández, director del Cimav.
Pero los investigadores de la institución, centro Conacyt con sede en Chihuahua, trabajaron en una mezcla de materiales capaz de llegar por debajo de los cero grados desde una temperatura ambiente. “Son una mezcla de 7 materiales, entre ellos manganeso, estroncio y oxígeno, con partículas nanométricas que potencian la propiedad magetocalórica”, añade el doctor en física.
Un refrigerador común tiene un compresor con un gas refrigerante que bombea a áreas que se busca enfriar. Estos gases pueden ser nocivos cuando se liberan al medio ambiente y todo el sistema puede consumir, en promedio, 200 watts de energía. El refrigerador magnético sólo emplearía 8 watts, carecería de gases, compactaría el espacio diseñado para compresor y además no emite ruido alguno.
MERCADO. El proyecto surgió debido a un intercambio académico con científicos de Irlanda, donde se han hecho avances importantes en el área. El proyecto en el Cimav ha sido coordinado por el investigador José Matutes.
El prototipo fue obtenido en conjunto con una empresa del estado y ahora el centro está en pláticas con Mabe y General Electric, quienes están interesadas en desarrollar la tecnología, refiere González Hernández.
“Ahora trabajamos en el diseño final, que no sería más que el de una caja común de refrigerador; el asunto es que sea competitivo y el precio de producción tenga ventajas. Esperaríamos que este tipo de tecnología esté disponible en el mercado en, aproximadamente, cinco años”.
Ahora mismo, añade, podrían hacer uno de tipo comercial, pero los científicos buscan optimizar su “licuado” de materiales y procesos, para desarrollar un producto que no pueda ser superado en los próximos años. “Tenemos que optimizar los materiales porque otros grupos pueden intuir el concepto, por lo que debemos llevarlo a un nivel más de maduración”.
Suscribirse a:
Entradas (Atom)