La expedición quedó atrapada por el hielo cuando volvía de estudiar el calentamiento global en la Antártida.
El barco ruso Akademik Shokalskiy volvía de una expedición a la
Antártida de Sir Douglas Mawson para hacer una investigación científica
sobre el calentamiento global cuando quedó encallado en el hielo el día
de Nochebuena.
Los pasajeros atrapados a bordo durante más de tres días podrían ser
evacuados en helicóptero, después de que otra embarcación de rescate no
pudiera acceder. El barco cuenta con 74 personas a bordo, incluyendo
científicos, miembros de la tripulación y los pasajeros que pagan.
El rompehielos chino enviado para el rescate se quedó a seis y media
millas náuticas del barco de la expedición, pero tuvo que detenerse
porque la capa de hielo era demasiado gruesa. "Se ha encontrado hielo
pesado y no es seguro para ellos seguir por su propia seguridad", dijo
el capitán. "El capitán del buque debe tener en cuenta la seguridad de
su tripulación y su barco también. Vamos a buscar otras opciones". La
nave china tiene un helicóptero a bordo y ha pedido permanecer en el
área.
El matemático británico Alan Turing (1912-1954), que jugó el papel
decisivo en la victoria en la II Guerra Mundial tras descifrar los
códigos nazis y al que se considera el padre de la computación, recibió
este martes el perdón real a título póstumo, más de 60 años después de
su condena por homosexualidad en el Reino Unido.
Considerado el Einstein de las matemáticas, este pionero de la
informática murió en 1954 a la edad de 41 años, envenenado con cianuro
que había sido impregnado en una manzana. La tesis general es que se
suicidó aunque nunca ha sido demostrado en una investigación oficial.
Dos años antes, había sido condenado por "atentado contra las moral
pública" y obligado a la castración química a causa de su
homosexualidad, ilegal en el Reino Unido hasta 1967.
Durante su vida, Turing logró sentar las bases de la informática moderna
y definió los criterios de la inteligencia artificial, que siguen
todavía en vigor a través del famoso test de Turing, que detecta la
capacidad de una máquina para mantener una conversación.
Su hazaña más conocida es haber conseguido descifrar el código de la
máquina Enigma, utilizado por los submarinos alemanes en el Atlántico
norte durante la II Guerra Mundial. Muchos historiadores creen que sin
este logro, que consiguieron los matemáticos de Benchley Park, cerca de
Londres, no se hubiese ganado la guerra.
Alan Turing recibió el perdón de la reina Isabel II tras una propuesta
del ministro de Justicia, Chris Grayling, que evocó "un hombre
excepcional de espíritu brillante". Desde hace años, había una campaña
para exigir al Reino Unido el perdón público a Turing. "Su genio
aplicado en Benchley Park durante la II Guerra Mundial, donde su
aportación fue decisiva para quebrar el código Enigma, ayudó a poner fin
al conflicto y salvó millones de vidas", ha comentado el ministro. "Su
vida se vio ensombrecida por su condena por homosexualidad, condena que
consideramos hoy injusta y discriminatoria y que, por lo tanto, queda
anulada", añade.
En 2009, el entonces primer ministro, Gordon Brown, le pidió perdón
póstumamente. En 2012, el año del centenario de su nacimiento, 11
científicos británicos, entre ellos Stephen Hawkings, pidideron la
anulación de su condena. En 2012, después de que se hubiesen recogido
23.000 firmas, el Gobierno británico rechazó el perdón alegando que "fue
condenado por una ley que estaba entonces vigente".
Existe una teoría que señala que la manzana mordida, símbolo de Apple,
es un homenaje a la manzana con cianuro con la que Turing presuntamente
se suicidó.
El diseñador de armas ruso Mijaíl Kaláshnikov, inventor del fusil AK-47,
que actualmente es el arma más utilizada del mundo, ha muerto a los 94
años en un hospital de la república rusa de Udmurtia. "Hoy nos llegó una
triste noticia: tras una larga y grave enfermedad falleció a los 94
años de edad el legendario diseñador de armas de fuego Mijaíl
Timoféyevich Kaláshnikov", ha escrito en su página de Facebook Víctor
Chulkov, portavoz del presidente y Gobierno de Udmurtia.
Kaláshnikov permanecía ingresado desde el pasado 17 de noviembre en el
Centro Clínico y Diagnóstico de la República de Udmurtia, donde se le
sometió a terapias intensivas por una hemorragia estomacal.
Anteriormente, Kaláshnikov, quien no se encontraba bien desde marzo
pasado y no acudió al trabajo desde entonces, fue hospitalizado en
varias ocasiones por distintos problemas de salud.
Las autoridades sanitarias de Udmurtia, donde residía el diseñador y
donde se encuentra la fábrica de armamento, confirmaron que Kaláshnikov
sufría diferentes dolencias.
A finales de octubre, Kaláshnikov escribió una carta al presidente ruso,
Vladímir Putin, para denunciar la mala gestión de la fábrica por parte
de su actual directiva. Debido a su delicado estado de salud sus hijos
dejaron de mantenerle al tanto de las operaciones en la fábrica, como
cuando el Ejército ruso anunció en 2011 que dejaría de comprar fusiles
Kaláshnikov por excesos de existencias en sus arsenales.
Kaláshnikov confesó en 2007, con motivo del 60 aniversario del registro
oficial de su fusil en la URSS, que los nazis, al invadir su país en la
Segunda Guerra Mundial (1939-1945) fueron los verdaderos responsables de
su invento porque su auténtica vocación era diseñar maquinaria
agrícola.
Yo ya lo sabía por mis pinitos en Bioinformática, pero esto es la
noticia del siglo de momento. La especie humana no es unitaria, como
todo el mundo pensaba, ni uniforme viniendo todo dios de África.
El
análisis de ADN de los fósiles de los parientes humanos más cercanos no
deja de aportar nuevos y revolucionarios datos sobre la evolución del
hombre moderno. En 2010, la publicación de un primer borrador del genoma
de los neandertales -dirigido por investigadores del Instituto de
Antropología Evolutiva del Max Planck, pero con participación española-
ya dio las primeras pruebas irrefutables de que la especie humana
moderna y los neandertales hibridaron durante los miles de años de
coexistencia de ambas especies. Algo de sangre neandertal corre por las
venas de los europeos.
Pero la secuencia de nuestro pariente más cercano aún no ha dejado de
aportar datos para la ciencia y para el debate. La revista Nature acaba
de publicar los resultados del análisis del genoma neandertal completo
con una resolución mucho mayor que la de aquel primer borrador -tanta
que es equiparable a la que se tiene del ser humano actual- y los
resultados han puesto patas arriba la evolución humana en los últimos
70.000 años.
Para empezar, el análisis comparativo ha puesto de manifiesto que los
genomas de las tres especies de homínidos conocidas que habitaron
Eurasia en el Pleistoceno tardío (hace unos 50.000 años) contienen
secuencias que no corresponden a ninguno de los homínidos conocidos, lo
que sugiere que en aquel tiempo había otra especie humana en Europa que
aún no ha sido descubierta. Además, deja aún más patente no sólo que
neandertales y humanos modernos (Homo sapiens) se aparearon e
intercambiaron genes, sino que también lo hicieron con la tercera
especie conocida, los denisovanos, una especie arcaica conocida sólo por
su secuencia genética obtenida a partir del hueso de un dedo encontrado
en la Cueva de Denisova, en las Montañas Altai (Siberia).
Precisamente, las muestras de ADN neandertal utilizado por el equipo del
Max Planck dirigido por Kay Prüfer y Svante Pääbo para este último
análisis provienen precisamente de la misma cueva, aunque el hueso
denisovano y el dedo del pie de una mujer neandertal usado ahora están
separados en el tiempo por varios miles de años, según citan Ewan Birney
y Jonathan Pritchard, del Wellcome Trust Genome Campus de Cambridge
(Reino Unido), en un artículo que acompaña a la investigación en la
revista 'Nature'.
"El hallazgo significa que podemos entender mejor las interacciones
entre neandertales, denisovanos y nuestros propios ancestros", asegura
Chris Stringer, del Museo de Historia Natural de Londres. "El fósil
también ha aportado evidencias de que neandertales y denisovanos se
cruzaron entre ellos y, además, con los humanos modernos y con otra
especie arcaica desconocida", dice Stringer.
La
investigación llega incluso a determinar cuánto del ADN de los humanos
modernos de Eurasia ha sido heredado de los neandertales: un 2%. Y
señala que en los africanos actuales no es posible detectar ADN
neandertal. "Parece que Eurasia fue un interesante lugar para ser un
homínido en el Pleistoceno tardío, con individuos de al menos cuatro
grupos encontrándose y, ocasionalmente, teniendo sexo", dicen Birney y
Pritchard en su artículo.
y además:
El hombre comparte el 99% del ADN con el chimpancé
Ever
since researchers sequenced the chimp genome in 2005, they have known
that humans share about 99% of our DNA with chimpanzees, making them our
closest living relatives. But there are actually two species of apes
that are this closely related to humans: bonobos (Pan paniscus) and the
common chimpanzee (Pan troglodytes). This has prompted researchers to
speculate whether the ancestor of humans, chimpanzees, and bonobos
looked and acted more like a bonobo, a chimpanzee, or something else—and
how all three species have evolved differently since the ancestor of
humans split with the common ancestor of bonobos and chimps between 4
million and 7 million years ago in Africa.
Interesante entrevista con la astrobióloga alemana Gerda Horneck.
Entre otras cosas comenta:
Cada sonda terrestre de la NASA que aterriza en Marte lleva con ella
hasta 300.000 esporas terrestres (nivel de esterilización que la NASA
considera no peligroso para contaminar de vida terrestre el planeta
rojo).
Para buscar vida hay que ser más cuidadoso (para que las muestras que se
toman de Marte no se contaminen con vida terrestre que vaya en la
sonda) y el coste sólo de esta esterilización más minuciosa asciende a
200 millones de euros. Es por ello que desde la Viking no se han vuelto a
lanzar sondas que busquen vida directamente en ese planeta.
No se deben traer muestras de Marte a la Tierra (salvo que estemos muy
seguros de su aislamiento del medio terrestre) por miedo a una posible
contaminación de vida extraterrestre en la Tierra con el consiguiente
peligro para la vida en nuestro planeta.
No habrá misiones a Marte sin regreso (es decir con infraestructuras en
el planeta suficientes para mantener la vida humana de forma indefinida)
al menos en 100 años.
Por ultimo, tal vez los chinos sean los primeros en detectar vida
extraterrestre ya que, según Horneck, "tienen más coraje y son fiables".
Blue Coat Systems indicó que las extorsiones por Ramsomware
aumentarán a nivel corporativo y las empresas deberán destinar mayores
presupuestos para protegerse de los ciberdelitos. Tome note y prepárese
para el próximo año.
1. Extorsiones por Ramsomware en aumento
Las extorsiones de información por infecciones de Ramsomware están
creciendo cada vez más y con mayor sofisticación. El costo de la
recuperación de los datos va en aumento en comparación con el año
anterior y los delincuentes exigen una mayor recompensa debido a la
inflación. No hay garantía de que los extorsionadores desbloqueen los
archivos con este pago, por lo que generalmente se aconseja no pagar
la recompensa ya que esto provoca que los ciberdelincuentes se
fortalezcan. Cryptolocker es un ejemplo reciente de cómo el Ransomware
se está convirtiendo en un sofisticado e implacable malware.
2. Incremento en presupuestos para seguridad (detección y reparación de daños)
Gartner declaró recientemente que el presupuesto de la seguridad total
gastado en la detección rápida y la capacidad de reparación también se
incrementará del 10% al 75 % para el 2020. Un ejemplo de esto es la
reciente iniciativa Waking Shark 2 para probar la preparación
ciberataque dentro de la industria financiera del Reino Unido. La red se
está convirtiendo en un gran punto ciego y a medida que aumenta el
tráfico cifrado, las empresas se volverán ciegas ante el tráfico en sus
redes que inevitablemente resultará en un mayor número de violaciones a
la seguridad.
3. Pensar en ROSI (retorno de inversión en seguridad) dentro del plan de la empresa
El ROI (retorno de inversión) ya no es todo lo que debe medirse en una empresa. El ROSI
(retorno de la inversión en seguridad) no es tan fácil de medir
cuantitativamente y tiende a medirse cualitativamente, pero ahora ya hay
una presión para las áreas de TI y dirección para medir la seguridad
más subjetivamente. Tanto el ROSI como el ROI
se pueden aprovechar cuando se trata de justificar el presupuesto. El
alinear el presupuesto de seguridad con las prioridades del negocio
deberá centrarse en la reducción de riesgos.
4. Gestión de tiendas de aplicaciones en las empresas (MDM)
Las empresas desean dar mayor poder de decisión a los empleados. Los
empleados quieren ser más productivos en cualquier momento y en
cualquier lugar a través de una variedad de dispositivos. Suena bien,
¿verdad? Y lo es, hasta que usted piensa acerca de los problemas de
gestión de ancho de banda, problemas de seguridad y problemas de
privacidad que pueden surgir al momento en que los empleados descargan
más y más aplicaciones.
Para obtener el control sobre la red, las empresas van a crear sus
propias tiendas de aplicaciones para mantener sus redes, datos, IP y
seguridad de los empleados. La clasificación App va a jugar un papel clave en la creación y gestión de tiendas de aplicaciones empresariales.
5. La empresas necesitan prevenir, detectar y responder
Existe actualmente en las empresas una brecha entre las operaciones de
seguridad diarias y los equipos de operaciones de seguridad avanzada que
se traduce en violaciones a la seguridad de materiales. De acuerdo a
los datos del Informe de Incumplimiento Verizon, el 84% de los ataques
dirigidos avanzados tomó segundos, minutos u horas para lograr su
objetivo mientras que el 78% de las violaciones tomó semanas, meses o
años en descubrirse.
Esta brecha existe porque las defensas de seguridad tradicionales
están diseñadas para detectar y bloquear amenazas conocidas, pero siguen
siendo en gran medida ciegas ante las amenazas de día cero (zero-day
threats) y los nuevos ataques de malware. Las empresas necesitan
aumentar sus defensas previniendo lo que se puede, detectando lo que
no puede y respondiendo a lo que ya está ahí.
El blog oficial de Gmail anuncia
un cambio en su política de seguridad que afecta a las imágenes
contenidas en los correos electrónicos. Anteriormente, los correos HTML
que incluían imágenes descargadas desde servidores externos se mostraban
en Gmail con un aviso al usuario, pidiéndole permiso para descargar y
mostrar las imágenes.
A partir de ahora, la nueva política de Gmail será
mostrar automáticamente las imágenes, sin intervención del usuario. Y
para aumentar la seguridad, los mensajes de correo se modificarán al
vuelo para que las imágenes no se descarguen de sus servidores
originales, sino de servidores proxy de Google que actuarán como caché
de imágenes.
La descarga de imágenes al visualizar un mensaje de correo
electrónico es un método
usado por empresas y particulares para obtener diversos datos del
destinatario del correo, como por ejemplo, geolocalización, confirmación
de la apertura del correo, etc.
Estos datos pueden usarse con distintos fines
caso de obtención de estadísticas de campañas de publicidad por correo
electrónico, obtención de datos sobre la computadora para realizar
ataques sobre ella, etc.
Google presenta el cambio como ventajoso para
el usuario. No habrá que habilitar las imágenes de remitentes
desconocidos, y las imágenes cacheadas serán escaneadas en busca de
virus o malware.
Si creíamos haberlo visto todo, esto nos hará saber que no. He aquí el primer espermatozoide ciborg de la historia. En el Instituto Nanocientífico de Dresden (Alemania) han conseguido crear los primeros “biobots” basados en esperma.
Esto ha sido posible al unir un microorganismo artificial con el espermatozoide de un toro, con la posibilidad de controlarlo funcionando como vehículo de transporte de fármacos u otras sustancias a cualquier parte del cuerpo.
El spermbot, como lo han bautizado, se ha creado utilizando un micro-tubo de 50 micras de largo donde va introducido el espermatozoide, pero dejando la cola (flagelo) fuera. De esta forma, mediante el control del campo magnético del tubo, pudieron controlar la dirección de este curioso “vehículo” hacia donde quisieran.
No podemos dejar escapar las palabras del líder de esta investigación, Oliver Schmidt:
Las células de esperma son una opción atractiva debido a que son inofensivos para el cuerpo humano, no requieren una fuente de alimentación externa, y pueden nadar a través de los líquidos viscosos.
Y pese a que nos pueda echar hacia atrás la idea de que un espermatozoide pueda circular por cualquier parte de nuestro cuerpo en el interior de un micro-tubo metálico, lo cierto es que se trata de una idea genial que podrá ayudar a avanzar en muchos proyectos de la medicina.
La mítica saga de videojuegos de acción y disparos, DOOM, cumple 20 años haciendo historia e influenciando al mundo gamer. John Carmack y los estudios de id Software marcaron un antes y un después en la industria. Hoy, lo celebramos y repasamos la historia de esta gran franquicia.
Pocos juegos han significado tanto para la industria como DOOM,
el clásico juego mítico que revolucionó por completo el género de
"disparos y acción en primera persona", mejor conocido simplemente como FPS por sus siglas en inglés. Y es que la obra maestra de John Carmack y en general de id Software,
no fue el primero en su tipo, pero su jgabilidad, dificultad y sobre
todo la mezcla de géneros que incluía lo convirtieron el el primero de
muchos otros grandes por venir, de los cuales no pocos estuvieron
relacionados a sus padres en id.
DOOM no fue el primer FPS, pero sin dudas revolucionó la industriaDOOM llevaba los géneros del horror y la ciencia ficción como nunca antes a un videojuego. John Carmack, padre y fundador de id Software, que recientemente abandonó la empresa para dedicarse a trabajar en Oculus VR haciendo lo mejor que sabe hacer: innovar, dio vida a una obra maestra, y comentó que él y su equipo se inspiraron en grandes clásicos del cine del horror como Evil Dead, y en la saga Alien
de Ridley Scott, que en conjunto con elementos que adoptaron de
Dungeons & Dragons, lograron dar vida a la fórmula de este
videojuego.
Porque aunque no podemos menospreciar en lo absoluto a Wofenstein 3D,
también creado por id Software, no fue sino DOOM el que inspiró y
reafirmó las bases para luego ver llegar otras obras maestras como la
saga Quake (también de id), Duke Nukem, e incluso títulos más recientes como BioShock o Rage.
Sí, id Software ha sido, en general, la empresa más importante para la evolución de los FPS. De ello no podemos tener dudas, y DOOM hoy celebra su 20 aniversario
recordándonos la grandeza de su historia, su éxito, lo que ha
significado para el mundo del gaming, y tratando que olvidemos esa
basura de película protagonizada por "La Roca".
Los inicios de DOOM
El primer DOOM llegó al mercado el 10 de diciembre del año 1993. Nos presentaba la historia de un Marine de los Estados Unidos que era condenado a una especie de cárcel espacial en el planeta rojo, Marte,
por haber insultado y atacado a su oficial superior. Sin embargo, dos
de las lunas del planeta, Phobos y Deimos, se vieron inmiscuidas en una
serie de experimentos secretos que, en resumen, abrieron las puertas al infierno.
Allí es cuando nuestro héroe sin nombre pero armado hasta los dientes
debe dirigirse a estas lunas para salvar el día, y en general a la
especie humana, enfrentándose a cuanto demonio y bestia infernal se le
atravesase, no sin antes haber instalado el juego que originalmente
funcionaba en MS-DOS y venía incluido en una serie de diskettes, como cualquier otro título de esta, una de las eras de oro de los videojuegos.
La segunda entrega, DOOM II: Hell on Earth, llegó
apenas un año más tarde que su predecesora, con la idea de continuar la
tenebrosa y espectacular historia con mucha más acción, disparos,
sangre, monstruos, demonios, polémicas religiosas y todo eso que fue
criticado y condenado por la prensa de más vieja escuela, los "expertos"
e incluso miembros de gobiernos que se manifestaron en contra de la
infame, pero divertidísima y espectacular saga creada por id Software.
Dos años más tarde llegaría Final Doom que querría dar fin a la trilogía original. Pero no fue sino hasta el año 1997, con DOOM 64
(quizás uno de los juegos más violentos que vio la mítica consola de
Nintendo), que id Software y en aquel entonces Midway Games estrenaron
un nuevo motor gráfico que dotaba al juego de un aspecto tridimensional
espectacular, y fue un título que revolucionó la franquicia en términos
técnicos, aunque no tuvo tanto éxito como sus antecesores (aunque
personalmente, me encantó, aunque podría tener que ver el hecho de que
fue el primer DOOM que jugué en mi vida).
Posterior a este lanzamiento la saga estaría en descanso por unos 7 años, hasta la llegada de DOOM 3 para PC y la primera Xbox. En esta ocasión fue Activision el responsable de publicar el juego, y aunque John Carmack no estuvo entre los más involucrados en el proyecto, el título contó con un lanzamiento por todo lo alto, estrenando motor gráficos (id Tech 4) y regresando al jugador al planeta Marte,
para vivir una especie de versión modernizada del primer título que
muchos disfrutaron, aunque muchos fanáticos de los títulso originales
odiaron a muerte (bien sabemos que el mundo del gaming suele ser algo
radical).
DOOM ha estado presente en infinidad de plataformas,
desde MS-DOS, Windows, Linux y OS X, hasta Xbox, PlayStation 4, Xbox
360, Nintendo 64 e incluso en GameBoy. Incluso los juegos originales
están disponibles para la generación de consolas "saliente" (PS3 y Xbox
360) gracias a sus nuevos distribuidores, Bethesda Softworks,
quienes con el lanzamiento de DOOM 3: BFG Edition mejoraron los
gráficos de la tercera entrega y llevaron los dos primeros juegos a
estas consolas.
Pero más allá de la larga espera por un nuevo título que nos tiene viviendo id Software, por el tan anhelado DOOM 4 (ya en desarrollo pero sin fecha de lanzamiento), hoy celebramos los 20 años de esta saga mítica, llena de grandes éxitos, y que dio pie al nacimiento de tantos grandes juegos posteriores.
Quizás un nuevo DOOM sin John Carmack en id pueda ser una idea
arriesgada desde el punto de vista de muchos fanáticos, pero sin duda lo
esperamos con ansias. Ese "soldado sin nombre" (o "Doomguy") que acabó
con tantos demonios en el espacio fue parte de la vida de muchos, y la
nueva generación de gamers (y de consolas, por supuesto) debería verlo
volver.
Más allá de todo esto, como gamer de corazón no me queda más que decir gracias al equipo original compuesto por grandes como John Carmack, John Romero y Sandy Petersen, entre tantos otros.
91,2 grados bajo cero: es la temperatura récord en la superficie de
nuestro planeta que han registrado los científicos. El récord fue
establecido en la estación japonesa Cúpula Fuji, en la Antártida.
El récord anterior –89,2 bajo cero– también fue registrado en la Antártida, en la estación rusa Vostok, en 1983.
La Cúpula Fuji es la estación antártica situada a más altitud: se ubica a 3.786 metros sobre el nivel del mar.
Beppe Grillo, el caso Greenwald, Rajoy en un plasma, las Google Glass
(sobre todo las Google Glass), el mero hecho de que tu madre y tu pareja
sepan a qué hora te acostaste mirando tu última conexión de Whatsapp.
Todo esto es muy Black mirror (Espejo negro).
"Somos como niños en un planeta en los adultos se han marchado y nos han dejado sin supervisión".
La serie, que emitirá su tercera temporada en 2014, tardó muy poco en
convertirse en un adjetivo. Cualquiera que la ve, empieza
automáticamente a detectar en su vida o en la prensa fenómenos “muy
Black mirror”. Y esa era precisamente la intención de su creador,
Charlie Brooker, una de las mentes más interesantes de la tele actual.
“Me encanta que la gente diga eso, era mi ambición secreta. Lo pusimos
ya en el primer briefing que le presentamos a la cadena. Queríamos crear
el mismo efecto que cuando la gente decía ‘esto es muy La dimensión
desconocida”, cuenta este productor, guionista y columnista, un
francotirador semidomesticado empeñado en ser la carabina aguafiestas en
nuestro sucio romance con la tecnología.
"Encuentro agotadora la constante necesidad de comunicar, hay veces que simplemente no tengo nada que decir"
Cada uno de los capítulos de Black mirror –sólo tres por temporada–
aborda un tema distinto, una “pesadilla plausible”, como las define él,
derivada de los tiempos locos en los que vivimos. En el titulado The
entire history of you, que ha comprado Robert Downey Jr para rodar un
remake en el cine, todos los personajes llevan implantado detrás de la
oreja un discreto dispositivo llamado Grain que permite grabar todas
nuestras vivencias, rebobinarlas y borrarlas. Los pocos que confían en
sus memorias orgánicas se ven como hippies asilvestrados, como ese tío
que todo el mundo conoce que no tiene móvil. ¿Exagerado? Lean las
instrucciones de las gafitas de Google y verán. En otro, Be Right Back,
una joven viuda consigue resucitar virtualmente a su marido gracias a un
software que replica su voz y su estilo, utilizando toda la huella
digital que dejó en las redes sociales. ¿Raro? Pues ya existen
aplicaciones como LivesOn, que mantiene vivo el Twitter de un fallecido
gracias a la inteligencia artificial –el finado puede seguir comentando
Quien quiere casarse con mi hijo desde el más allá y hasta interactuar
con otros usuarios– y Deadsoci.al, que permite componer los estatus que
se publicarán después de muertos.
“En realidad, a mi me encanta la tecnología". asegura Brooker. "Pero en
estos momentos somos todos como niños en un planeta en el que todos los
adultos se han marchado y nos han dejado sin supervisión. Los avances se
nos presentan siempre como algo sólo positivo, pero no percibimos las
cosas que vamos perdiendo ni el efecto que tiene en nuestras mentes. Es
como un coche, puedes utilizarlo para ir rápido a los sitios, que es
genial, pero también puedes atropellar a un montón de gente”. Como
bonus, regala un ejemplo que no llegó a formar parte de la serie: “Si
existiese un smartphone que sólo se pudiese recargar renunciando a diez
minutos de vida, la gente lo haría. ¿Diez minutos? Claro, por qué no,
tengo que llegar al siguiente nivel en el Angry Birds”.
Los episodios quizá más inquietantes son los que se mueven en la esfera
político-mediática, que Brooker disecciona también en el informativo
satírico 10 o’clock live y en los especiales del programa Newswipe, que
graba ocasionalmente en el salón de su casa. Se ha citado mucho el
capítulo The Waldo effect, en el que un personaje virtual, una marioneta
malcarada, acaba ganando unas elecciones a base de
decir-las-verdades-a-la-cara y ser estudiadamente antisistema. “No lo
veo tan lejos de la realidad”, dice el guionista, y cita a Boris
Johnson, el alcalde de Londres y firme aspirante a primer ministro tory,
que lucha por convertirse en un meme andante: “Se hace el payaso, sabe
que cuánto más bufonesco sea, más popular resultará y más poder
amasará”.
Black mirror no es la primera creación profética de Brooker. En 2004
firmó la telecomedia de culto Nathan Barley, en la que se cincelaba el
perfil del hipster multitarea, un tipo con piso en Shoreditch que se
autodefinía como “director de guerrilla, webmaster, gurú de la moda,
promotor de clubes y nodo mediático autogestionado”. Un idiota, vamos
¿Qué haría Nathan hoy? “Estaría desarrollando aplicaciones, cultivando
su presencia en las redes sociales y siendo generalmente insufrible. Lo
mismo que entonces, pero peor”. La serie sigue dando risa pero también
puede provocar un incómodo picor de autorreconocimiento en cualquiera
que maneje perfiles en un par de redes sociales y que, por tanto, pase
una porción significativa de su día dedicado al self-branding.
Brooker está cabreado con Spotify (“¿por qué tuvieron que convertirlo en
un club social? No quiero que nadie sepa qué música escucho”), ha
dejado Facebook y frecuenta menos Twitter, convertida en “un concurso de
ver quien mea más lejos”. Debe formar todo parte de su promesa de
“reducir sus emisiones de palabras”, que anunció en su columna de The
Guardian el pasado verano y que, dice, ha conseguido cumplir sólo a
medias. “Encuentro agotadora la constante necesidad de comunicar, hay
veces que simplemente no tengo nada que decir”. Pues qué poco Black
mirror.
He tardado un tiempo en pasarme por aquí a traeros las fotos por mil
razones personales y, aunque ganas tenía, de dejar estas fotos que hice
durante el verano del experimento casero de los trépanos de cobre
egipcio (milagroso cobre debía de ser aquel)... Lamento no haber podido
antes
Bien, pues vamos paso a paso...
Cabe explicar, para todos aquellos que nos gusta liarla con el desvío de
conceptos a su campo o al absurdo (muy típico de nuestros políticos,
así nos va), que entre "trepano" y "barrena (o broca)" hay una
diferencia abismal. Por experiencia propia tuve el gusto de conocer
profesionalmente a ambos significados y útiles, cosa que no todos hemos
hecho. Y, aunque podemos saber en que difieren ambos conceptos con
ponerlo en el buscador de google, preferimos hacer comentarios
infantiles o inútiles si acaso.
Esto es un TREPANO de diamante sintético (vídea) usado hoy por nuestros canteros para o bien hacer incisiones circulares, o bien sacar "testigos" cilíndricos de la roca
Esto es una BROCA o barrena de vídea...
Y siento decirlo, pero cierto es que me siento incomodo teniendo que
explicar la diferencia entre ambos al estilo Barrio Sésamo del aquí y
allá
Hecho el TRÉPANO de cobre, lo fijo en el
portabrocas de un taladro vertical. Sitúo el trozo de granito bajo el
trepano. Supuestamente, por lo que dice el marmolista, el granito mas
blando que tenia (baja calidad a su ver). El taladro tiene las opciones
de baja revolución para el taladrado de metales y va a girar a 120
revoluciones por minuto/dos revoluciones por segundo y una presión
continua de unos 6Kgr.
[
La rugosidad de la piedra hace perder la estabilidad vertical del trépano y acaba hecho un fiasco...
Tomo el trozo de granito y hago una muesca con un martillo para que, en la siguiente prueba, no pierda el TRÉPANO
la estabilidad y se mantenga vertical para, a posteriori, hacer la
teórica trepanación en la piedra. Fijo el trozo de granito bajo el
portabrocas con un torniquete para evitar los posibles desplazamientos
laterales de este que hagan perder la estabilidad. Reparado el TRÉPANO lo vuelvo a fijar al portabrocas, la imagen dentada da este aspecto antes de inicial la taladrada:
Apenas a un minuto tras iniciar el intento de trepanación, el aspecto del TRÉPANO es este:
La mayor mella que pudo hacer el TRÉPANO DE COBRE sobre el GRANITO,
fue la de dejar un resto de cobre adherido a la muesca que previamente
hice con el martillo sobre el trozo granito de la imagen de la
izquierda.
A la derecha, esta una trepanación egipcia sobre DIORITA
cuya dureza esta por encima de la dureza del granito. En esta imagen de
la derecha, también se pueden apreciar sobre el agujero de la
trepanación, las espirales de giro de y la mordida del TRÉPANO.
Sobre las paredes interiores se ve como a cada giro de trepano la
penetración sobre la diorita es un par de milímetros mas profunda. Al
fondo del agujero se diferencian dos cosas:
Una, el vacío que dejo la mordida del trepano. Fácil de determinar por
la diferencia de diámetros entre el diámetro de la trepanación y el
diámetro del testigo.
Dos, para todo aquel que pretenda llamarlo taladrada, observe que el
corte que queda entre la pared interna del agujero y el testigo NO ES LA MELLA DE UNA BROCA O BARRENA
o, dicho más llanamente, taladrada, ya que, una barrena no deja
testigo. Desearía de corazón que venga un historiador y hable del cobre
que se usó para hacer la segunda taladrada sobre diorita y, a ser
posible, exponga su edad del cobre:
Se
me olvidaba decir que, la diferencia entre un tubo macizo con
exposición a la fricción de 3 centímetros cuadrados y un tubo hueco con 1
centímetro cuadrado de exposición a la fricción no hará variar los
efectos de desgaste sobre el total. Es una simple y muy básica ley de
los efectos físicos de la fricción: mayor superficie de fricción, mayor
superficie de desgaste
Poco
tiempo ha tardado el nuevo sistema de grabación de partidas en PS4 y
Xbox One en encontrarse con los primeros problemas. Y es que a algunos
jugadores les ha parecido buena idea compartir con la comunidad online,
además de la partida de FIFA, juegos de carácter más privado.
La cuestión es que la grabación de Gameplays en las nuevas consolas de
Sony y Microsoft, permiten grabar también, mediante PIP al jugador,
gracias a la cámara frontal que disponen ambas consolas, para después
compartirlos online.
Pues bien, Twitch, la plataforma de video online que gestiona los vídeos
de la Playroom de PS4 ya ha empezado a tener problemas con algunos
usuarios, que lejos de compartir sus partidas, estaban empezando a
compartir videos de carácter sexual.
De momento la plataforma está intentando moderar el contenido, borrando
vídeos y baneando a usuarios reincidentes, y por otro lado algunos
servicios de videos sexuales como PornHUB, ya anuncian que son los
primeros en tener su servicio adaptado a las videoconsola de Sony y
Microsoft:
Veremos como acaba el tema. Lo que está claro es que es imposible
ponerles puertas al campo, así que quizás la mejor forma sea moderar el
tema mediante controles parentelas, y que cada uno elija que juegos
quiere ver, independientemente de la plataforma de acceso a internet
utilice.
La Ingeniería en Informática seguirá sin ningún tipo de regulación en
España, perjudicando claramente el crecimiento del sector TIC e
impidiendo a nuestros profesionales ejercer su profesión en los países
europeos que ya disponen de regulación.
El Colegio Oficial de Ingenieros Técnicos en Informática de Castilla-La
Mancha () ha tenido acceso a la versión definitiva de la Ley de Colegios
y Servicios Profesionales que el Gobierno ha enviado al Consejo de
Estado para que éste proceda a emitir su dictamen. En dicha versión, se
exigirá colegiación obligatoria para todas las profesiones técnicas
reguladas, incluyendo físicos, químicos y geólogos. Como la Ingeniería
Informática no está regulada, ya que los distintos gobiernos de España
no han acometido este importantísimo problema histórico, bien por
dejadez, bien por presiones de otras profesiones competidoras, nuestra
profesión sería la única que se quedaría fuera de dicho reconocimiento
profesional.
Esto tendría una serie de gravísimas consecuencias, entre ellas, la
inmediata pérdida de competitividad en el sector a nivel nacional ya
que, ¿quién se va a matricular de Ingeniería Informática si cualquiera
puede ejercer las funciones del Ingeniero o Ingeniero Técnico en
Informática? El alumno avezado se matriculará en una titulación
conducente a una profesión reconocida por el Estado y, si después quiere
ejercer como ingeniero informático, así lo hará como intruso, ya que
ninguna ley se lo impedirá. Esto significará que en España cada vez se
formarán menos profesionales Ingenieros e Ingenieros Técnicos en
Informática, debido a la situación irregular en que se encuentra la
profesión, cuestión que en lugar de fomentar la competencia y la
prosperidad en el sector TIC español, vendrá a dilapidarlo y hacerlo
dependiente de la prosperidad e investigación de otros países que sí
consideran el sector como un eje estratégico de su desarrollo y
economía.
Por otro lado, el problema de nuestros profesionales se extiende más
allá de nuestra fronteras, concretamente, a la Unión Europea, en la que
muchos Ingenieros e Ingenieros Técnicos en Informática son rechazados
por las empresas cuando éstas les piden que acrediten, fehacientemente y
con título convalidado por el Ministerio de Educación de España, que
poseen una titulación válida. A nuestra corporación llegan amargas
quejas de titulados que han emigrado a países como el Reino Unido en el
que, determinadas empresas, que están en su derecho de desconfiar de los
títulos aportados por los aspirantes, exigen titulación convalidada por
el Ministerio de Educación del país origen y, al no existir regulación
profesional en España, nuestro Ministerio de Educación emite una carta,
como la adjunta, denegando la acreditación, por tanto impidiéndole
trabajar en su profesión en otro país europeo.
Es necesario que los actuales estudiantes de primeros cursos de Grado de
Ingeniería Informática, así como los que estén por venir en los años
venideros, tengan en cuenta todas estas eventualidades a la hora de
decidir si quieren matricularse en los diferentes grados de Ingeniería
Informática, ya que estos no conducirán a ninguna profesión regulada en
España. Desde el COITICLM y otras organizaciones colegiales del Consejo
General luchamos constantemente por revertir esta grave situación que
nos perjudica a todos, tanto a los profesionales como a la sociedad.
una lista de las tecnologías que revolucionarán el mundo si antes no colapsa todo:
1- COMPUTACION CUANTICA
Computación cuántica - Wikipedia, la enciclopedia libre Large-scale
quantum computers will be able to solve certain problems much more
quickly than any classical computer using the best currently known
algorithms, like integer factorization using Shor's algorithm or the
simulation of quantum many-body systems. There exist quantum algorithms,
such as Simon's algorithm, which run faster than any possible
probabilistic classical algorithm.
La computacion cuantica hace lo mismo que la computacion clasica pero
muchisimo mas rapido. Problemas que un ordenador clasico los resolveria
en tiempo larguisimo, varias veces la vida de un ser humano, un
computador cuantico los podria resolver inmediatamente.
Si la computacion clasica en la actualidad parece que hace magia, en un
futuro nos podriamos encontrar un mundo que solo hemos visto en las
peliculas de ciencia ficcion. Se podrian hacer androides con un
comportamiento y capacidades a la altura de cualquier ser humano,
haciendo a la mayoria de la poblacion totalmente prescindible del
sistema productivo.
Fusion
reactions have an energy density many times greater than nuclear
fission; the reactions produce far greater energy per unit of mass even
though individual fission reactions are generally much more energetic
than individual fusion ones, which are themselves millions of times more
energetic than chemical reactions. Only Direct conversion of mass into
energy, such as that caused by the annihilatory collision of matter and
antimatter, is more energetic per unit of mass than nuclear fusion.
Esta tecnologia permitiria pasar a un modelo que ya no se necesitaria
carbon o petroleo, porque mediante sintesis quimica se podria producir
combustible mucho mas barato que el extraido. Se podria hacer una
transicion poco traumatica hacia otro modelos de transporte y produccion
que no necesitaran petroleo, gas natural, carbon, etc.
Ademas con energia muy barata se podria volver poco costoso
energeticamente el reciclaje de materias primas, residuos urbanos,
residuos industriales, etc. Con lo que se resolveria el problema del
cambio climatico, contaminacion, etc.
Tambien se podria dar un salto a una agricultura 100% artificial que no
dependiera del clima. Invernaderos gigantescos bajo tierra con luz
artificial y climatizados producirian cosechas durante todo el año en
cualquier parte del mundo.
Tambien se revolucionaria las infraestructuras. Obras que hoy parecen
inasumibles como presas, canales, tuneles, puertos, islas artificiales,
ganar terreno al mar, etc podrian hacer realidad gracias a la abundante e
inagotable energia que produciria la fusion. Podriamos transformar el
planeta tierra al gusto de nuestra especie. Tomad nota ecologistas.
3- VACTRAIN
Esta tecnologia dependeria de las otras dos. Son trenes de levitacion
magnetica que van en tuneles en vacio que podrian alcanzar velocidades
de 6000km/hora. Si se hace la aceleracion y desacelaracion suave podria
valer para pasajeros y ciertas mercancias. Su ejecucion y funcionamiento
necesitaria grandes cantidades de energia que provendrian de la fusion
nuclear. Para su funcionamiento y seguridad se necesitarian complejismos
sistemas informaticos que con la computacion cuantica se podrian
resolver.
Vactrain - Wikipedia, the free encyclopedia A
vactrain (or vacuum tube train) is a proposed, as-yet-unbuilt design
for future high-speed railroad transportation. It is a maglev line run
through evacuated (air-less) or partly evacuated tubes or tunnels. The
lack of air resistance could permit vactrains to use little power and to
move at extremely high speeds, up to 4000–5000 mph (6400–8000 km/h, 2
km/s), or 5–6 times the speed of sound (Mach 1) at standard
conditions.[1] Though the technology is currently being investigated for
development of regional networks, advocates have suggested establishing
vactrains for transcontinental routes to form a global network.
Esta tecnologia revolucionaria el transporte y la distribucion de mercancias a escala global.
Las Fuerzas Armadas tienen previsto 'fichar' bajo la fórmula de
reservistas voluntarios a civiles expertos que quieran colaborar con el
Mando Conjunto de Ciberdefensa, de modo que puedan aportar sus
conocimientos informáticos para hacer frente ante cualquier tipo de
ataques a las redes y sistemas de información españoles.
El jefe del Mando Conjunto, general de Brigada del Ejército del Aire
Carlos Gómez López de Medina, ha explicado en un encuentro con
periodistas que el personal con el que contará la recientemente creada
unidad de Ciberdefensa estará formado fundamentalmente por militares
expertos en la materia, aunque también se prevé la contratación de
civiles.
¿Cuáles son los 50 descubrimientos más importantes de la historia?
La publicación The Atlantic preguntó a una docena de científicos,
historiadores y miembros del sector de la tecnología, que clasificaran
las innovaciones más importantes de la historia desde la rueda. Aquí
están los resultados:
1. La imprenta, 1430
Fue mencionada por 10 de nuestros 12 expertos, cinco de los cuales la
clasificaron entre los tres inventos más importantes de la historia.
Dyson escribe su invención como el punto de inflexión en el que el
“conocimiento comenzó a replicarse libre y rápidamente, y asumió vida
propia.”
2. Electricidad, siglo XIX
Y se hizo la luz y la mayoría del resto de la vida moderna.
3. Penicilina, 1928
Se descubrió accidentalmente en 1928, aunque los antibióticos no fueron
distribuidos de forma masiva hasta después de la Segunda Guerra
Mundial, cuando se convirtieron en la bala de plata de un gran número de
enfermedades que antes eran mortales.
4. Electrónica de semiconductores, mediados del siglo XX
Es la base física del mundo virtual.
5. Lentes ópticas, siglo XIII
La refracción de la luz a través del vidrio es una de esas ideas
simples que tardó inexplicablemente mucho tiempo en hacerse popular. Los
romanos tenían una industria del vidrio. Incluso un pasaje de Séneca
habla sobre los efectos ópticos de un cuenco de cristal de agua. Pero
fue siglos después que la invención de las gafas elevó drásticamente el
índice de inteligencia humana colectiva, y finalmente condujo a la
creación del microscopio y el telescopio.
6. El papel, siglo II
Las imágenes estampadas antes eran habituales, pero hasta la invención del papel, eran económicamente inasequibles.
7. El motor de combustión interna, a finales del siglo 19
La mezcla de aire y combustible sustituiría en el futuro la máquina de vapor.
8. Vacunas
El médico británico Edward Jenner usó la vacuna del virus de la viruela
para proteger contra la propia enfermedad en 1796, pero no fue hasta
que Louis Pasteur desarrolló una vacuna contra la rabia en 1885 que la
medicina y los gobiernos no comenzaron a aceptar la idea de que hacer
que alguien enfermara podría prevenir la enfermedad.
9. Internet, 1960
La infraestructura de la era digital.
10 La máquina de vapor de 1712
Suministraron energía a las fábricas, los trenes y los barcos lo que originó la Revolución Industrial.
11. La fijación del nitrógeno, 1918
El químico alemán Fritz Haber ganó el premio nobel por su desarrollo
del proceso de la síntesis del amoníaco, lo que se utilizó para crear
una nueva clase de fertilizantes que propició la revolución verde.
12. Los sistemas de saneamiento, mediados del siglo XIX
Una de las principales razones por la que vivimos 40 años más de lo que lo hacíamos en 1880.
13. Refrigeración, 1850
Descubrir cómo hacer frío iba a cambiar la forma de comer y vivir de
una manera casi tan profunda como el descubrimiento de la forma de
cocinar.
14. La pólvora, siglo X
15. El avión, 1903
Transformó los viajes, la guerra y nuestra visión del mundo
16. El ordenador personal, 1970
Aumentó considerablemente las capacidades humanas.
17. La brújula, siglo XII
Nos orientó, incluso en el mar.
18. El automóvil, a finales del siglo XIX
Transformó la vida cotidiana, de nuestra cultura y nuestro paisaje.
19. La fabricación del acero industrial, 1850
El acero producido en masa se convirtió en la base de la industria moderna
20. La píldora, 1960
Lanzó una revolución social
21. La fisión nuclear, 1939
Dio a los humanos un nuevo poder para la destrucción y la creación
22. La revolución verde, mediados del siglo XX
La combinación de tecnologías como los fertilizantes sintéticos y el
fitomejoramiento científico, incrementó enormemente la producción de
alimentos en todo el mundo. Norman Borlang, el economista agrícola que
ideó este enfoque, ha evitado que más de 1.000 millones de personas
pasaran hambre en el mundo.
23. El Sextante, 1757
Dibujó camino en las estrellas.
24. El teléfono, 1876 25. Alfabetización, primer milenio aC
Hizo el conocimiento accesible. Contribuyó al aumento de las sociedades
que utilizaron las letras fonéticas sobre aquellas que utilizaron las
ideográficas.
26. El telégrafo, 1837
Como afirmó Joel Mokyr: "Antes de la invención del telégrafo, la
información no podía moverse más rápido que un hombre a caballo"
27. El reloj mecanizado, siglo 15 28. Radio, 1906 29. Fotografía, principios del siglo 19 30. El arado de vertedera, siglo 18
El primer arado que no sólo cavaba el suelo sino que le daba la vuelta,
lo que permitía el cultivo en terrenos más difíciles. Sin él, la
agricultura tal como la conocemos no existiría en el norte de Europa o
el Medio Oeste americano.
31. El tornillo de Arquímedes, en el tercer siglo aC 32. La desmotadora de algodón de 1793
Institucionalizado la industria del algodón y la esclavitud en el Sur de América
33. La pasteurización en 1863
Una de las primeras aplicaciones prácticas de la teoría de los gérmenes
de Louis Pasteur. Este método usa el calor para esterilizar el vino, la
cerveza y la leche, y es ampliamente considerado como una de las
intervenciones de salud pública más eficaces de la historia.
34. El calendario gregoriano, 1582
Depuró el calendario juliano, saltándose 10 días para sincronizar el mundo con las estaciones del año.
35. Refino de petróleo, mediados del siglo 19
Sin ella, la extracción de petróleo no tendría sentido.
36. La turbina de vapor de 1884
Las turbinas son la columna vertebral de la infraestructura energética
de hoy: generan el 80 por ciento de la electricidad del mundo.
37. Cemento, primer milenio aC
El fundamento de la civilización. Literalmente.
38. Fitomejoramiento, 1920
Los seres humanos han estado manipulando las especies de plantas
durante casi tanto tiempo como las hemos cultivado, pero no fue hasta
que los científicos de principios del siglo 20 descubrieron un documento
de 1866 olvidado del botánico austriaco Gregor Mendel, que no nos
dimos cuenta de cómo el fitomejoramiento y, más tarde, la genética
humana, funciona.
39. Perforación de petróleo de 1859
Impulsa la economía moderna, estableció su geopolítica, y cambió el clima.
40. El velero, cuarto milenio aC
Transformado los viajes, la guerra, y nuestra visión del mundo.
41. Cohetes de 1926
"La única manera de salir del planeta - hasta ahora." - George Dyson.
42. El papel moneda, siglo 11
La abstracción en el núcleo de la economía moderna.
43. El ábaco, el tercer milenio aC
Uno de los primeros dispositivos para aumentar la inteligencia humana.
44. Aire acondicionado, 1902 45. Televisión, principios del siglo 20 46. Anestesia, 1846
En respuesta a la primera demostración pública del éter, Oliver Wendell
Holmes escribió: "El feroz extremo del sufrimiento ha sido sumergido en
las aguas del olvido, y los surcos profundos en la frente por la agonía
se han suavizado para siempre."
47. El clavo, segundo milenio aC 48. La palanca, el tercer milenio aC
Los egipcios aún no habían descubierto la rueda cuando construyeron sus
pirámides, que se cree que dependieron en gran medida de las palancas.
49. La línea de montaje de 1913
Cambió una economía basada en la artesanía a un mercado masivo.
50. La cosechadora, 1930
Mecanizó la granja, liberando la gente hacia nuevos tipos de trabajo.
Un grupo de 276 científicos de 12 países que trabaja en IceCube ha
detectado por primera vez neutrinos -un tipo de partículas subatómicas
que pueden generarse en el Sol, en fenómenos astrofísicos como el Big
Bang, el CERN o en las centrales nucleares- de alta energía que proceden
de más allá de nuestra galaxia.
«Este es el primer indicio de neutrinos de muy alta energía de fuera del
Sistema Solar», explicaba ayer Francis Halzen, investigador principal
de IceCube, profesor distinguido de Física en la Universidad de
Wisconsin-Madison y verdadero padre intelectual del proyecto. «Es muy
gratificante ver finalmente lo que hemos estado buscando. Este es el
comienzo de una nueva era para la Astronomía», sentenció.
HMS Ocelot (S17): un submarino diesel-eléctrico retirado del servicio en
1991. En la actualidad se encuentra anclado en el puerto histórico de
Gillingham, en el suroeste de Inglaterra.
Se puede visitar el interior del submarino completo con Google Street View en este enlace:
Un tranquilo día de 1898 los vecinos de varios bloques de edificios de
Manhattan de los concurridos barrios Chino e Italiano empezaron a
experimentar un temblor que pronto comenzó a sacudir todos los edificios
y romper cristales, provocando que la gente saliera asustada a las
calles de Nueva York. La policía, tras comprobar que el temblor se
circunscribía solo a aquella pequeña parte de la ciudad y sospechando de
quién podía ser el causante, enviaron a dos de sus agentes al número 46
de la calle East Houston. Justo antes de entrar en el edificio notaron
que el temblor cesaba, y al traspasar la puerta de un laboratorio, los
recibió un hombre alto y delgado, con bigote, elegantemente vestido, y
armado con un martillo, diciéndoles “Caballeros, lo siento. Han llegado
tarde para contemplar mi experimento. He visto necesario detenerlo de
forma súbita y inesperada… ” y añadió mirando el martillo “ y de una
forma inusual”. Este hombre era Nikola Tesla, el genial inventor que nos
dio, entre otras cosas, la corriente eléctrica alterna gracias a la
cual estás leyendo esto.
El causante de aquel incidente había sido un pequeño oscilador
electromecánico con el que Tesla estaba experimentando aquel día para su
investigación en la resonancia mecánica. Tras colocarlo sobre un pilar
de su laboratorio, la vibración provocada comenzó a extenderse por los
subterráneos del edificio hacia los edificios colindantes creando el
caos entre sus vecinos. Tan absorto y fascinado estaba que hasta que no
notó que todo su laboratorio estaba temblando no decidió finalizar el
experimento de forma contundente dándole un martillazo al oscilador.
Otro de sus experimentos se lo relataría algunos años después a un
periodista. Esta vez Tesla decidió experimentar fuera de su laboratorio y
tras localizar un edificio en construcción en el barrio de Wall Street,
que aún era un esqueleto de metal, colocó el oscilador sobre una de las
vigas y lo activó. En pocos minutos toda la estructura dediez pisos del
edificio empezó a vibrar, asustando a los trabajadores y provocando de
nuevo que la policía hiciera acto de presencia. Antes de que nadie se
pudiera dar cuenta de lo que pasaba, Tesla desactivó el dispositivo, se
lo guardó en el bolsillo y continuó su camino. En la misma entrevista el
inventor aseguró que en menos de una hora podría derribar el puente de
Brooklyn, y llego a afirmar que con una máquina adecuada y dinamita,
sería capaz partir la Tierra en dos. Esta claro que Tesla siempre
pensaba a lo grande.
No se sabe a ciencia cierta si estos episodios ocurrieron tal cual o
estaban magnificados por Tesla, aficionado a hacer grandes aseveraciones
sobre sus investigaciones, pero así nos lo relata Margaret Cheney en
una de las mejores biografías hechas sobre el inventor, Tesla: The Man
Out of Time, que tiene edición en español (prologada por uno de los fans
letales de Tesla que es Nacho de Microsiervos). En un episodio del año
2006 del programa Cazadores de Mitos intentaron reproducir el
experimento de varias formas, pero con el experimento final sobre el
puente Carquinez solo consiguieron provocar una vibración que se podía
sentir a cierta distancia, pero nada parecido a un terremoto. Si llegó a
crear o diseñar realmente aparatos con esa potencia, probablemente
nunca lo sepamos y quede como uno de los tantos misterios que rodean a
este genio.
Para aquellos que quieran intentar emular a Tesla, existe un libro con
el rimbombante titulo de Nikola Tesla’s Earthquake Machine: With Tesla’s
Original Patents Plus New Blueprints to Build Your Own Working Model,
que parece dar las claves para construirlo, pero creo que, salvo que te
creas las peregrinas teorías conspirativas sobre los terremotos
ocurridos los últimos años que circulan por la red, por ahora nadie lo
ha conseguido.
The USS Zumwalt getting a coat of paint at
Bath Iron Works. The ship is exotic in many ways, but it runs on
off-the-shelf computing technology.
General Dynamics Bath Iron Works
When the USS Zumwalt (DDG 1000)
puts to sea later this year, it will be different from any other ship
in the Navy's fleet in many ways. The $3.5 billon ship is designed for
stealth, survivability, and firepower, and it's packed with advanced
technology. And at the heart of its operations is a virtual data center
powered by off-the-shelf server hardware, various flavors of Linux, and
over 6 million lines of software code.
On October 10, I flew up to Rhode Island to visit Raytheon's Seapower
Capability Center in Portsmouth, where engineers assembled and
pre-tested the systems at the heart of the Zumwalt and are preparing to
do the same for the next ship in line, the USS Michael Monsoor—already
well into construction. There, Raytheon's DDG-1000 team gave me a tour
of the centerpiece of the ship's systems—a mockup of the Zumwalt's
operations center, where the ship's commanding officer and crew will
control the ship's sensors, missile launchers, guns, and other systems.
Over 20 years ago, I learned how to be a ship watch stander a few
miles from the Raytheon facility at the Navy's Surface Warfare Officer
School. But the operations center of the Zumwalt will have more in
common with the fictional starship USS Enterprise's bridge than it does
with the combat information centers of the ships I went to sea on. Every
console on the Zumwalt will be equipped with touch screens and software
capable of taking on the needs of any operator on duty, and big screens
on the forward bulkhead will display tactical plots of sea, air, and
land.
Perhaps it's appropriate that the first commanding officer of the
Zumwalt will be Captain James Kirk (yes, that's actually his name). But
considering how heavily the ship leans on its computer networks, maybe
they should look for a chief engineer named Vint Cerf.
Off the shelf and on the ship
Enlarge/ Data center in a box: Electronic Modular Enclosures being configured at Raytheon's Portsmouth, Rhode Island, facility.
In the past, you couldn't just put off-the-shelf computer systems
aboard a ship for mission critical tasks—when I was aboard the USS Iowa,
we had to shut down non-tactical systems before the guns were fired
because the shock and vibration would crash systems hard. So typically,
individual computer systems are ruggedized. But that adds heavily to the
cost of the systems and makes it more difficult to maintain them.
The design of the Zumwalt solves that problem by using off-the-shelf
hardware—mostly IBM blade servers running Red Hat Linux—and putting it
in a ruggedized server room. Those ruggedized server rooms are called
Electronic Modular Enclosures (EMEs), sixteen self-contained, mini data
centers built by Raytheon.
Measuring 35 feet long, 8 feet high, and 12 feet wide, the 16 EMEs
have more than 235 equipment cabinets (racks) in total. The EMEs were
all configured and pre-tested before being shipped to Bath, Maine, to be
installed aboard the Zumwalt. The EME approach lowered overall cost of
the hardware itself, and allows Raytheon to pre-integrate systems before
they're installed. "It costs a lot to do the work in the shipyard,"
said Raytheon's DDG-1000 deputy program manager Tom Moore, "and we get
limited time of access."
Each EME has its own shock and vibration damping, power protection,
water cooling systems, and electromagnetic shielding to prevent
interference from the ship's radar and other big radio frequency
emitters.
The EMEs tap into the Total Ship Computing Environment, the Zumwalt's
shipboard Internet. Running multiple partitioned networks over a mix of
fiber and copper, TSCE's redundantly switched network system connects
all of the ship's systems—internal and external communications, weapons,
engineering, sensors, etc.—over Internet protocols, including TCP and
UDP. Almost all of the ship's internal communications are based on Voice
Over IP (with the exception of a few old-school, sound-powered phones
for emergency use).
Enlarge/ A diagram of the Zumwalt's control systems and their connections to the Total Ship Computing Environment.
There's also some wireless networking capability aboard the Zumwalt,
but Raytheon officials giving me the tour were not at liberty to discuss
just what sort of wireless this is. Still, that capability is supposed
to allow for roving crew members to connect to data from the network
while performing maintenance and other tasks.
Systems that weren't built to be wired into an IP network—other
"programs of record" within the ship, which are installed across
multiple classes of Navy ships—are wired in using adaptors based on
single-board computers and the Lynx OS real-time Linux operating system.
Called Distributed Adaptation Processors, or DAPs, these systems
connect things like the ship's engineering systems, fire suppression
systems, missile launchers, and radio and satellite communications gear
into the network so they can be controlled by networked clients.
It looks like you want to launch a missile
Enlarge/
The mock-up of the Zumwalt's operations center at Raytheon's Portsmouth
facility, complete with haze-gray paint, has the exact dimensions of
the space on the ship itself. The Zumwalt will include a second level to
host the operations of units deployed with the ship.
Some of those networked clients were what I was looking at in the
mocked-up Zumwalt operations center. The operations center isn't just
where screens are watched and commands are shouted—the whole ship can be
practically run from the space, from guns and missiles to engines.
There's no "radio room" on the Zumwalt; all the communications are
managed from the operations center. The ship's guns are fully automated
and operated by an operations center watch stander instead of a gunner's
mate in the mount. Theoretically, the ship could even be steered from
the ops center—the ship is piloted by computer, not a helmsman. And all
of these tasks are performed from the same type of console.
Enlarge/
The Mark 57 vertical launch system, developed by Raytheon, can carry a
mix of anti-ship, anti-aircraft, and land attack cruise missiles. It
communicates with the operations center over the ship's network.
Called
the Common Display System, or CDS (pronounced as "keds" by those who
work with it), the three-screen workstations in the operations center
are powered by a collection of quad-processor Intel motherboards in an
armored case, which gives new meaning to the nautical phrase "toe
buster." Even the commanding officer's and executive officer's chairs on
the bridge have CDS workstations built-in.
Each CDS system can run multiple Linux virtual machines atop
LynuxWorx's LynxSecure, a separation kernel tthat has been implemented
in CDS as a hypervisor. This allows the workstation to connect
to various networks partitioned by security level and purpose. "Every
watch stander station runs out of the same box," Raytheon's DDG-1000
developer lead Robert Froncillo told me. "So they can sit at any CDS and
bring up their station."
This may not seem like a big deal to most people. But on past ships,
workstations tended to be purpose-built for a specific weapons system or
sensor. That meant every system had a different configuration and
interface, and you couldn't have a watch stander handle multiple tasks
without having to switch seats. The CDS workstation uses common USB
interfaces for its peripheral devices (such as trackballs and
specialized button panels) and is equipped with touchscreens, as well,
so that watch standers have a choice between "classic" and touch
interfaces.
That doesn't mean there's necessarily a "Clippy" to help new
operators master their systems. The Raytheon team has had sailors in to
perform usability assessments from before code was even written, showing
them screen shots of interfaces to get feedback from users. "We had a
chief that said, 'We don't want any 'wizards,'" said Froncillo.
A
digital illustration of how the Zumwalt's operations center will look,
complete with its second-level suite for hosting operations for air
detachments and other units deployed aboard.
Raytheon
Putting all of the pieces together is a collection of middleware
running on those IBM blade servers. Many of the shipboard systems use a
commercial publish/subscribe middleware platform to send updates to
operator consoles. But for other systems that need to be more tightly
coupled (like, for example, missile launch commands), the Navy has
specified the use of the Common Object Request Broker Architecture
(CORBA)—the military's favorite mission-critical middleware model. (The
software for the Joint Tactical Radio System's software-defined radios
was also developed using CORBA.)
The next release
Enlarge/ The Zumwalt bow-on at Bath Iron Works. DDG-1001, the USS Michael Monsoor, sits behind her, more than 60 percent complete.
The Zumwalt may not have sailed yet, but its software has already
shipped six times. When Release 5 was completed, Raytheon brought in
more sailors to test the system, tethering it to the company's Total
Ship System Simulator to run through a number of combat scenarios. "We
did antisubmarine warfare, air, and land attack missions," Froncillo
said. The lessons learned were incorporated into release 6, and 7 will
be installed on the ship before the ship's "shakedown" cruise. Another
upgrade will be installed post-delivery, and continual improvements will
be made as the software is deployed to the other two ships in the
class.
But the life of the technology being deployed on the Zumwalt won't
end there. CDS will be used as part of the Navy's Aegis Modernization
Program to upgrade the systems of the fleet's guided missile cruisers
and destroyers. "And there are a lot of things we're developing that
will be reused," Moore said.
Considering how much has been spent over the past decade trying to
get the Zumwalt built, and the other technologies that were developed in
the process, one can hope that more than just the software gets some
reuse.
Aunque las primeras bases teóricas de la electricidad inalámbrica proceden de principios del siglo XIX, con la demostración de los campos magnéticos generados a partir de la corriente o la formulación de la ley de inducción, fue Nikola Tesla el primero en aplicar estos conocimientos, dando vida a experimentos donde la energía se transportaba sin cables.
Se bautizó a esta tecnología, que ha sobrevivido al paso del tiempo, en parte, como un mito, como el efecto Tesla, cuya manifestación más utópica en el pensamiento del inventor de origen serbio planteaba la posibilidad de surtir de energía a todo el planeta como si se tratase de una red wifi universal. La falta de financiación lastró aquel colosal proyecto, pero el sueño de Tesla se ha mantenido vivo desde entonces, generando a lo largo del siglo XX una bibliografía científica inabarcable que en los últimos años ha comenzado a cristalizar en aplicaciones reales.
La falta de financiación lastró el proyecto, pero el sueño de Tesla se ha mantenido vivo, generando a lo largo del siglo XX una amplia bibliografía científica que en los últimos años ha comenzado a cristalizar en aplicaciones realesQuizás la innovación más popular es el denominado estándar Qi, una tecnología auspiciada por Wireless Power Consortium, y que ha dado lugar a una generación de cargadores de inducción que, aunque de momento cuentan con una potencia limitada (5W) que impide la carga de dispositivos con altas necesidades energéticas, funciona con éxito.
No obstante, la aplicación de Qi hace necesario el contacto entre el dispositivo y una base de carga, igual que ocurre con el estándar A4WP, desarrollado por el consorcio Alliance for Wireless Power, del que forman parte -entre otros muchos- Samsung, Broadcom o Qualcomm; y que en su caso aplica la tecnología de resonancia magnética de campo cercano.
El sistema Cota
Precisamente, una de las ventajas principales de las tecnologías anteriores es la gran cantidad de empresas que forman parte del movimiento, permitiendo una carrera constante de innovación que fructifica en una normalización de la que, finalmente, se benefician los usuarios.
Algo que todavía no ocurre con el sistema Cota, lanzado este mismo año por la startup norteamericana Ossia. Se trata de una tecnología revolucionaria que consiste -con elementos similares a las conexiones wifi- en la integración de un cargador y un receptor para conectar el flujo de electricidad a cualquier dispositivo de forma inalámbrica.
La compañía comenzó a desarrollar la tecnología, prácticamente en secreto, en 2006, y a día de hoy su camino parece imparable, después de haber recibido una inyección de 3,2 millones de euros en una ronda de financiación. Apostamos a que no será la única. En el caso de Cota no es necesario el contacto con ninguna base de carga: su alcance es superior a los diez metros y puede alimentar hasta 30 dispositivos al mismo tiempo. A priori, parece el sistema idóneo para llevar la electricidad inalámbrica al hogar a corto plazo.
Autopistas con electricidad
No es casualidad que una de las startups llamadas a marcar el paso del futuro lleve el nombre del inventor. Si Tesla Motors se encuenta hoy por hoy en la vanguardia tecnológica de los vehículos eléctricos, la firma Qualcomm, por su parte, lidera la carrera de innovación en el ámbito del suministro energético de este tipo de vehículos. Recordemos, además, que el almcaneamiento de energía está llamada a ser una de las tecnologías que generen mayor volumen de negocio en 2025.
En la actualidad, existen sistemas que permiten recargar un coche eléctrico de forma inalámbrica colocándolo sobre una plataforma, de un modo similar al sistema para cargar los móviles y tablets a través de Qi o A4WP.
Más allá de esto, Qualcomm ha desarrollado un revolucionario sistema capaz de cargar un coche en movimiento, sentando las bases de lo que pueden ser las autopistas del futuro, donde el pavimento estaría dotado de un sistema capaz de alimentar los vehículos en ruta. Combinando este tipo de tecnología con la del pavimento inteligente, cuyo objetivo último es absober la energía del propio tráfico, podemos imaginar el sistema más eficiente y ecológico del mundo.
De momento, la tecnología Qualcomm Halo se probará a lo grande en 2014 en una competición automovilística, también organizada por la FIA, que llevará el nombre de Fórmula E, un campeonato que recorrerá diez ciudades del mundo y en el que participarán exclusivamente coches eléctricos, que en su caso pueden alcanzar velocidades superiores a los 220 kilómetros por hora.
Una tecnología emergente
El hecho de que el estudio considerado como el definitivo, hasta el momento, en el ámbito de la electricidad inalámbrica, proceda del reciente 2007, ejemplifica que se trata de una tecnología todavía en ciernes. Hablamos del trabajo de varios investigadores del Massachusetts Institute of Technology (MIT) difundido por la revista Science.
El hecho de que el estudio considerado como el definitivo, hasta el momento, en el ámbito de la electricidad inalámbrica, proceda del reciente 2007, ejemplifica que se trata de una tecnología todavía en ciernesEn este artículo se acuñó el término witricity (witricidad), hoy una marca registrada de la empresa WiTricity, de Eric Giler, quien se ha convertido, a su manera, en una especie de Nikola Tesla moderno, siendo habituales sus demostraciones públicas, igual que el inventor serbio, sobre el funcionamiento de la electricidad sin cables. Una de sus exhibiciones más famosas ocurrió en 2009, en Oxford, donde usó su tecnología para encender un televisor y tres teléfonos móviles.
Contra todo lo anterior, la base filosófica de Nikola Tesla consistía en crear un sistema global de energía eléctrica gratuita que abarcase todo el proceso, desde la generación de la energía a su distribución, pero según los sistemas actuales parece improbable que esta tecnología pueda saltar por encima de los proveedores habituales y su sistema de tarificación del consumo.
Hoy, Marte es un mundo desierto, frío y estéril, sin
ningún signo de vida, al menos en la superficie. Sin embargo, miles de
millones de años atrás, cuando el planeta rojo era joven, podría haber
tenido una atmósfera densa lo suficientemente caliente para albergar
océanos de agua líquida -un ingrediente esencial para la vida-.
El agua líquida no puede existir en la superficie de Marte en la
actualidad debido a la baja presión atmosférica y a la temperatura de la
superficie, aunque hay evidencia de regueros de flujo líquido que
podrían responder a una solución salada ligeramente congelada, según
relata Joseph Grebowsky, del Centro Goddard de Vuelos Espaciales de la
NASA. El agua en las actuales condiciones atmosféricas de Marte puede
ser hielo o estar sublimada directamente en vapor, sin estar en una fase
líquida.
El vídeo muestra cómo podría haber sido la superficie de Marte durante
este período antiguo, clemente atmosféricamente, mostrando, en el inicio
del mismo, lo que pudo haber sido un lago marciano.
El concepto del autor de la recreación visual se basa en la evidencia de
que Marte una vez fue muy diferente. Las características superficiales y
composiciones minerales sugieren que el antiguo Marte tenía una
atmósfera más densa y agua líquida en su superficie, según Grebowsky.
"Hay característicos canales dendríticos estructurados que, al igual que
en la Tierra, cuadran con la erosión de la superficie que provocan las
corrientes de agua. Los interiores de algunos cráteres de impacto tienen
cuencas que sugieren lagos de cráter, con muchos canales de conexión
que albergaban flujos de agua dentro y fuera del cráter. Pequeños
cráteres de impacto se han eliminado con el tiempo y cráteres más
grandes muestran signos de la erosión por el agua de hace 3.700 millones
años. Y la estratificación sedimentaria se puede ver en las paredes del
valle. Los minerales que están presentes en la superficie, hematita y
arcillas, solo se pueden producir gracias a la presencia de agua
líquida", explica Grebowsky.
Un equipo de científicos del Hospital de Niños de Boston han inventado
lo que se considera uno de los grandes avances médicos en los últimos
años. Ellos han diseñado una micropartícula que se puede inyectar en la
corriente sanguínea de una persona que rápidamente puede oxigenar la
sangre.
Esto es muy útil si la capacidad de respirar se ha limitado, o incluso se corta por completo.
Este descubrimiento tiene el potencial de salvar millones de vidas cada
año. Las micropartículas pueden mantener vivo una persona en un máximo
de 30 minutos después de la insuficiencia respiratoria. Se logra a
través de una inyección en las venas de los pacientes. Una vez
inyectado, las micropartículas pueden oxigenar la sangre a niveles casi
normales.
Tiene innumerables usos potenciales, ya que permite que la vida continúe
cuando se necesita oxígeno, pero no está disponible. Para el personal
médico, se trata del tiempo suficiente para evitar el riesgo de un
ataque cardíaco o una lesión cerebral permanente cuando el oxígeno se
limita o se corta a los pacientes.
El Dr. John Kheir, que comenzó el estudio, trabaja en el departamento de
pediatría del Hospital de Boston en Cardiología. Encontró la
inspiración para la droga en 2006, cuando él estaba tratando a una chica
en la UCI, que tenía un caso de neumonía severa. En ese momento, la
chica no tenía un tubo de respiración, cuando en el momento en que ella
sufría de una hemorragia pulmonar. Esto significa que sus pulmones
habían comienzan a llenarse de sangre, y finalmente sufrió un paro
cardíaco. Tomó médicos unos 25 minutos para eliminar suficiente sangre
de los pulmones para que le permita respirar. Sin embargo, el cerebro de
la niña fue gravemente herido debido a la privación de oxígeno durante
tanto tiempo y que finalmente murió.
Científicos
mexicanos desarrollaron un prototipo de refrigerador revolucionario
donde aplicaron un concepto de la física originado hace 300 años. A lo
largo de casi cinco años, investigadores del Centro de Investigación en
Materiales Avanzados (Cimav) han trabajado en este sistema que no emplea
compresores ni gases refrigerantes, principio utilizado desde mediados
del siglo XIX, sino del efecto magnetocalórico, que es la variación de
la temperatura de un material magnético cuando se aplica o retira un
campo magnético.
La clave del proyecto está en las propiedades de ese material, “puesto
que hasta ahora no se habían podido desarrollar aquellos con capacidad
de disminuir la temperatura en unos 35 grados Celsius”, señala Jesús
González Hernández, director del Cimav.
Pero los investigadores de la institución, centro Conacyt con sede en
Chihuahua, trabajaron en una mezcla de materiales capaz de llegar por
debajo de los cero grados desde una temperatura ambiente. “Son una
mezcla de 7 materiales, entre ellos manganeso, estroncio y oxígeno, con
partículas nanométricas que potencian la propiedad magetocalórica”,
añade el doctor en física.
Un refrigerador común tiene un compresor con un gas refrigerante que
bombea a áreas que se busca enfriar. Estos gases pueden ser nocivos
cuando se liberan al medio ambiente y todo el sistema puede consumir, en
promedio, 200 watts de energía. El refrigerador magnético sólo
emplearía 8 watts, carecería de gases, compactaría el espacio diseñado
para compresor y además no emite ruido alguno.
MERCADO. El proyecto surgió debido a un intercambio académico con
científicos de Irlanda, donde se han hecho avances importantes en el
área. El proyecto en el Cimav ha sido coordinado por el investigador
José Matutes.
El prototipo fue obtenido en conjunto con una empresa del estado y ahora
el centro está en pláticas con Mabe y General Electric, quienes están
interesadas en desarrollar la tecnología, refiere González Hernández.
“Ahora trabajamos en el diseño final, que no sería más que el de una
caja común de refrigerador; el asunto es que sea competitivo y el precio
de producción tenga ventajas. Esperaríamos que este tipo de tecnología
esté disponible en el mercado en, aproximadamente, cinco años”.
Ahora mismo, añade, podrían hacer uno de tipo comercial, pero los
científicos buscan optimizar su “licuado” de materiales y procesos, para
desarrollar un producto que no pueda ser superado en los próximos años.
“Tenemos que optimizar los materiales porque otros grupos pueden intuir
el concepto, por lo que debemos llevarlo a un nivel más de maduración”.