una lista de las tecnologías que revolucionarán el mundo si antes no colapsa todo:
1- COMPUTACION CUANTICA
Computación cuántica - Wikipedia, la enciclopedia libre
Large-scale
quantum computers will be able to solve certain problems much more
quickly than any classical computer using the best currently known
algorithms, like integer factorization using Shor's algorithm or the
simulation of quantum many-body systems. There exist quantum algorithms,
such as Simon's algorithm, which run faster than any possible
probabilistic classical algorithm.
La computacion cuantica hace lo mismo que la computacion clasica pero
muchisimo mas rapido. Problemas que un ordenador clasico los resolveria
en tiempo larguisimo, varias veces la vida de un ser humano, un
computador cuantico los podria resolver inmediatamente.
Si la computacion clasica en la actualidad parece que hace magia, en un
futuro nos podriamos encontrar un mundo que solo hemos visto en las
peliculas de ciencia ficcion. Se podrian hacer androides con un
comportamiento y capacidades a la altura de cualquier ser humano,
haciendo a la mayoria de la poblacion totalmente prescindible del
sistema productivo.
2- FUSION NUCLEAR
Nuclear fusion - Wikipedia, the free encyclopedia
Fusion
reactions have an energy density many times greater than nuclear
fission; the reactions produce far greater energy per unit of mass even
though individual fission reactions are generally much more energetic
than individual fusion ones, which are themselves millions of times more
energetic than chemical reactions. Only Direct conversion of mass into
energy, such as that caused by the annihilatory collision of matter and
antimatter, is more energetic per unit of mass than nuclear fusion.
Esta tecnologia permitiria pasar a un modelo que ya no se necesitaria
carbon o petroleo, porque mediante sintesis quimica se podria producir
combustible mucho mas barato que el extraido. Se podria hacer una
transicion poco traumatica hacia otro modelos de transporte y produccion
que no necesitaran petroleo, gas natural, carbon, etc.
Ademas con energia muy barata se podria volver poco costoso
energeticamente el reciclaje de materias primas, residuos urbanos,
residuos industriales, etc. Con lo que se resolveria el problema del
cambio climatico, contaminacion, etc.
Tambien se podria dar un salto a una agricultura 100% artificial que no
dependiera del clima. Invernaderos gigantescos bajo tierra con luz
artificial y climatizados producirian cosechas durante todo el año en
cualquier parte del mundo.
Tambien se revolucionaria las infraestructuras. Obras que hoy parecen
inasumibles como presas, canales, tuneles, puertos, islas artificiales,
ganar terreno al mar, etc podrian hacer realidad gracias a la abundante e
inagotable energia que produciria la fusion. Podriamos transformar el
planeta tierra al gusto de nuestra especie. Tomad nota ecologistas.
3- VACTRAIN
Esta tecnologia dependeria de las otras dos. Son trenes de levitacion
magnetica que van en tuneles en vacio que podrian alcanzar velocidades
de 6000km/hora. Si se hace la aceleracion y desacelaracion suave podria
valer para pasajeros y ciertas mercancias. Su ejecucion y funcionamiento
necesitaria grandes cantidades de energia que provendrian de la fusion
nuclear. Para su funcionamiento y seguridad se necesitarian complejismos
sistemas informaticos que con la computacion cuantica se podrian
resolver.
Vactrain - Wikipedia, the free encyclopedia
A
vactrain (or vacuum tube train) is a proposed, as-yet-unbuilt design
for future high-speed railroad transportation. It is a maglev line run
through evacuated (air-less) or partly evacuated tubes or tunnels. The
lack of air resistance could permit vactrains to use little power and to
move at extremely high speeds, up to 4000–5000 mph (6400–8000 km/h, 2
km/s), or 5–6 times the speed of sound (Mach 1) at standard
conditions.[1] Though the technology is currently being investigated for
development of regional networks, advocates have suggested establishing
vactrains for transcontinental routes to form a global network.
Esta tecnologia revolucionaria el transporte y la distribucion de mercancias a escala global.
20131130
20131128
20131126
20131125
20131124
Las Fuerzas Armadas 'ficharán' a civiles para luchar contra los ciberataques en la red
o eso, o los utilizarán como "opinadores desinteresados" porque hispanistán ya está "en la senda de la recuperación"..
Las Fuerzas Armadas 'ficharán' a civiles para luchar contra los ciberataques en la red
Las Fuerzas Armadas tienen previsto 'fichar' bajo la fórmula de reservistas voluntarios a civiles expertos que quieran colaborar con el Mando Conjunto de Ciberdefensa, de modo que puedan aportar sus conocimientos informáticos para hacer frente ante cualquier tipo de ataques a las redes y sistemas de información españoles.
El jefe del Mando Conjunto, general de Brigada del Ejército del Aire Carlos Gómez López de Medina, ha explicado en un encuentro con periodistas que el personal con el que contará la recientemente creada unidad de Ciberdefensa estará formado fundamentalmente por militares expertos en la materia, aunque también se prevé la contratación de civiles.
20131123
Los 50 inventos más importantes de la historia
Los 50 inventos más importantes de la historia
¿Cuáles son los 50 descubrimientos más importantes de la historia?
La publicación The Atlantic preguntó a una docena de científicos, historiadores y miembros del sector de la tecnología, que clasificaran las innovaciones más importantes de la historia desde la rueda. Aquí están los resultados:
1. La imprenta, 1430
Fue mencionada por 10 de nuestros 12 expertos, cinco de los cuales la clasificaron entre los tres inventos más importantes de la historia. Dyson escribe su invención como el punto de inflexión en el que el “conocimiento comenzó a replicarse libre y rápidamente, y asumió vida propia.”
2. Electricidad, siglo XIX
Y se hizo la luz y la mayoría del resto de la vida moderna.
3. Penicilina, 1928
Se descubrió accidentalmente en 1928, aunque los antibióticos no fueron distribuidos de forma masiva hasta después de la Segunda Guerra Mundial, cuando se convirtieron en la bala de plata de un gran número de enfermedades que antes eran mortales.
4. Electrónica de semiconductores, mediados del siglo XX
Es la base física del mundo virtual.
5. Lentes ópticas, siglo XIII
La refracción de la luz a través del vidrio es una de esas ideas simples que tardó inexplicablemente mucho tiempo en hacerse popular. Los romanos tenían una industria del vidrio. Incluso un pasaje de Séneca habla sobre los efectos ópticos de un cuenco de cristal de agua. Pero fue siglos después que la invención de las gafas elevó drásticamente el índice de inteligencia humana colectiva, y finalmente condujo a la creación del microscopio y el telescopio.
6. El papel, siglo II
Las imágenes estampadas antes eran habituales, pero hasta la invención del papel, eran económicamente inasequibles.
7. El motor de combustión interna, a finales del siglo 19
La mezcla de aire y combustible sustituiría en el futuro la máquina de vapor.
8. Vacunas
El médico británico Edward Jenner usó la vacuna del virus de la viruela para proteger contra la propia enfermedad en 1796, pero no fue hasta que Louis Pasteur desarrolló una vacuna contra la rabia en 1885 que la medicina y los gobiernos no comenzaron a aceptar la idea de que hacer que alguien enfermara podría prevenir la enfermedad.
9. Internet, 1960
La infraestructura de la era digital.
10 La máquina de vapor de 1712
Suministraron energía a las fábricas, los trenes y los barcos lo que originó la Revolución Industrial.
11. La fijación del nitrógeno, 1918
El químico alemán Fritz Haber ganó el premio nobel por su desarrollo del proceso de la síntesis del amoníaco, lo que se utilizó para crear una nueva clase de fertilizantes que propició la revolución verde.
12. Los sistemas de saneamiento, mediados del siglo XIX
Una de las principales razones por la que vivimos 40 años más de lo que lo hacíamos en 1880.
13. Refrigeración, 1850
Descubrir cómo hacer frío iba a cambiar la forma de comer y vivir de una manera casi tan profunda como el descubrimiento de la forma de cocinar.
14. La pólvora, siglo X
15. El avión, 1903
Transformó los viajes, la guerra y nuestra visión del mundo
16. El ordenador personal, 1970
Aumentó considerablemente las capacidades humanas.
17. La brújula, siglo XII
Nos orientó, incluso en el mar.
18. El automóvil, a finales del siglo XIX
Transformó la vida cotidiana, de nuestra cultura y nuestro paisaje.
19. La fabricación del acero industrial, 1850
El acero producido en masa se convirtió en la base de la industria moderna
20. La píldora, 1960
Lanzó una revolución social
21. La fisión nuclear, 1939
Dio a los humanos un nuevo poder para la destrucción y la creación
22. La revolución verde, mediados del siglo XX
La combinación de tecnologías como los fertilizantes sintéticos y el fitomejoramiento científico, incrementó enormemente la producción de alimentos en todo el mundo. Norman Borlang, el economista agrícola que ideó este enfoque, ha evitado que más de 1.000 millones de personas pasaran hambre en el mundo.
23. El Sextante, 1757
Dibujó camino en las estrellas.
24. El teléfono, 1876
25. Alfabetización, primer milenio aC
Hizo el conocimiento accesible. Contribuyó al aumento de las sociedades que utilizaron las letras fonéticas sobre aquellas que utilizaron las ideográficas.
26. El telégrafo, 1837
Como afirmó Joel Mokyr: "Antes de la invención del telégrafo, la información no podía moverse más rápido que un hombre a caballo"
27. El reloj mecanizado, siglo 15
28. Radio, 1906
29. Fotografía, principios del siglo 19
30. El arado de vertedera, siglo 18
El primer arado que no sólo cavaba el suelo sino que le daba la vuelta, lo que permitía el cultivo en terrenos más difíciles. Sin él, la agricultura tal como la conocemos no existiría en el norte de Europa o el Medio Oeste americano.
31. El tornillo de Arquímedes, en el tercer siglo aC
32. La desmotadora de algodón de 1793
Institucionalizado la industria del algodón y la esclavitud en el Sur de América
33. La pasteurización en 1863
Una de las primeras aplicaciones prácticas de la teoría de los gérmenes de Louis Pasteur. Este método usa el calor para esterilizar el vino, la cerveza y la leche, y es ampliamente considerado como una de las intervenciones de salud pública más eficaces de la historia.
34. El calendario gregoriano, 1582
Depuró el calendario juliano, saltándose 10 días para sincronizar el mundo con las estaciones del año.
35. Refino de petróleo, mediados del siglo 19
Sin ella, la extracción de petróleo no tendría sentido.
36. La turbina de vapor de 1884
Las turbinas son la columna vertebral de la infraestructura energética de hoy: generan el 80 por ciento de la electricidad del mundo.
37. Cemento, primer milenio aC
El fundamento de la civilización. Literalmente.
38. Fitomejoramiento, 1920
Los seres humanos han estado manipulando las especies de plantas durante casi tanto tiempo como las hemos cultivado, pero no fue hasta que los científicos de principios del siglo 20 descubrieron un documento de 1866 olvidado del botánico austriaco Gregor Mendel, que no nos dimos cuenta de cómo el fitomejoramiento y, más tarde, la genética humana, funciona.
39. Perforación de petróleo de 1859
Impulsa la economía moderna, estableció su geopolítica, y cambió el clima.
40. El velero, cuarto milenio aC
Transformado los viajes, la guerra, y nuestra visión del mundo.
41. Cohetes de 1926
"La única manera de salir del planeta - hasta ahora." - George Dyson.
42. El papel moneda, siglo 11
La abstracción en el núcleo de la economía moderna.
43. El ábaco, el tercer milenio aC
Uno de los primeros dispositivos para aumentar la inteligencia humana.
44. Aire acondicionado, 1902
45. Televisión, principios del siglo 20
46. Anestesia, 1846
En respuesta a la primera demostración pública del éter, Oliver Wendell Holmes escribió: "El feroz extremo del sufrimiento ha sido sumergido en las aguas del olvido, y los surcos profundos en la frente por la agonía se han suavizado para siempre."
47. El clavo, segundo milenio aC
48. La palanca, el tercer milenio aC
Los egipcios aún no habían descubierto la rueda cuando construyeron sus pirámides, que se cree que dependieron en gran medida de las palancas.
49. La línea de montaje de 1913
Cambió una economía basada en la artesanía a un mercado masivo.
50. La cosechadora, 1930
Mecanizó la granja, liberando la gente hacia nuevos tipos de trabajo.
¿Cuáles son los 50 descubrimientos más importantes de la historia?
La publicación The Atlantic preguntó a una docena de científicos, historiadores y miembros del sector de la tecnología, que clasificaran las innovaciones más importantes de la historia desde la rueda. Aquí están los resultados:
1. La imprenta, 1430
Fue mencionada por 10 de nuestros 12 expertos, cinco de los cuales la clasificaron entre los tres inventos más importantes de la historia. Dyson escribe su invención como el punto de inflexión en el que el “conocimiento comenzó a replicarse libre y rápidamente, y asumió vida propia.”
2. Electricidad, siglo XIX
Y se hizo la luz y la mayoría del resto de la vida moderna.
3. Penicilina, 1928
Se descubrió accidentalmente en 1928, aunque los antibióticos no fueron distribuidos de forma masiva hasta después de la Segunda Guerra Mundial, cuando se convirtieron en la bala de plata de un gran número de enfermedades que antes eran mortales.
4. Electrónica de semiconductores, mediados del siglo XX
Es la base física del mundo virtual.
5. Lentes ópticas, siglo XIII
La refracción de la luz a través del vidrio es una de esas ideas simples que tardó inexplicablemente mucho tiempo en hacerse popular. Los romanos tenían una industria del vidrio. Incluso un pasaje de Séneca habla sobre los efectos ópticos de un cuenco de cristal de agua. Pero fue siglos después que la invención de las gafas elevó drásticamente el índice de inteligencia humana colectiva, y finalmente condujo a la creación del microscopio y el telescopio.
6. El papel, siglo II
Las imágenes estampadas antes eran habituales, pero hasta la invención del papel, eran económicamente inasequibles.
7. El motor de combustión interna, a finales del siglo 19
La mezcla de aire y combustible sustituiría en el futuro la máquina de vapor.
8. Vacunas
El médico británico Edward Jenner usó la vacuna del virus de la viruela para proteger contra la propia enfermedad en 1796, pero no fue hasta que Louis Pasteur desarrolló una vacuna contra la rabia en 1885 que la medicina y los gobiernos no comenzaron a aceptar la idea de que hacer que alguien enfermara podría prevenir la enfermedad.
9. Internet, 1960
La infraestructura de la era digital.
10 La máquina de vapor de 1712
Suministraron energía a las fábricas, los trenes y los barcos lo que originó la Revolución Industrial.
11. La fijación del nitrógeno, 1918
El químico alemán Fritz Haber ganó el premio nobel por su desarrollo del proceso de la síntesis del amoníaco, lo que se utilizó para crear una nueva clase de fertilizantes que propició la revolución verde.
12. Los sistemas de saneamiento, mediados del siglo XIX
Una de las principales razones por la que vivimos 40 años más de lo que lo hacíamos en 1880.
13. Refrigeración, 1850
Descubrir cómo hacer frío iba a cambiar la forma de comer y vivir de una manera casi tan profunda como el descubrimiento de la forma de cocinar.
14. La pólvora, siglo X
15. El avión, 1903
Transformó los viajes, la guerra y nuestra visión del mundo
16. El ordenador personal, 1970
Aumentó considerablemente las capacidades humanas.
17. La brújula, siglo XII
Nos orientó, incluso en el mar.
18. El automóvil, a finales del siglo XIX
Transformó la vida cotidiana, de nuestra cultura y nuestro paisaje.
19. La fabricación del acero industrial, 1850
El acero producido en masa se convirtió en la base de la industria moderna
20. La píldora, 1960
Lanzó una revolución social
21. La fisión nuclear, 1939
Dio a los humanos un nuevo poder para la destrucción y la creación
22. La revolución verde, mediados del siglo XX
La combinación de tecnologías como los fertilizantes sintéticos y el fitomejoramiento científico, incrementó enormemente la producción de alimentos en todo el mundo. Norman Borlang, el economista agrícola que ideó este enfoque, ha evitado que más de 1.000 millones de personas pasaran hambre en el mundo.
23. El Sextante, 1757
Dibujó camino en las estrellas.
24. El teléfono, 1876
25. Alfabetización, primer milenio aC
Hizo el conocimiento accesible. Contribuyó al aumento de las sociedades que utilizaron las letras fonéticas sobre aquellas que utilizaron las ideográficas.
26. El telégrafo, 1837
Como afirmó Joel Mokyr: "Antes de la invención del telégrafo, la información no podía moverse más rápido que un hombre a caballo"
27. El reloj mecanizado, siglo 15
28. Radio, 1906
29. Fotografía, principios del siglo 19
30. El arado de vertedera, siglo 18
El primer arado que no sólo cavaba el suelo sino que le daba la vuelta, lo que permitía el cultivo en terrenos más difíciles. Sin él, la agricultura tal como la conocemos no existiría en el norte de Europa o el Medio Oeste americano.
31. El tornillo de Arquímedes, en el tercer siglo aC
32. La desmotadora de algodón de 1793
Institucionalizado la industria del algodón y la esclavitud en el Sur de América
33. La pasteurización en 1863
Una de las primeras aplicaciones prácticas de la teoría de los gérmenes de Louis Pasteur. Este método usa el calor para esterilizar el vino, la cerveza y la leche, y es ampliamente considerado como una de las intervenciones de salud pública más eficaces de la historia.
34. El calendario gregoriano, 1582
Depuró el calendario juliano, saltándose 10 días para sincronizar el mundo con las estaciones del año.
35. Refino de petróleo, mediados del siglo 19
Sin ella, la extracción de petróleo no tendría sentido.
36. La turbina de vapor de 1884
Las turbinas son la columna vertebral de la infraestructura energética de hoy: generan el 80 por ciento de la electricidad del mundo.
37. Cemento, primer milenio aC
El fundamento de la civilización. Literalmente.
38. Fitomejoramiento, 1920
Los seres humanos han estado manipulando las especies de plantas durante casi tanto tiempo como las hemos cultivado, pero no fue hasta que los científicos de principios del siglo 20 descubrieron un documento de 1866 olvidado del botánico austriaco Gregor Mendel, que no nos dimos cuenta de cómo el fitomejoramiento y, más tarde, la genética humana, funciona.
39. Perforación de petróleo de 1859
Impulsa la economía moderna, estableció su geopolítica, y cambió el clima.
40. El velero, cuarto milenio aC
Transformado los viajes, la guerra, y nuestra visión del mundo.
41. Cohetes de 1926
"La única manera de salir del planeta - hasta ahora." - George Dyson.
42. El papel moneda, siglo 11
La abstracción en el núcleo de la economía moderna.
43. El ábaco, el tercer milenio aC
Uno de los primeros dispositivos para aumentar la inteligencia humana.
44. Aire acondicionado, 1902
45. Televisión, principios del siglo 20
46. Anestesia, 1846
En respuesta a la primera demostración pública del éter, Oliver Wendell Holmes escribió: "El feroz extremo del sufrimiento ha sido sumergido en las aguas del olvido, y los surcos profundos en la frente por la agonía se han suavizado para siempre."
47. El clavo, segundo milenio aC
48. La palanca, el tercer milenio aC
Los egipcios aún no habían descubierto la rueda cuando construyeron sus pirámides, que se cree que dependieron en gran medida de las palancas.
49. La línea de montaje de 1913
Cambió una economía basada en la artesanía a un mercado masivo.
50. La cosechadora, 1930
Mecanizó la granja, liberando la gente hacia nuevos tipos de trabajo.
20131122
Neutrinos extraterrestres detectados en el Polo Sur
Neutrinos extraterrestres detectados en el Polo Sur
Un grupo de 276 científicos de 12 países que trabaja en IceCube ha detectado por primera vez neutrinos -un tipo de partículas subatómicas que pueden generarse en el Sol, en fenómenos astrofísicos como el Big Bang, el CERN o en las centrales nucleares- de alta energía que proceden de más allá de nuestra galaxia.
«Este es el primer indicio de neutrinos de muy alta energía de fuera del Sistema Solar», explicaba ayer Francis Halzen, investigador principal de IceCube, profesor distinguido de Física en la Universidad de Wisconsin-Madison y verdadero padre intelectual del proyecto. «Es muy gratificante ver finalmente lo que hemos estado buscando. Este es el comienzo de una nueva era para la Astronomía», sentenció.
20131120
Visita virtual al HMS Ocelot (S17)
HMS Ocelot (S17): un submarino diesel-eléctrico retirado del servicio en
1991. En la actualidad se encuentra anclado en el puerto histórico de
Gillingham, en el suroeste de Inglaterra.
Se puede visitar el interior del submarino completo con Google Street View en este enlace:
https://www.google.co.uk/maps?ll=51....495%2C0.526705
Se puede visitar el interior del submarino completo con Google Street View en este enlace:
https://www.google.co.uk/maps?ll=51....495%2C0.526705
20131119
Cuando Tesla hizo temblar la tierra
Cuando Tesla hizo temblar la tierra
Un tranquilo día de 1898 los vecinos de varios bloques de edificios de Manhattan de los concurridos barrios Chino e Italiano empezaron a experimentar un temblor que pronto comenzó a sacudir todos los edificios y romper cristales, provocando que la gente saliera asustada a las calles de Nueva York. La policía, tras comprobar que el temblor se circunscribía solo a aquella pequeña parte de la ciudad y sospechando de quién podía ser el causante, enviaron a dos de sus agentes al número 46 de la calle East Houston. Justo antes de entrar en el edificio notaron que el temblor cesaba, y al traspasar la puerta de un laboratorio, los recibió un hombre alto y delgado, con bigote, elegantemente vestido, y armado con un martillo, diciéndoles “Caballeros, lo siento. Han llegado tarde para contemplar mi experimento. He visto necesario detenerlo de forma súbita y inesperada… ” y añadió mirando el martillo “ y de una forma inusual”. Este hombre era Nikola Tesla, el genial inventor que nos dio, entre otras cosas, la corriente eléctrica alterna gracias a la cual estás leyendo esto.
El causante de aquel incidente había sido un pequeño oscilador electromecánico con el que Tesla estaba experimentando aquel día para su investigación en la resonancia mecánica. Tras colocarlo sobre un pilar de su laboratorio, la vibración provocada comenzó a extenderse por los subterráneos del edificio hacia los edificios colindantes creando el caos entre sus vecinos. Tan absorto y fascinado estaba que hasta que no notó que todo su laboratorio estaba temblando no decidió finalizar el experimento de forma contundente dándole un martillazo al oscilador.
Otro de sus experimentos se lo relataría algunos años después a un periodista. Esta vez Tesla decidió experimentar fuera de su laboratorio y tras localizar un edificio en construcción en el barrio de Wall Street, que aún era un esqueleto de metal, colocó el oscilador sobre una de las vigas y lo activó. En pocos minutos toda la estructura dediez pisos del edificio empezó a vibrar, asustando a los trabajadores y provocando de nuevo que la policía hiciera acto de presencia. Antes de que nadie se pudiera dar cuenta de lo que pasaba, Tesla desactivó el dispositivo, se lo guardó en el bolsillo y continuó su camino. En la misma entrevista el inventor aseguró que en menos de una hora podría derribar el puente de Brooklyn, y llego a afirmar que con una máquina adecuada y dinamita, sería capaz partir la Tierra en dos. Esta claro que Tesla siempre pensaba a lo grande.
No se sabe a ciencia cierta si estos episodios ocurrieron tal cual o estaban magnificados por Tesla, aficionado a hacer grandes aseveraciones sobre sus investigaciones, pero así nos lo relata Margaret Cheney en una de las mejores biografías hechas sobre el inventor, Tesla: The Man Out of Time, que tiene edición en español (prologada por uno de los fans letales de Tesla que es Nacho de Microsiervos). En un episodio del año 2006 del programa Cazadores de Mitos intentaron reproducir el experimento de varias formas, pero con el experimento final sobre el puente Carquinez solo consiguieron provocar una vibración que se podía sentir a cierta distancia, pero nada parecido a un terremoto. Si llegó a crear o diseñar realmente aparatos con esa potencia, probablemente nunca lo sepamos y quede como uno de los tantos misterios que rodean a este genio.
Para aquellos que quieran intentar emular a Tesla, existe un libro con el rimbombante titulo de Nikola Tesla’s Earthquake Machine: With Tesla’s Original Patents Plus New Blueprints to Build Your Own Working Model, que parece dar las claves para construirlo, pero creo que, salvo que te creas las peregrinas teorías conspirativas sobre los terremotos ocurridos los últimos años que circulan por la red, por ahora nadie lo ha conseguido.
Un tranquilo día de 1898 los vecinos de varios bloques de edificios de Manhattan de los concurridos barrios Chino e Italiano empezaron a experimentar un temblor que pronto comenzó a sacudir todos los edificios y romper cristales, provocando que la gente saliera asustada a las calles de Nueva York. La policía, tras comprobar que el temblor se circunscribía solo a aquella pequeña parte de la ciudad y sospechando de quién podía ser el causante, enviaron a dos de sus agentes al número 46 de la calle East Houston. Justo antes de entrar en el edificio notaron que el temblor cesaba, y al traspasar la puerta de un laboratorio, los recibió un hombre alto y delgado, con bigote, elegantemente vestido, y armado con un martillo, diciéndoles “Caballeros, lo siento. Han llegado tarde para contemplar mi experimento. He visto necesario detenerlo de forma súbita y inesperada… ” y añadió mirando el martillo “ y de una forma inusual”. Este hombre era Nikola Tesla, el genial inventor que nos dio, entre otras cosas, la corriente eléctrica alterna gracias a la cual estás leyendo esto.
El causante de aquel incidente había sido un pequeño oscilador electromecánico con el que Tesla estaba experimentando aquel día para su investigación en la resonancia mecánica. Tras colocarlo sobre un pilar de su laboratorio, la vibración provocada comenzó a extenderse por los subterráneos del edificio hacia los edificios colindantes creando el caos entre sus vecinos. Tan absorto y fascinado estaba que hasta que no notó que todo su laboratorio estaba temblando no decidió finalizar el experimento de forma contundente dándole un martillazo al oscilador.
Otro de sus experimentos se lo relataría algunos años después a un periodista. Esta vez Tesla decidió experimentar fuera de su laboratorio y tras localizar un edificio en construcción en el barrio de Wall Street, que aún era un esqueleto de metal, colocó el oscilador sobre una de las vigas y lo activó. En pocos minutos toda la estructura dediez pisos del edificio empezó a vibrar, asustando a los trabajadores y provocando de nuevo que la policía hiciera acto de presencia. Antes de que nadie se pudiera dar cuenta de lo que pasaba, Tesla desactivó el dispositivo, se lo guardó en el bolsillo y continuó su camino. En la misma entrevista el inventor aseguró que en menos de una hora podría derribar el puente de Brooklyn, y llego a afirmar que con una máquina adecuada y dinamita, sería capaz partir la Tierra en dos. Esta claro que Tesla siempre pensaba a lo grande.
No se sabe a ciencia cierta si estos episodios ocurrieron tal cual o estaban magnificados por Tesla, aficionado a hacer grandes aseveraciones sobre sus investigaciones, pero así nos lo relata Margaret Cheney en una de las mejores biografías hechas sobre el inventor, Tesla: The Man Out of Time, que tiene edición en español (prologada por uno de los fans letales de Tesla que es Nacho de Microsiervos). En un episodio del año 2006 del programa Cazadores de Mitos intentaron reproducir el experimento de varias formas, pero con el experimento final sobre el puente Carquinez solo consiguieron provocar una vibración que se podía sentir a cierta distancia, pero nada parecido a un terremoto. Si llegó a crear o diseñar realmente aparatos con esa potencia, probablemente nunca lo sepamos y quede como uno de los tantos misterios que rodean a este genio.
Para aquellos que quieran intentar emular a Tesla, existe un libro con el rimbombante titulo de Nikola Tesla’s Earthquake Machine: With Tesla’s Original Patents Plus New Blueprints to Build Your Own Working Model, que parece dar las claves para construirlo, pero creo que, salvo que te creas las peregrinas teorías conspirativas sobre los terremotos ocurridos los últimos años que circulan por la red, por ahora nadie lo ha conseguido.
20131118
The Navy’s newest warship is powered by Linux
The Navy’s newest warship is powered by Linux
When the USS Zumwalt (DDG 1000) puts to sea later this year, it will be different from any other ship in the Navy's fleet in many ways. The $3.5 billon ship is designed for stealth, survivability, and firepower, and it's packed with advanced technology. And at the heart of its operations is a virtual data center powered by off-the-shelf server hardware, various flavors of Linux, and over 6 million lines of software code.
On October 10, I flew up to Rhode Island to visit Raytheon's Seapower Capability Center in Portsmouth, where engineers assembled and pre-tested the systems at the heart of the Zumwalt and are preparing to do the same for the next ship in line, the USS Michael Monsoor—already well into construction. There, Raytheon's DDG-1000 team gave me a tour of the centerpiece of the ship's systems—a mockup of the Zumwalt's operations center, where the ship's commanding officer and crew will control the ship's sensors, missile launchers, guns, and other systems.
Over 20 years ago, I learned how to be a ship watch stander a few miles from the Raytheon facility at the Navy's Surface Warfare Officer School. But the operations center of the Zumwalt will have more in common with the fictional starship USS Enterprise's bridge than it does with the combat information centers of the ships I went to sea on. Every console on the Zumwalt will be equipped with touch screens and software capable of taking on the needs of any operator on duty, and big screens on the forward bulkhead will display tactical plots of sea, air, and land.
Perhaps it's appropriate that the first commanding officer of the Zumwalt will be Captain James Kirk (yes, that's actually his name). But considering how heavily the ship leans on its computer networks, maybe they should look for a chief engineer named Vint Cerf.
In the past, you couldn't just put off-the-shelf computer systems aboard a ship for mission critical tasks—when I was aboard the USS Iowa, we had to shut down non-tactical systems before the guns were fired because the shock and vibration would crash systems hard. So typically, individual computer systems are ruggedized. But that adds heavily to the cost of the systems and makes it more difficult to maintain them.
The design of the Zumwalt solves that problem by using off-the-shelf hardware—mostly IBM blade servers running Red Hat Linux—and putting it in a ruggedized server room. Those ruggedized server rooms are called Electronic Modular Enclosures (EMEs), sixteen self-contained, mini data centers built by Raytheon.
Measuring 35 feet long, 8 feet high, and 12 feet wide, the 16 EMEs have more than 235 equipment cabinets (racks) in total. The EMEs were all configured and pre-tested before being shipped to Bath, Maine, to be installed aboard the Zumwalt. The EME approach lowered overall cost of the hardware itself, and allows Raytheon to pre-integrate systems before they're installed. "It costs a lot to do the work in the shipyard," said Raytheon's DDG-1000 deputy program manager Tom Moore, "and we get limited time of access."
Each EME has its own shock and vibration damping, power protection, water cooling systems, and electromagnetic shielding to prevent interference from the ship's radar and other big radio frequency emitters.
The EMEs tap into the Total Ship Computing Environment, the Zumwalt's shipboard Internet. Running multiple partitioned networks over a mix of fiber and copper, TSCE's redundantly switched network system connects all of the ship's systems—internal and external communications, weapons, engineering, sensors, etc.—over Internet protocols, including TCP and UDP. Almost all of the ship's internal communications are based on Voice Over IP (with the exception of a few old-school, sound-powered phones for emergency use).
There's also some wireless networking capability aboard the Zumwalt, but Raytheon officials giving me the tour were not at liberty to discuss just what sort of wireless this is. Still, that capability is supposed to allow for roving crew members to connect to data from the network while performing maintenance and other tasks.
Systems that weren't built to be wired into an IP network—other "programs of record" within the ship, which are installed across multiple classes of Navy ships—are wired in using adaptors based on single-board computers and the Lynx OS real-time Linux operating system. Called Distributed Adaptation Processors, or DAPs, these systems connect things like the ship's engineering systems, fire suppression systems, missile launchers, and radio and satellite communications gear into the network so they can be controlled by networked clients.
Some of those networked clients were what I was looking at in the mocked-up Zumwalt operations center. The operations center isn't just where screens are watched and commands are shouted—the whole ship can be practically run from the space, from guns and missiles to engines. There's no "radio room" on the Zumwalt; all the communications are managed from the operations center. The ship's guns are fully automated and operated by an operations center watch stander instead of a gunner's mate in the mount. Theoretically, the ship could even be steered from the ops center—the ship is piloted by computer, not a helmsman. And all of these tasks are performed from the same type of console.
Called the Common Display System, or CDS (pronounced as "keds" by those who work with it), the three-screen workstations in the operations center are powered by a collection of quad-processor Intel motherboards in an armored case, which gives new meaning to the nautical phrase "toe buster." Even the commanding officer's and executive officer's chairs on the bridge have CDS workstations built-in. Each CDS system can run multiple Linux virtual machines atop LynuxWorx's LynxSecure, a separation kernel tthat has been implemented in CDS as a hypervisor. This allows the workstation to connect to various networks partitioned by security level and purpose. "Every watch stander station runs out of the same box," Raytheon's DDG-1000 developer lead Robert Froncillo told me. "So they can sit at any CDS and bring up their station."
This may not seem like a big deal to most people. But on past ships, workstations tended to be purpose-built for a specific weapons system or sensor. That meant every system had a different configuration and interface, and you couldn't have a watch stander handle multiple tasks without having to switch seats. The CDS workstation uses common USB interfaces for its peripheral devices (such as trackballs and specialized button panels) and is equipped with touchscreens, as well, so that watch standers have a choice between "classic" and touch interfaces.
That doesn't mean there's necessarily a "Clippy" to help new operators master their systems. The Raytheon team has had sailors in to perform usability assessments from before code was even written, showing them screen shots of interfaces to get feedback from users. "We had a chief that said, 'We don't want any 'wizards,'" said Froncillo.
Putting all of the pieces together is a collection of middleware running on those IBM blade servers. Many of the shipboard systems use a commercial publish/subscribe middleware platform to send updates to operator consoles. But for other systems that need to be more tightly coupled (like, for example, missile launch commands), the Navy has specified the use of the Common Object Request Broker Architecture (CORBA)—the military's favorite mission-critical middleware model. (The software for the Joint Tactical Radio System's software-defined radios was also developed using CORBA.)
The Zumwalt may not have sailed yet, but its software has already shipped six times. When Release 5 was completed, Raytheon brought in more sailors to test the system, tethering it to the company's Total Ship System Simulator to run through a number of combat scenarios. "We did antisubmarine warfare, air, and land attack missions," Froncillo said. The lessons learned were incorporated into release 6, and 7 will be installed on the ship before the ship's "shakedown" cruise. Another upgrade will be installed post-delivery, and continual improvements will be made as the software is deployed to the other two ships in the class.
But the life of the technology being deployed on the Zumwalt won't end there. CDS will be used as part of the Navy's Aegis Modernization Program to upgrade the systems of the fleet's guided missile cruisers and destroyers. "And there are a lot of things we're developing that will be reused," Moore said.
Considering how much has been spent over the past decade trying to get the Zumwalt built, and the other technologies that were developed in the process, one can hope that more than just the software gets some reuse.
When the USS Zumwalt (DDG 1000) puts to sea later this year, it will be different from any other ship in the Navy's fleet in many ways. The $3.5 billon ship is designed for stealth, survivability, and firepower, and it's packed with advanced technology. And at the heart of its operations is a virtual data center powered by off-the-shelf server hardware, various flavors of Linux, and over 6 million lines of software code.
On October 10, I flew up to Rhode Island to visit Raytheon's Seapower Capability Center in Portsmouth, where engineers assembled and pre-tested the systems at the heart of the Zumwalt and are preparing to do the same for the next ship in line, the USS Michael Monsoor—already well into construction. There, Raytheon's DDG-1000 team gave me a tour of the centerpiece of the ship's systems—a mockup of the Zumwalt's operations center, where the ship's commanding officer and crew will control the ship's sensors, missile launchers, guns, and other systems.
Over 20 years ago, I learned how to be a ship watch stander a few miles from the Raytheon facility at the Navy's Surface Warfare Officer School. But the operations center of the Zumwalt will have more in common with the fictional starship USS Enterprise's bridge than it does with the combat information centers of the ships I went to sea on. Every console on the Zumwalt will be equipped with touch screens and software capable of taking on the needs of any operator on duty, and big screens on the forward bulkhead will display tactical plots of sea, air, and land.
Perhaps it's appropriate that the first commanding officer of the Zumwalt will be Captain James Kirk (yes, that's actually his name). But considering how heavily the ship leans on its computer networks, maybe they should look for a chief engineer named Vint Cerf.
Off the shelf and on the ship
In the past, you couldn't just put off-the-shelf computer systems aboard a ship for mission critical tasks—when I was aboard the USS Iowa, we had to shut down non-tactical systems before the guns were fired because the shock and vibration would crash systems hard. So typically, individual computer systems are ruggedized. But that adds heavily to the cost of the systems and makes it more difficult to maintain them.
The design of the Zumwalt solves that problem by using off-the-shelf hardware—mostly IBM blade servers running Red Hat Linux—and putting it in a ruggedized server room. Those ruggedized server rooms are called Electronic Modular Enclosures (EMEs), sixteen self-contained, mini data centers built by Raytheon.
Measuring 35 feet long, 8 feet high, and 12 feet wide, the 16 EMEs have more than 235 equipment cabinets (racks) in total. The EMEs were all configured and pre-tested before being shipped to Bath, Maine, to be installed aboard the Zumwalt. The EME approach lowered overall cost of the hardware itself, and allows Raytheon to pre-integrate systems before they're installed. "It costs a lot to do the work in the shipyard," said Raytheon's DDG-1000 deputy program manager Tom Moore, "and we get limited time of access."
Each EME has its own shock and vibration damping, power protection, water cooling systems, and electromagnetic shielding to prevent interference from the ship's radar and other big radio frequency emitters.
The EMEs tap into the Total Ship Computing Environment, the Zumwalt's shipboard Internet. Running multiple partitioned networks over a mix of fiber and copper, TSCE's redundantly switched network system connects all of the ship's systems—internal and external communications, weapons, engineering, sensors, etc.—over Internet protocols, including TCP and UDP. Almost all of the ship's internal communications are based on Voice Over IP (with the exception of a few old-school, sound-powered phones for emergency use).
There's also some wireless networking capability aboard the Zumwalt, but Raytheon officials giving me the tour were not at liberty to discuss just what sort of wireless this is. Still, that capability is supposed to allow for roving crew members to connect to data from the network while performing maintenance and other tasks.
Systems that weren't built to be wired into an IP network—other "programs of record" within the ship, which are installed across multiple classes of Navy ships—are wired in using adaptors based on single-board computers and the Lynx OS real-time Linux operating system. Called Distributed Adaptation Processors, or DAPs, these systems connect things like the ship's engineering systems, fire suppression systems, missile launchers, and radio and satellite communications gear into the network so they can be controlled by networked clients.
It looks like you want to launch a missile
Some of those networked clients were what I was looking at in the mocked-up Zumwalt operations center. The operations center isn't just where screens are watched and commands are shouted—the whole ship can be practically run from the space, from guns and missiles to engines. There's no "radio room" on the Zumwalt; all the communications are managed from the operations center. The ship's guns are fully automated and operated by an operations center watch stander instead of a gunner's mate in the mount. Theoretically, the ship could even be steered from the ops center—the ship is piloted by computer, not a helmsman. And all of these tasks are performed from the same type of console.
Called the Common Display System, or CDS (pronounced as "keds" by those who work with it), the three-screen workstations in the operations center are powered by a collection of quad-processor Intel motherboards in an armored case, which gives new meaning to the nautical phrase "toe buster." Even the commanding officer's and executive officer's chairs on the bridge have CDS workstations built-in. Each CDS system can run multiple Linux virtual machines atop LynuxWorx's LynxSecure, a separation kernel tthat has been implemented in CDS as a hypervisor. This allows the workstation to connect to various networks partitioned by security level and purpose. "Every watch stander station runs out of the same box," Raytheon's DDG-1000 developer lead Robert Froncillo told me. "So they can sit at any CDS and bring up their station."
This may not seem like a big deal to most people. But on past ships, workstations tended to be purpose-built for a specific weapons system or sensor. That meant every system had a different configuration and interface, and you couldn't have a watch stander handle multiple tasks without having to switch seats. The CDS workstation uses common USB interfaces for its peripheral devices (such as trackballs and specialized button panels) and is equipped with touchscreens, as well, so that watch standers have a choice between "classic" and touch interfaces.
That doesn't mean there's necessarily a "Clippy" to help new operators master their systems. The Raytheon team has had sailors in to perform usability assessments from before code was even written, showing them screen shots of interfaces to get feedback from users. "We had a chief that said, 'We don't want any 'wizards,'" said Froncillo.
Putting all of the pieces together is a collection of middleware running on those IBM blade servers. Many of the shipboard systems use a commercial publish/subscribe middleware platform to send updates to operator consoles. But for other systems that need to be more tightly coupled (like, for example, missile launch commands), the Navy has specified the use of the Common Object Request Broker Architecture (CORBA)—the military's favorite mission-critical middleware model. (The software for the Joint Tactical Radio System's software-defined radios was also developed using CORBA.)
The next release
The Zumwalt may not have sailed yet, but its software has already shipped six times. When Release 5 was completed, Raytheon brought in more sailors to test the system, tethering it to the company's Total Ship System Simulator to run through a number of combat scenarios. "We did antisubmarine warfare, air, and land attack missions," Froncillo said. The lessons learned were incorporated into release 6, and 7 will be installed on the ship before the ship's "shakedown" cruise. Another upgrade will be installed post-delivery, and continual improvements will be made as the software is deployed to the other two ships in the class.
But the life of the technology being deployed on the Zumwalt won't end there. CDS will be used as part of the Navy's Aegis Modernization Program to upgrade the systems of the fleet's guided missile cruisers and destroyers. "And there are a lot of things we're developing that will be reused," Moore said.
Considering how much has been spent over the past decade trying to get the Zumwalt built, and the other technologies that were developed in the process, one can hope that more than just the software gets some reuse.
20131117
Los avances en la electricidad 'sin cables' dan vida a la utopía de Tesla
Los avances en la electricidad 'sin cables' dan vida a la utopía de Tesla
Aunque las primeras bases teóricas de la electricidad inalámbrica proceden de principios del siglo XIX, con la demostración de los campos magnéticos generados a partir de la corriente o la formulación de la ley de inducción, fue Nikola Tesla el primero en aplicar estos conocimientos, dando vida a experimentos donde la energía se transportaba sin cables.
Se bautizó a esta tecnología, que ha sobrevivido al paso del tiempo, en parte, como un mito, como el efecto Tesla, cuya manifestación más utópica en el pensamiento del inventor de origen serbio planteaba la posibilidad de surtir de energía a todo el planeta como si se tratase de una red wifi universal. La falta de financiación lastró aquel colosal proyecto, pero el sueño de Tesla se ha mantenido vivo desde entonces, generando a lo largo del siglo XX una bibliografía científica inabarcable que en los últimos años ha comenzado a cristalizar en aplicaciones reales.
La falta de financiación lastró el proyecto, pero el sueño de Tesla se ha mantenido vivo, generando a lo largo del siglo XX una amplia bibliografía científica que en los últimos años ha comenzado a cristalizar en aplicaciones realesQuizás la innovación más popular es el denominado estándar Qi, una tecnología auspiciada por Wireless Power Consortium, y que ha dado lugar a una generación de cargadores de inducción que, aunque de momento cuentan con una potencia limitada (5W) que impide la carga de dispositivos con altas necesidades energéticas, funciona con éxito.
No obstante, la aplicación de Qi hace necesario el contacto entre el dispositivo y una base de carga, igual que ocurre con el estándar A4WP, desarrollado por el consorcio Alliance for Wireless Power, del que forman parte -entre otros muchos- Samsung, Broadcom o Qualcomm; y que en su caso aplica la tecnología de resonancia magnética de campo cercano.
El sistema Cota
Precisamente, una de las ventajas principales de las tecnologías anteriores es la gran cantidad de empresas que forman parte del movimiento, permitiendo una carrera constante de innovación que fructifica en una normalización de la que, finalmente, se benefician los usuarios.
Algo que todavía no ocurre con el sistema Cota, lanzado este mismo año por la startup norteamericana Ossia. Se trata de una tecnología revolucionaria que consiste -con elementos similares a las conexiones wifi- en la integración de un cargador y un receptor para conectar el flujo de electricidad a cualquier dispositivo de forma inalámbrica.
La compañía comenzó a desarrollar la tecnología, prácticamente en secreto, en 2006, y a día de hoy su camino parece imparable, después de haber recibido una inyección de 3,2 millones de euros en una ronda de financiación. Apostamos a que no será la única. En el caso de Cota no es necesario el contacto con ninguna base de carga: su alcance es superior a los diez metros y puede alimentar hasta 30 dispositivos al mismo tiempo. A priori, parece el sistema idóneo para llevar la electricidad inalámbrica al hogar a corto plazo.
Autopistas con electricidad
No es casualidad que una de las startups llamadas a marcar el paso del futuro lleve el nombre del inventor. Si Tesla Motors se encuenta hoy por hoy en la vanguardia tecnológica de los vehículos eléctricos, la firma Qualcomm, por su parte, lidera la carrera de innovación en el ámbito del suministro energético de este tipo de vehículos. Recordemos, además, que el almcaneamiento de energía está llamada a ser una de las tecnologías que generen mayor volumen de negocio en 2025.
En la actualidad, existen sistemas que permiten recargar un coche eléctrico de forma inalámbrica colocándolo sobre una plataforma, de un modo similar al sistema para cargar los móviles y tablets a través de Qi o A4WP.
Más allá de esto, Qualcomm ha desarrollado un revolucionario sistema capaz de cargar un coche en movimiento, sentando las bases de lo que pueden ser las autopistas del futuro, donde el pavimento estaría dotado de un sistema capaz de alimentar los vehículos en ruta. Combinando este tipo de tecnología con la del pavimento inteligente, cuyo objetivo último es absober la energía del propio tráfico, podemos imaginar el sistema más eficiente y ecológico del mundo.
De momento, la tecnología Qualcomm Halo se probará a lo grande en 2014 en una competición automovilística, también organizada por la FIA, que llevará el nombre de Fórmula E, un campeonato que recorrerá diez ciudades del mundo y en el que participarán exclusivamente coches eléctricos, que en su caso pueden alcanzar velocidades superiores a los 220 kilómetros por hora.
Una tecnología emergente
El hecho de que el estudio considerado como el definitivo, hasta el momento, en el ámbito de la electricidad inalámbrica, proceda del reciente 2007, ejemplifica que se trata de una tecnología todavía en ciernes. Hablamos del trabajo de varios investigadores del Massachusetts Institute of Technology (MIT) difundido por la revista Science.
El hecho de que el estudio considerado como el definitivo, hasta el momento, en el ámbito de la electricidad inalámbrica, proceda del reciente 2007, ejemplifica que se trata de una tecnología todavía en ciernesEn este artículo se acuñó el término witricity (witricidad), hoy una marca registrada de la empresa WiTricity, de Eric Giler, quien se ha convertido, a su manera, en una especie de Nikola Tesla moderno, siendo habituales sus demostraciones públicas, igual que el inventor serbio, sobre el funcionamiento de la electricidad sin cables. Una de sus exhibiciones más famosas ocurrió en 2009, en Oxford, donde usó su tecnología para encender un televisor y tres teléfonos móviles.
Contra todo lo anterior, la base filosófica de Nikola Tesla consistía en crear un sistema global de energía eléctrica gratuita que abarcase todo el proceso, desde la generación de la energía a su distribución, pero según los sistemas actuales parece improbable que esta tecnología pueda saltar por encima de los proveedores habituales y su sistema de tarificación del consumo.
Aunque las primeras bases teóricas de la electricidad inalámbrica proceden de principios del siglo XIX, con la demostración de los campos magnéticos generados a partir de la corriente o la formulación de la ley de inducción, fue Nikola Tesla el primero en aplicar estos conocimientos, dando vida a experimentos donde la energía se transportaba sin cables.
Se bautizó a esta tecnología, que ha sobrevivido al paso del tiempo, en parte, como un mito, como el efecto Tesla, cuya manifestación más utópica en el pensamiento del inventor de origen serbio planteaba la posibilidad de surtir de energía a todo el planeta como si se tratase de una red wifi universal. La falta de financiación lastró aquel colosal proyecto, pero el sueño de Tesla se ha mantenido vivo desde entonces, generando a lo largo del siglo XX una bibliografía científica inabarcable que en los últimos años ha comenzado a cristalizar en aplicaciones reales.
La falta de financiación lastró el proyecto, pero el sueño de Tesla se ha mantenido vivo, generando a lo largo del siglo XX una amplia bibliografía científica que en los últimos años ha comenzado a cristalizar en aplicaciones realesQuizás la innovación más popular es el denominado estándar Qi, una tecnología auspiciada por Wireless Power Consortium, y que ha dado lugar a una generación de cargadores de inducción que, aunque de momento cuentan con una potencia limitada (5W) que impide la carga de dispositivos con altas necesidades energéticas, funciona con éxito.
No obstante, la aplicación de Qi hace necesario el contacto entre el dispositivo y una base de carga, igual que ocurre con el estándar A4WP, desarrollado por el consorcio Alliance for Wireless Power, del que forman parte -entre otros muchos- Samsung, Broadcom o Qualcomm; y que en su caso aplica la tecnología de resonancia magnética de campo cercano.
El sistema Cota
Precisamente, una de las ventajas principales de las tecnologías anteriores es la gran cantidad de empresas que forman parte del movimiento, permitiendo una carrera constante de innovación que fructifica en una normalización de la que, finalmente, se benefician los usuarios.
Algo que todavía no ocurre con el sistema Cota, lanzado este mismo año por la startup norteamericana Ossia. Se trata de una tecnología revolucionaria que consiste -con elementos similares a las conexiones wifi- en la integración de un cargador y un receptor para conectar el flujo de electricidad a cualquier dispositivo de forma inalámbrica.
La compañía comenzó a desarrollar la tecnología, prácticamente en secreto, en 2006, y a día de hoy su camino parece imparable, después de haber recibido una inyección de 3,2 millones de euros en una ronda de financiación. Apostamos a que no será la única. En el caso de Cota no es necesario el contacto con ninguna base de carga: su alcance es superior a los diez metros y puede alimentar hasta 30 dispositivos al mismo tiempo. A priori, parece el sistema idóneo para llevar la electricidad inalámbrica al hogar a corto plazo.
Autopistas con electricidad
No es casualidad que una de las startups llamadas a marcar el paso del futuro lleve el nombre del inventor. Si Tesla Motors se encuenta hoy por hoy en la vanguardia tecnológica de los vehículos eléctricos, la firma Qualcomm, por su parte, lidera la carrera de innovación en el ámbito del suministro energético de este tipo de vehículos. Recordemos, además, que el almcaneamiento de energía está llamada a ser una de las tecnologías que generen mayor volumen de negocio en 2025.
En la actualidad, existen sistemas que permiten recargar un coche eléctrico de forma inalámbrica colocándolo sobre una plataforma, de un modo similar al sistema para cargar los móviles y tablets a través de Qi o A4WP.
Más allá de esto, Qualcomm ha desarrollado un revolucionario sistema capaz de cargar un coche en movimiento, sentando las bases de lo que pueden ser las autopistas del futuro, donde el pavimento estaría dotado de un sistema capaz de alimentar los vehículos en ruta. Combinando este tipo de tecnología con la del pavimento inteligente, cuyo objetivo último es absober la energía del propio tráfico, podemos imaginar el sistema más eficiente y ecológico del mundo.
De momento, la tecnología Qualcomm Halo se probará a lo grande en 2014 en una competición automovilística, también organizada por la FIA, que llevará el nombre de Fórmula E, un campeonato que recorrerá diez ciudades del mundo y en el que participarán exclusivamente coches eléctricos, que en su caso pueden alcanzar velocidades superiores a los 220 kilómetros por hora.
Una tecnología emergente
El hecho de que el estudio considerado como el definitivo, hasta el momento, en el ámbito de la electricidad inalámbrica, proceda del reciente 2007, ejemplifica que se trata de una tecnología todavía en ciernes. Hablamos del trabajo de varios investigadores del Massachusetts Institute of Technology (MIT) difundido por la revista Science.
El hecho de que el estudio considerado como el definitivo, hasta el momento, en el ámbito de la electricidad inalámbrica, proceda del reciente 2007, ejemplifica que se trata de una tecnología todavía en ciernesEn este artículo se acuñó el término witricity (witricidad), hoy una marca registrada de la empresa WiTricity, de Eric Giler, quien se ha convertido, a su manera, en una especie de Nikola Tesla moderno, siendo habituales sus demostraciones públicas, igual que el inventor serbio, sobre el funcionamiento de la electricidad sin cables. Una de sus exhibiciones más famosas ocurrió en 2009, en Oxford, donde usó su tecnología para encender un televisor y tres teléfonos móviles.
Contra todo lo anterior, la base filosófica de Nikola Tesla consistía en crear un sistema global de energía eléctrica gratuita que abarcase todo el proceso, desde la generación de la energía a su distribución, pero según los sistemas actuales parece improbable que esta tecnología pueda saltar por encima de los proveedores habituales y su sistema de tarificación del consumo.
20131115
La NASA muestra cómo pudo ser Marte antes de sufrir un dramático cambio climático
La NASA muestra cómo pudo ser Marte antes de sufrir un dramático cambio climático
Hoy, Marte es un mundo desierto, frío y estéril, sin ningún signo de vida, al menos en la superficie. Sin embargo, miles de millones de años atrás, cuando el planeta rojo era joven, podría haber tenido una atmósfera densa lo suficientemente caliente para albergar océanos de agua líquida -un ingrediente esencial para la vida-.
El agua líquida no puede existir en la superficie de Marte en la actualidad debido a la baja presión atmosférica y a la temperatura de la superficie, aunque hay evidencia de regueros de flujo líquido que podrían responder a una solución salada ligeramente congelada, según relata Joseph Grebowsky, del Centro Goddard de Vuelos Espaciales de la NASA. El agua en las actuales condiciones atmosféricas de Marte puede ser hielo o estar sublimada directamente en vapor, sin estar en una fase líquida.
El vídeo muestra cómo podría haber sido la superficie de Marte durante este período antiguo, clemente atmosféricamente, mostrando, en el inicio del mismo, lo que pudo haber sido un lago marciano.
El concepto del autor de la recreación visual se basa en la evidencia de que Marte una vez fue muy diferente. Las características superficiales y composiciones minerales sugieren que el antiguo Marte tenía una atmósfera más densa y agua líquida en su superficie, según Grebowsky.
"Hay característicos canales dendríticos estructurados que, al igual que en la Tierra, cuadran con la erosión de la superficie que provocan las corrientes de agua. Los interiores de algunos cráteres de impacto tienen cuencas que sugieren lagos de cráter, con muchos canales de conexión que albergaban flujos de agua dentro y fuera del cráter. Pequeños cráteres de impacto se han eliminado con el tiempo y cráteres más grandes muestran signos de la erosión por el agua de hace 3.700 millones años. Y la estratificación sedimentaria se puede ver en las paredes del valle. Los minerales que están presentes en la superficie, hematita y arcillas, solo se pueden producir gracias a la presencia de agua líquida", explica Grebowsky.
Inyecciones de oxígeno
Inyecciones de oxígeno: Scientists Invent Oxygen Particle That If Injected, Allows You To Live Without Breathing - Entertainment, Science and Technology
Un equipo de científicos del Hospital de Niños de Boston han inventado lo que se considera uno de los grandes avances médicos en los últimos años. Ellos han diseñado una micropartícula que se puede inyectar en la corriente sanguínea de una persona que rápidamente puede oxigenar la sangre.
Esto es muy útil si la capacidad de respirar se ha limitado, o incluso se corta por completo.
Este descubrimiento tiene el potencial de salvar millones de vidas cada año. Las micropartículas pueden mantener vivo una persona en un máximo de 30 minutos después de la insuficiencia respiratoria. Se logra a través de una inyección en las venas de los pacientes. Una vez inyectado, las micropartículas pueden oxigenar la sangre a niveles casi normales.
Tiene innumerables usos potenciales, ya que permite que la vida continúe cuando se necesita oxígeno, pero no está disponible. Para el personal médico, se trata del tiempo suficiente para evitar el riesgo de un ataque cardíaco o una lesión cerebral permanente cuando el oxígeno se limita o se corta a los pacientes.
El Dr. John Kheir, que comenzó el estudio, trabaja en el departamento de pediatría del Hospital de Boston en Cardiología. Encontró la inspiración para la droga en 2006, cuando él estaba tratando a una chica en la UCI, que tenía un caso de neumonía severa. En ese momento, la chica no tenía un tubo de respiración, cuando en el momento en que ella sufría de una hemorragia pulmonar. Esto significa que sus pulmones habían comienzan a llenarse de sangre, y finalmente sufrió un paro cardíaco. Tomó médicos unos 25 minutos para eliminar suficiente sangre de los pulmones para que le permita respirar. Sin embargo, el cerebro de la niña fue gravemente herido debido a la privación de oxígeno durante tanto tiempo y que finalmente murió.
20131113
Crean refrigerador magnético que ahorra 90% de energía
mientras no funcione con el mismo principio que las PowerBalance..
Crean refrigerador magnético que ahorra 90% de energía
Científicos mexicanos desarrollaron un prototipo de refrigerador revolucionario donde aplicaron un concepto de la física originado hace 300 años. A lo largo de casi cinco años, investigadores del Centro de Investigación en Materiales Avanzados (Cimav) han trabajado en este sistema que no emplea compresores ni gases refrigerantes, principio utilizado desde mediados del siglo XIX, sino del efecto magnetocalórico, que es la variación de la temperatura de un material magnético cuando se aplica o retira un campo magnético.
La clave del proyecto está en las propiedades de ese material, “puesto que hasta ahora no se habían podido desarrollar aquellos con capacidad de disminuir la temperatura en unos 35 grados Celsius”, señala Jesús González Hernández, director del Cimav.
Pero los investigadores de la institución, centro Conacyt con sede en Chihuahua, trabajaron en una mezcla de materiales capaz de llegar por debajo de los cero grados desde una temperatura ambiente. “Son una mezcla de 7 materiales, entre ellos manganeso, estroncio y oxígeno, con partículas nanométricas que potencian la propiedad magetocalórica”, añade el doctor en física.
Un refrigerador común tiene un compresor con un gas refrigerante que bombea a áreas que se busca enfriar. Estos gases pueden ser nocivos cuando se liberan al medio ambiente y todo el sistema puede consumir, en promedio, 200 watts de energía. El refrigerador magnético sólo emplearía 8 watts, carecería de gases, compactaría el espacio diseñado para compresor y además no emite ruido alguno.
MERCADO. El proyecto surgió debido a un intercambio académico con científicos de Irlanda, donde se han hecho avances importantes en el área. El proyecto en el Cimav ha sido coordinado por el investigador José Matutes.
El prototipo fue obtenido en conjunto con una empresa del estado y ahora el centro está en pláticas con Mabe y General Electric, quienes están interesadas en desarrollar la tecnología, refiere González Hernández.
“Ahora trabajamos en el diseño final, que no sería más que el de una caja común de refrigerador; el asunto es que sea competitivo y el precio de producción tenga ventajas. Esperaríamos que este tipo de tecnología esté disponible en el mercado en, aproximadamente, cinco años”.
Ahora mismo, añade, podrían hacer uno de tipo comercial, pero los científicos buscan optimizar su “licuado” de materiales y procesos, para desarrollar un producto que no pueda ser superado en los próximos años. “Tenemos que optimizar los materiales porque otros grupos pueden intuir el concepto, por lo que debemos llevarlo a un nivel más de maduración”.
Crean refrigerador magnético que ahorra 90% de energía
Científicos mexicanos desarrollaron un prototipo de refrigerador revolucionario donde aplicaron un concepto de la física originado hace 300 años. A lo largo de casi cinco años, investigadores del Centro de Investigación en Materiales Avanzados (Cimav) han trabajado en este sistema que no emplea compresores ni gases refrigerantes, principio utilizado desde mediados del siglo XIX, sino del efecto magnetocalórico, que es la variación de la temperatura de un material magnético cuando se aplica o retira un campo magnético.
La clave del proyecto está en las propiedades de ese material, “puesto que hasta ahora no se habían podido desarrollar aquellos con capacidad de disminuir la temperatura en unos 35 grados Celsius”, señala Jesús González Hernández, director del Cimav.
Pero los investigadores de la institución, centro Conacyt con sede en Chihuahua, trabajaron en una mezcla de materiales capaz de llegar por debajo de los cero grados desde una temperatura ambiente. “Son una mezcla de 7 materiales, entre ellos manganeso, estroncio y oxígeno, con partículas nanométricas que potencian la propiedad magetocalórica”, añade el doctor en física.
Un refrigerador común tiene un compresor con un gas refrigerante que bombea a áreas que se busca enfriar. Estos gases pueden ser nocivos cuando se liberan al medio ambiente y todo el sistema puede consumir, en promedio, 200 watts de energía. El refrigerador magnético sólo emplearía 8 watts, carecería de gases, compactaría el espacio diseñado para compresor y además no emite ruido alguno.
MERCADO. El proyecto surgió debido a un intercambio académico con científicos de Irlanda, donde se han hecho avances importantes en el área. El proyecto en el Cimav ha sido coordinado por el investigador José Matutes.
El prototipo fue obtenido en conjunto con una empresa del estado y ahora el centro está en pláticas con Mabe y General Electric, quienes están interesadas en desarrollar la tecnología, refiere González Hernández.
“Ahora trabajamos en el diseño final, que no sería más que el de una caja común de refrigerador; el asunto es que sea competitivo y el precio de producción tenga ventajas. Esperaríamos que este tipo de tecnología esté disponible en el mercado en, aproximadamente, cinco años”.
Ahora mismo, añade, podrían hacer uno de tipo comercial, pero los científicos buscan optimizar su “licuado” de materiales y procesos, para desarrollar un producto que no pueda ser superado en los próximos años. “Tenemos que optimizar los materiales porque otros grupos pueden intuir el concepto, por lo que debemos llevarlo a un nivel más de maduración”.
20131112
John Carmack: 'El rendimiento de las GPUs se decuplicará en cinco años'
parecido a lo que ocurre con las CPUs, vamos..
John Carmack: 'El rendimiento de las GPUs se decuplicará en cinco años'
En un reciente evento de Nvidia, John Carmack, conocido por su trabajo en id Software, y ahora en Oculus Rift, el veterano desarrollador predijo un enorme salto en las GPUs –unidades de procesamiento gráfico– durante los próximos cinco años.
Carmack cree que en estos cinco años, las GPUs decuplicarán su rendimiento, estandarizando la resolución en 4K, resolución que, según él, llegarán a las tabletas y a cascos de realidad virtual.
"Hay un billón de dólares haciendo que avancen [las GPUs], y va a ser genial estar más o menos metido en el mundillo, buscando las áreas interesantes de los sistemas, donde hay una convergencia entre lo que es posible ahora, lo que la gente quería antes, como un tipo de pilar de donde la auténtica innovación saldrá", comenta.
Por último, Carmack comenta que es difícil predecir qué pasará más adelante de esos cinco años, y ejemplifica el salto tecnológico con la película Tron, considerada un referente hace 30 años, y que ahora calificaría de "patéticamente simple".
John Carmack: 'El rendimiento de las GPUs se decuplicará en cinco años'
En un reciente evento de Nvidia, John Carmack, conocido por su trabajo en id Software, y ahora en Oculus Rift, el veterano desarrollador predijo un enorme salto en las GPUs –unidades de procesamiento gráfico– durante los próximos cinco años.
Carmack cree que en estos cinco años, las GPUs decuplicarán su rendimiento, estandarizando la resolución en 4K, resolución que, según él, llegarán a las tabletas y a cascos de realidad virtual.
"Hay un billón de dólares haciendo que avancen [las GPUs], y va a ser genial estar más o menos metido en el mundillo, buscando las áreas interesantes de los sistemas, donde hay una convergencia entre lo que es posible ahora, lo que la gente quería antes, como un tipo de pilar de donde la auténtica innovación saldrá", comenta.
Por último, Carmack comenta que es difícil predecir qué pasará más adelante de esos cinco años, y ejemplifica el salto tecnológico con la película Tron, considerada un referente hace 30 años, y que ahora calificaría de "patéticamente simple".
20131109
Cinco motivos por los que podríamos ser parte de un multiverso
¿Vivimos en un 'multiverso'? El telescopio Planck encuentra otros universos
Cinco motivos por los que podríamos ser parte de un multiverso
1. Universos infinitos:"Algunos de estos gemelos estarán haciendo exactamente lo mismo que nosotros hacemos en este instante, mientras que otros estarán usando un atuendo distinto al nuestro, y otros ya habrán escogido diferentes opciones de carrera y vida".
2. Universos burbuja:"En algunos de estos universos burbuja, las leyes de la física y las constantes fundamentales podrían ser distintas a las nuestras, dando como resultado lugares bastante extraños".
3. Universos paralelos:"Brian Green, físico de la Universidad de Columbia, describe la idea como la noción de que “el universo es uno de los potencialmente numerosos “bloques” que flotan en un espacio de más dimensiones, como una rodaja de pan dentro de una grandiosa hogaza cósmica,” en su libro “The Hidden Reality” (“La Realidad Oculta,” Vintage Books, 2011).
Ahondando más en esta teoría se tiene que estos universos-brana no son siempre paralelos ni están separados entre sí. En ocasiones podrían colisionar uno con otro, generando repetidos Big Bangs que reiniciarían los correspondientes universos una y otra vez.
4. Universos hijo
La teoría de la mecánica cuántica, cuyo dominio es el pequeño mundo de las partículas subatómicas, muestra otra manera con la que podrían aparecer múltiples universos. La mecánica cuántica describe el mundo en términos de probabilidades en lugar de resultados concretos. Las matemáticas de esta teoría podrían sugerir que todos los posibles resultados de una situación, ocurren — cada uno en un universo propio. Por ejemplo, si llegásemos a un cruce en donde podemos elegir entre ir hacia la derecha o a la izquierda, el universo actual daría lugar a dos universos hijos: en uno de ellos iríamos hacia la derecha, mientras que en el otro la elección sería la izquierda.
“Y en cada universo hay una copia tuya presenciando uno de los dos resultados, pensando — erróneamente — que esa realidad es la única realidad,” escribió Greene en The Hidden Reality.
5. Universos matemáticos
Los científicos han debatido acerca de si las matemáticas son simplemente una herramienta útil para describir el universo, o si la matemática por sí misma es la realidad fundamental y nuestras observaciones del universo son sólo percepciones imperfectas de su verdadera naturaleza. Si este último fuera el caso, entonces quizás la particular estructura matemática que conforma nuestro universo no sea la única opción, y efectivamente todas las posibles estructuras matemáticas existan como sus propios universos.
“Una estructura matemática es algo que puedes describir de una manera completamente independiente al equipamiento humano,” comentó Max Tegmark de MIT, quien propuso esta alborotadora idea. “De verdad creo que hay un universo allá afuera, capaz de existir independientemente de mí, y que seguiría existiendo incluso si no hubiera humanos.”
20131107
20131103
El 29% de la población no puede sincronizar a 10 Mbps
y una cosa es "sincronizar", y otra lo que acaba llegando.. hay la ligera sospecha que ésta estadística es ligeramente optimista; la situación real es mucho peor..
El 29% de la población no puede sincronizar a 10 Mbps
Informe de Cobertura de Banda Ancha 1S 2013
La Secretaría de Estado de Telecomunicaciones y para la Sociedad de la Información (SETSI) ha publicado su segundo informe semestral con el que monitoriza los progresos realizados en España para alcanzar los objetivos de la Agenda Digital en cuanto a la banda ancha.
Según sus datos, el 59% de la población ya tiene la posibilidad de conectarse a 30 Mbps y el 52% puede hacerlo a 100 Mbps. Esto es posible gracias a la cobertura de las redes VDSL, que llega al 12%, el cable, con un 47% de cobertura, y el FTTH con el 14%.
En el informe también aparece la cobertura mediante HSPA, que llega a un 99% de la población, y del ADSL con 10 Mbps de velocidad, disponible para el 71% de los usuarios. Esto significa que hay un importante sector de la población, del 29%, que bien por no tener cobertura ADSL o por encontrarse a demasiada distancia de su central, no puede sincronizar ni siquiera a 10 Mbps.
La comunidad líder en cobertura VDSL 30 Mb es Extremadura, mientras que Madrid y Cataluña tan solo cuentan con un 7,7 y 10,6 % respectivamente.
En cable, son los territorios naturales de los cableros los que cuentan con mejor cobertura, liderados por el País Vasco, donde el 90,4 % de los habitantes puede conectarse a la red de cable.
La fibra hasta el hogar se concentra en Canarias (20,5%), Cataluña (25,5) y Madrid, donde más de la mitad de la población (51,5%) ya tiene cobertura FTTH.
Aquí todas las gráficas de interés:
ADSL hasta 10 Mbps
VDSL hasta 30 Mbps
HFC
FTTH
HSPA/HSPA+
Combinación VDSL30 + FTTH + HFC
Combinación FTTH + HFC
El 29% de la población no puede sincronizar a 10 Mbps
Informe de Cobertura de Banda Ancha 1S 2013
La Secretaría de Estado de Telecomunicaciones y para la Sociedad de la Información (SETSI) ha publicado su segundo informe semestral con el que monitoriza los progresos realizados en España para alcanzar los objetivos de la Agenda Digital en cuanto a la banda ancha.
Según sus datos, el 59% de la población ya tiene la posibilidad de conectarse a 30 Mbps y el 52% puede hacerlo a 100 Mbps. Esto es posible gracias a la cobertura de las redes VDSL, que llega al 12%, el cable, con un 47% de cobertura, y el FTTH con el 14%.
En el informe también aparece la cobertura mediante HSPA, que llega a un 99% de la población, y del ADSL con 10 Mbps de velocidad, disponible para el 71% de los usuarios. Esto significa que hay un importante sector de la población, del 29%, que bien por no tener cobertura ADSL o por encontrarse a demasiada distancia de su central, no puede sincronizar ni siquiera a 10 Mbps.
La comunidad líder en cobertura VDSL 30 Mb es Extremadura, mientras que Madrid y Cataluña tan solo cuentan con un 7,7 y 10,6 % respectivamente.
En cable, son los territorios naturales de los cableros los que cuentan con mejor cobertura, liderados por el País Vasco, donde el 90,4 % de los habitantes puede conectarse a la red de cable.
La fibra hasta el hogar se concentra en Canarias (20,5%), Cataluña (25,5) y Madrid, donde más de la mitad de la población (51,5%) ya tiene cobertura FTTH.
ADSL hasta 10 Mbps
VDSL hasta 30 Mbps
HFC
FTTH
HSPA/HSPA+
Combinación VDSL30 + FTTH + HFC
Combinación FTTH + HFC
20131102
Así ven los gatos el mundo
Así ven los gatos el mundo
Los seres humanos no paramos de observar vídeos y fotografías de gatos. Un artista norteamericano ha recreado cómo estos animales nos ven a nosotros y al mundo que nos rodea.
Internet es un territorio completamente dominado por los gatos. Los seres humanos nos podemos pasar horas viendo vídeos de estos animales haciendo cualquier tipo de cosa. Ha llegado el momento de darle la vuelta a la tortilla y saber como estos felinos ven el mundo. Un artista norteamericano ha recopilado los datos necesarios y se ha ofrecido voluntario para recrear unas imágenes que sirvan de ejemplo.
Este experimento se lo tenemos que agradecer a Nickolay Lamm, quien ha tenido que ponerse en contacto con oftalmólogos y veterinarios para poder conseguir la mayor cantidad de datos y utilizarlos en su obra. El resultado es muy interesante y deja imaginarnos cómo estos animales podrían ver el mundo que les rodea.
Para empezar, debemos saber que el campo de visión de los gatos es más amplio que el de los seres humanos, abarcando aproximadamente los 200 grados en vez de nuestros 180 grados. Esto hace que los humanos podamos ver objetos de una manera definida a una distancia de entre 30 y 60 metros y los gatos no. Esto tiene una contrapartida: debido a los fotorreceptores que los gatos tienen en su retina, pueden ver muchísimo mejor en escenas de poca luminosidad (hasta seis veces mejor), algo que me recordó a la cámara ultrapíxel del HTC One.
En cuanto a la percepción de colores, también hay muchas diferencias. Tal y como se puede ver en las imágenes, perciben los colores menos vibrantes que nosotros. Los científicos pensaban en un primer momento que los gatos eran dicromáticos (capaces de ver dos colores a la vez), al parecer no es del todo cierto ya que recientes estudios afirman que perciben el color verde y son sensibles a longitudes de onda en el rango azul-violeta y amarillo-verde.
Como podemos observar, las diferencias son notorias y cada una tiene sus ventajas. De todos modos, exceptuando escenas nocturnas o que son capaces de ver los movimientos rápidos más lentos, creo que salimos ganando los humanos. Observando las imágenes de Nickolay Lamm parece que los gatos perciben el mundo en un constante estado de embriaguez.
Los seres humanos no paramos de observar vídeos y fotografías de gatos. Un artista norteamericano ha recreado cómo estos animales nos ven a nosotros y al mundo que nos rodea.
Internet es un territorio completamente dominado por los gatos. Los seres humanos nos podemos pasar horas viendo vídeos de estos animales haciendo cualquier tipo de cosa. Ha llegado el momento de darle la vuelta a la tortilla y saber como estos felinos ven el mundo. Un artista norteamericano ha recopilado los datos necesarios y se ha ofrecido voluntario para recrear unas imágenes que sirvan de ejemplo.
Este experimento se lo tenemos que agradecer a Nickolay Lamm, quien ha tenido que ponerse en contacto con oftalmólogos y veterinarios para poder conseguir la mayor cantidad de datos y utilizarlos en su obra. El resultado es muy interesante y deja imaginarnos cómo estos animales podrían ver el mundo que les rodea.
Para empezar, debemos saber que el campo de visión de los gatos es más amplio que el de los seres humanos, abarcando aproximadamente los 200 grados en vez de nuestros 180 grados. Esto hace que los humanos podamos ver objetos de una manera definida a una distancia de entre 30 y 60 metros y los gatos no. Esto tiene una contrapartida: debido a los fotorreceptores que los gatos tienen en su retina, pueden ver muchísimo mejor en escenas de poca luminosidad (hasta seis veces mejor), algo que me recordó a la cámara ultrapíxel del HTC One.
En cuanto a la percepción de colores, también hay muchas diferencias. Tal y como se puede ver en las imágenes, perciben los colores menos vibrantes que nosotros. Los científicos pensaban en un primer momento que los gatos eran dicromáticos (capaces de ver dos colores a la vez), al parecer no es del todo cierto ya que recientes estudios afirman que perciben el color verde y son sensibles a longitudes de onda en el rango azul-violeta y amarillo-verde.
Como podemos observar, las diferencias son notorias y cada una tiene sus ventajas. De todos modos, exceptuando escenas nocturnas o que son capaces de ver los movimientos rápidos más lentos, creo que salimos ganando los humanos. Observando las imágenes de Nickolay Lamm parece que los gatos perciben el mundo en un constante estado de embriaguez.
20131101
Con esta pulsera del MIT no pasarás ni frío ni calor (aunque lo haga)
Con esta pulsera del MIT no pasarás ni frío ni calor (aunque lo haga)
El Instituto Tecnológico de Massachusetts nos regala otro de esos inventos que parecen casi brujería. Se trata de una pulsera termoeléctrica que engaña al organismo para que no sienta frío o calor aunque, de hecho, haga frío o calor.
El invento se llama Wristify, y es bastante sencillo en apariencia. Se basa en el hecho de que, aplicando calor o frío repentinos sobre ciertas partes del cuerpo con una gran afluencia de sangre, como la muñeca, se puede modificar hasta cierto punto la forma en la que el organismo percibe el calor ambiental.
Lo que hace la pulsera es monitorizar la temperatura corporal y enviar variaciones muy rápidas, pero imperceptibles, de calor o frío a un ritmo de 0,4 grados celsius por segundo. De esta forma, el cuerpo no siente tanto las variaciones de temperatura y se mantiene en una zona de confort. Una batería de ion-litio mantiene en funcionamiento la pulsera durante ocho horas sin recargar.
Wristify ha ganado el primer premio MADMEC de ciencia y diseño de materiales del MIT, dotado con 10.000 dólares, y ya tiene un prototipo funcional. Sus creadores la han concebido con un motivo muy concreto: el ahorro energético. Una gran parte del consumo eléctrico se debe a los sistemas de calefacción y aire acondicionado. La pulsera podría ayudar a ahorrar millones de dólares manteniendo a los inquilinos de un edificio en una zona de equilibrio térmico sin necesidad de alterar la temperatura tan drásticamente. [MITnews vía Popular Science]
El Instituto Tecnológico de Massachusetts nos regala otro de esos inventos que parecen casi brujería. Se trata de una pulsera termoeléctrica que engaña al organismo para que no sienta frío o calor aunque, de hecho, haga frío o calor.
El invento se llama Wristify, y es bastante sencillo en apariencia. Se basa en el hecho de que, aplicando calor o frío repentinos sobre ciertas partes del cuerpo con una gran afluencia de sangre, como la muñeca, se puede modificar hasta cierto punto la forma en la que el organismo percibe el calor ambiental.
Lo que hace la pulsera es monitorizar la temperatura corporal y enviar variaciones muy rápidas, pero imperceptibles, de calor o frío a un ritmo de 0,4 grados celsius por segundo. De esta forma, el cuerpo no siente tanto las variaciones de temperatura y se mantiene en una zona de confort. Una batería de ion-litio mantiene en funcionamiento la pulsera durante ocho horas sin recargar.
Wristify ha ganado el primer premio MADMEC de ciencia y diseño de materiales del MIT, dotado con 10.000 dólares, y ya tiene un prototipo funcional. Sus creadores la han concebido con un motivo muy concreto: el ahorro energético. Una gran parte del consumo eléctrico se debe a los sistemas de calefacción y aire acondicionado. La pulsera podría ayudar a ahorrar millones de dólares manteniendo a los inquilinos de un edificio en una zona de equilibrio térmico sin necesidad de alterar la temperatura tan drásticamente. [MITnews vía Popular Science]
Suscribirse a:
Entradas (Atom)