una lista de las tecnologías que revolucionarán el mundo si antes no colapsa todo:
1- COMPUTACION CUANTICA
Computación cuántica - Wikipedia, la enciclopedia libre Large-scale
quantum computers will be able to solve certain problems much more
quickly than any classical computer using the best currently known
algorithms, like integer factorization using Shor's algorithm or the
simulation of quantum many-body systems. There exist quantum algorithms,
such as Simon's algorithm, which run faster than any possible
probabilistic classical algorithm.
La computacion cuantica hace lo mismo que la computacion clasica pero
muchisimo mas rapido. Problemas que un ordenador clasico los resolveria
en tiempo larguisimo, varias veces la vida de un ser humano, un
computador cuantico los podria resolver inmediatamente.
Si la computacion clasica en la actualidad parece que hace magia, en un
futuro nos podriamos encontrar un mundo que solo hemos visto en las
peliculas de ciencia ficcion. Se podrian hacer androides con un
comportamiento y capacidades a la altura de cualquier ser humano,
haciendo a la mayoria de la poblacion totalmente prescindible del
sistema productivo.
Fusion
reactions have an energy density many times greater than nuclear
fission; the reactions produce far greater energy per unit of mass even
though individual fission reactions are generally much more energetic
than individual fusion ones, which are themselves millions of times more
energetic than chemical reactions. Only Direct conversion of mass into
energy, such as that caused by the annihilatory collision of matter and
antimatter, is more energetic per unit of mass than nuclear fusion.
Esta tecnologia permitiria pasar a un modelo que ya no se necesitaria
carbon o petroleo, porque mediante sintesis quimica se podria producir
combustible mucho mas barato que el extraido. Se podria hacer una
transicion poco traumatica hacia otro modelos de transporte y produccion
que no necesitaran petroleo, gas natural, carbon, etc.
Ademas con energia muy barata se podria volver poco costoso
energeticamente el reciclaje de materias primas, residuos urbanos,
residuos industriales, etc. Con lo que se resolveria el problema del
cambio climatico, contaminacion, etc.
Tambien se podria dar un salto a una agricultura 100% artificial que no
dependiera del clima. Invernaderos gigantescos bajo tierra con luz
artificial y climatizados producirian cosechas durante todo el año en
cualquier parte del mundo.
Tambien se revolucionaria las infraestructuras. Obras que hoy parecen
inasumibles como presas, canales, tuneles, puertos, islas artificiales,
ganar terreno al mar, etc podrian hacer realidad gracias a la abundante e
inagotable energia que produciria la fusion. Podriamos transformar el
planeta tierra al gusto de nuestra especie. Tomad nota ecologistas.
3- VACTRAIN
Esta tecnologia dependeria de las otras dos. Son trenes de levitacion
magnetica que van en tuneles en vacio que podrian alcanzar velocidades
de 6000km/hora. Si se hace la aceleracion y desacelaracion suave podria
valer para pasajeros y ciertas mercancias. Su ejecucion y funcionamiento
necesitaria grandes cantidades de energia que provendrian de la fusion
nuclear. Para su funcionamiento y seguridad se necesitarian complejismos
sistemas informaticos que con la computacion cuantica se podrian
resolver.
Vactrain - Wikipedia, the free encyclopedia A
vactrain (or vacuum tube train) is a proposed, as-yet-unbuilt design
for future high-speed railroad transportation. It is a maglev line run
through evacuated (air-less) or partly evacuated tubes or tunnels. The
lack of air resistance could permit vactrains to use little power and to
move at extremely high speeds, up to 4000–5000 mph (6400–8000 km/h, 2
km/s), or 5–6 times the speed of sound (Mach 1) at standard
conditions.[1] Though the technology is currently being investigated for
development of regional networks, advocates have suggested establishing
vactrains for transcontinental routes to form a global network.
Esta tecnologia revolucionaria el transporte y la distribucion de mercancias a escala global.
Las Fuerzas Armadas tienen previsto 'fichar' bajo la fórmula de
reservistas voluntarios a civiles expertos que quieran colaborar con el
Mando Conjunto de Ciberdefensa, de modo que puedan aportar sus
conocimientos informáticos para hacer frente ante cualquier tipo de
ataques a las redes y sistemas de información españoles.
El jefe del Mando Conjunto, general de Brigada del Ejército del Aire
Carlos Gómez López de Medina, ha explicado en un encuentro con
periodistas que el personal con el que contará la recientemente creada
unidad de Ciberdefensa estará formado fundamentalmente por militares
expertos en la materia, aunque también se prevé la contratación de
civiles.
¿Cuáles son los 50 descubrimientos más importantes de la historia?
La publicación The Atlantic preguntó a una docena de científicos,
historiadores y miembros del sector de la tecnología, que clasificaran
las innovaciones más importantes de la historia desde la rueda. Aquí
están los resultados:
1. La imprenta, 1430
Fue mencionada por 10 de nuestros 12 expertos, cinco de los cuales la
clasificaron entre los tres inventos más importantes de la historia.
Dyson escribe su invención como el punto de inflexión en el que el
“conocimiento comenzó a replicarse libre y rápidamente, y asumió vida
propia.”
2. Electricidad, siglo XIX
Y se hizo la luz y la mayoría del resto de la vida moderna.
3. Penicilina, 1928
Se descubrió accidentalmente en 1928, aunque los antibióticos no fueron
distribuidos de forma masiva hasta después de la Segunda Guerra
Mundial, cuando se convirtieron en la bala de plata de un gran número de
enfermedades que antes eran mortales.
4. Electrónica de semiconductores, mediados del siglo XX
Es la base física del mundo virtual.
5. Lentes ópticas, siglo XIII
La refracción de la luz a través del vidrio es una de esas ideas
simples que tardó inexplicablemente mucho tiempo en hacerse popular. Los
romanos tenían una industria del vidrio. Incluso un pasaje de Séneca
habla sobre los efectos ópticos de un cuenco de cristal de agua. Pero
fue siglos después que la invención de las gafas elevó drásticamente el
índice de inteligencia humana colectiva, y finalmente condujo a la
creación del microscopio y el telescopio.
6. El papel, siglo II
Las imágenes estampadas antes eran habituales, pero hasta la invención del papel, eran económicamente inasequibles.
7. El motor de combustión interna, a finales del siglo 19
La mezcla de aire y combustible sustituiría en el futuro la máquina de vapor.
8. Vacunas
El médico británico Edward Jenner usó la vacuna del virus de la viruela
para proteger contra la propia enfermedad en 1796, pero no fue hasta
que Louis Pasteur desarrolló una vacuna contra la rabia en 1885 que la
medicina y los gobiernos no comenzaron a aceptar la idea de que hacer
que alguien enfermara podría prevenir la enfermedad.
9. Internet, 1960
La infraestructura de la era digital.
10 La máquina de vapor de 1712
Suministraron energía a las fábricas, los trenes y los barcos lo que originó la Revolución Industrial.
11. La fijación del nitrógeno, 1918
El químico alemán Fritz Haber ganó el premio nobel por su desarrollo
del proceso de la síntesis del amoníaco, lo que se utilizó para crear
una nueva clase de fertilizantes que propició la revolución verde.
12. Los sistemas de saneamiento, mediados del siglo XIX
Una de las principales razones por la que vivimos 40 años más de lo que lo hacíamos en 1880.
13. Refrigeración, 1850
Descubrir cómo hacer frío iba a cambiar la forma de comer y vivir de
una manera casi tan profunda como el descubrimiento de la forma de
cocinar.
14. La pólvora, siglo X
15. El avión, 1903
Transformó los viajes, la guerra y nuestra visión del mundo
16. El ordenador personal, 1970
Aumentó considerablemente las capacidades humanas.
17. La brújula, siglo XII
Nos orientó, incluso en el mar.
18. El automóvil, a finales del siglo XIX
Transformó la vida cotidiana, de nuestra cultura y nuestro paisaje.
19. La fabricación del acero industrial, 1850
El acero producido en masa se convirtió en la base de la industria moderna
20. La píldora, 1960
Lanzó una revolución social
21. La fisión nuclear, 1939
Dio a los humanos un nuevo poder para la destrucción y la creación
22. La revolución verde, mediados del siglo XX
La combinación de tecnologías como los fertilizantes sintéticos y el
fitomejoramiento científico, incrementó enormemente la producción de
alimentos en todo el mundo. Norman Borlang, el economista agrícola que
ideó este enfoque, ha evitado que más de 1.000 millones de personas
pasaran hambre en el mundo.
23. El Sextante, 1757
Dibujó camino en las estrellas.
24. El teléfono, 1876 25. Alfabetización, primer milenio aC
Hizo el conocimiento accesible. Contribuyó al aumento de las sociedades
que utilizaron las letras fonéticas sobre aquellas que utilizaron las
ideográficas.
26. El telégrafo, 1837
Como afirmó Joel Mokyr: "Antes de la invención del telégrafo, la
información no podía moverse más rápido que un hombre a caballo"
27. El reloj mecanizado, siglo 15 28. Radio, 1906 29. Fotografía, principios del siglo 19 30. El arado de vertedera, siglo 18
El primer arado que no sólo cavaba el suelo sino que le daba la vuelta,
lo que permitía el cultivo en terrenos más difíciles. Sin él, la
agricultura tal como la conocemos no existiría en el norte de Europa o
el Medio Oeste americano.
31. El tornillo de Arquímedes, en el tercer siglo aC 32. La desmotadora de algodón de 1793
Institucionalizado la industria del algodón y la esclavitud en el Sur de América
33. La pasteurización en 1863
Una de las primeras aplicaciones prácticas de la teoría de los gérmenes
de Louis Pasteur. Este método usa el calor para esterilizar el vino, la
cerveza y la leche, y es ampliamente considerado como una de las
intervenciones de salud pública más eficaces de la historia.
34. El calendario gregoriano, 1582
Depuró el calendario juliano, saltándose 10 días para sincronizar el mundo con las estaciones del año.
35. Refino de petróleo, mediados del siglo 19
Sin ella, la extracción de petróleo no tendría sentido.
36. La turbina de vapor de 1884
Las turbinas son la columna vertebral de la infraestructura energética
de hoy: generan el 80 por ciento de la electricidad del mundo.
37. Cemento, primer milenio aC
El fundamento de la civilización. Literalmente.
38. Fitomejoramiento, 1920
Los seres humanos han estado manipulando las especies de plantas
durante casi tanto tiempo como las hemos cultivado, pero no fue hasta
que los científicos de principios del siglo 20 descubrieron un documento
de 1866 olvidado del botánico austriaco Gregor Mendel, que no nos
dimos cuenta de cómo el fitomejoramiento y, más tarde, la genética
humana, funciona.
39. Perforación de petróleo de 1859
Impulsa la economía moderna, estableció su geopolítica, y cambió el clima.
40. El velero, cuarto milenio aC
Transformado los viajes, la guerra, y nuestra visión del mundo.
41. Cohetes de 1926
"La única manera de salir del planeta - hasta ahora." - George Dyson.
42. El papel moneda, siglo 11
La abstracción en el núcleo de la economía moderna.
43. El ábaco, el tercer milenio aC
Uno de los primeros dispositivos para aumentar la inteligencia humana.
44. Aire acondicionado, 1902 45. Televisión, principios del siglo 20 46. Anestesia, 1846
En respuesta a la primera demostración pública del éter, Oliver Wendell
Holmes escribió: "El feroz extremo del sufrimiento ha sido sumergido en
las aguas del olvido, y los surcos profundos en la frente por la agonía
se han suavizado para siempre."
47. El clavo, segundo milenio aC 48. La palanca, el tercer milenio aC
Los egipcios aún no habían descubierto la rueda cuando construyeron sus
pirámides, que se cree que dependieron en gran medida de las palancas.
49. La línea de montaje de 1913
Cambió una economía basada en la artesanía a un mercado masivo.
50. La cosechadora, 1930
Mecanizó la granja, liberando la gente hacia nuevos tipos de trabajo.
Un grupo de 276 científicos de 12 países que trabaja en IceCube ha
detectado por primera vez neutrinos -un tipo de partículas subatómicas
que pueden generarse en el Sol, en fenómenos astrofísicos como el Big
Bang, el CERN o en las centrales nucleares- de alta energía que proceden
de más allá de nuestra galaxia.
«Este es el primer indicio de neutrinos de muy alta energía de fuera del
Sistema Solar», explicaba ayer Francis Halzen, investigador principal
de IceCube, profesor distinguido de Física en la Universidad de
Wisconsin-Madison y verdadero padre intelectual del proyecto. «Es muy
gratificante ver finalmente lo que hemos estado buscando. Este es el
comienzo de una nueva era para la Astronomía», sentenció.
HMS Ocelot (S17): un submarino diesel-eléctrico retirado del servicio en
1991. En la actualidad se encuentra anclado en el puerto histórico de
Gillingham, en el suroeste de Inglaterra.
Se puede visitar el interior del submarino completo con Google Street View en este enlace:
Un tranquilo día de 1898 los vecinos de varios bloques de edificios de
Manhattan de los concurridos barrios Chino e Italiano empezaron a
experimentar un temblor que pronto comenzó a sacudir todos los edificios
y romper cristales, provocando que la gente saliera asustada a las
calles de Nueva York. La policía, tras comprobar que el temblor se
circunscribía solo a aquella pequeña parte de la ciudad y sospechando de
quién podía ser el causante, enviaron a dos de sus agentes al número 46
de la calle East Houston. Justo antes de entrar en el edificio notaron
que el temblor cesaba, y al traspasar la puerta de un laboratorio, los
recibió un hombre alto y delgado, con bigote, elegantemente vestido, y
armado con un martillo, diciéndoles “Caballeros, lo siento. Han llegado
tarde para contemplar mi experimento. He visto necesario detenerlo de
forma súbita y inesperada… ” y añadió mirando el martillo “ y de una
forma inusual”. Este hombre era Nikola Tesla, el genial inventor que nos
dio, entre otras cosas, la corriente eléctrica alterna gracias a la
cual estás leyendo esto.
El causante de aquel incidente había sido un pequeño oscilador
electromecánico con el que Tesla estaba experimentando aquel día para su
investigación en la resonancia mecánica. Tras colocarlo sobre un pilar
de su laboratorio, la vibración provocada comenzó a extenderse por los
subterráneos del edificio hacia los edificios colindantes creando el
caos entre sus vecinos. Tan absorto y fascinado estaba que hasta que no
notó que todo su laboratorio estaba temblando no decidió finalizar el
experimento de forma contundente dándole un martillazo al oscilador.
Otro de sus experimentos se lo relataría algunos años después a un
periodista. Esta vez Tesla decidió experimentar fuera de su laboratorio y
tras localizar un edificio en construcción en el barrio de Wall Street,
que aún era un esqueleto de metal, colocó el oscilador sobre una de las
vigas y lo activó. En pocos minutos toda la estructura dediez pisos del
edificio empezó a vibrar, asustando a los trabajadores y provocando de
nuevo que la policía hiciera acto de presencia. Antes de que nadie se
pudiera dar cuenta de lo que pasaba, Tesla desactivó el dispositivo, se
lo guardó en el bolsillo y continuó su camino. En la misma entrevista el
inventor aseguró que en menos de una hora podría derribar el puente de
Brooklyn, y llego a afirmar que con una máquina adecuada y dinamita,
sería capaz partir la Tierra en dos. Esta claro que Tesla siempre
pensaba a lo grande.
No se sabe a ciencia cierta si estos episodios ocurrieron tal cual o
estaban magnificados por Tesla, aficionado a hacer grandes aseveraciones
sobre sus investigaciones, pero así nos lo relata Margaret Cheney en
una de las mejores biografías hechas sobre el inventor, Tesla: The Man
Out of Time, que tiene edición en español (prologada por uno de los fans
letales de Tesla que es Nacho de Microsiervos). En un episodio del año
2006 del programa Cazadores de Mitos intentaron reproducir el
experimento de varias formas, pero con el experimento final sobre el
puente Carquinez solo consiguieron provocar una vibración que se podía
sentir a cierta distancia, pero nada parecido a un terremoto. Si llegó a
crear o diseñar realmente aparatos con esa potencia, probablemente
nunca lo sepamos y quede como uno de los tantos misterios que rodean a
este genio.
Para aquellos que quieran intentar emular a Tesla, existe un libro con
el rimbombante titulo de Nikola Tesla’s Earthquake Machine: With Tesla’s
Original Patents Plus New Blueprints to Build Your Own Working Model,
que parece dar las claves para construirlo, pero creo que, salvo que te
creas las peregrinas teorías conspirativas sobre los terremotos
ocurridos los últimos años que circulan por la red, por ahora nadie lo
ha conseguido.
The USS Zumwalt getting a coat of paint at
Bath Iron Works. The ship is exotic in many ways, but it runs on
off-the-shelf computing technology.
General Dynamics Bath Iron Works
When the USS Zumwalt (DDG 1000)
puts to sea later this year, it will be different from any other ship
in the Navy's fleet in many ways. The $3.5 billon ship is designed for
stealth, survivability, and firepower, and it's packed with advanced
technology. And at the heart of its operations is a virtual data center
powered by off-the-shelf server hardware, various flavors of Linux, and
over 6 million lines of software code.
On October 10, I flew up to Rhode Island to visit Raytheon's Seapower
Capability Center in Portsmouth, where engineers assembled and
pre-tested the systems at the heart of the Zumwalt and are preparing to
do the same for the next ship in line, the USS Michael Monsoor—already
well into construction. There, Raytheon's DDG-1000 team gave me a tour
of the centerpiece of the ship's systems—a mockup of the Zumwalt's
operations center, where the ship's commanding officer and crew will
control the ship's sensors, missile launchers, guns, and other systems.
Over 20 years ago, I learned how to be a ship watch stander a few
miles from the Raytheon facility at the Navy's Surface Warfare Officer
School. But the operations center of the Zumwalt will have more in
common with the fictional starship USS Enterprise's bridge than it does
with the combat information centers of the ships I went to sea on. Every
console on the Zumwalt will be equipped with touch screens and software
capable of taking on the needs of any operator on duty, and big screens
on the forward bulkhead will display tactical plots of sea, air, and
land.
Perhaps it's appropriate that the first commanding officer of the
Zumwalt will be Captain James Kirk (yes, that's actually his name). But
considering how heavily the ship leans on its computer networks, maybe
they should look for a chief engineer named Vint Cerf.
Off the shelf and on the ship
Enlarge/ Data center in a box: Electronic Modular Enclosures being configured at Raytheon's Portsmouth, Rhode Island, facility.
In the past, you couldn't just put off-the-shelf computer systems
aboard a ship for mission critical tasks—when I was aboard the USS Iowa,
we had to shut down non-tactical systems before the guns were fired
because the shock and vibration would crash systems hard. So typically,
individual computer systems are ruggedized. But that adds heavily to the
cost of the systems and makes it more difficult to maintain them.
The design of the Zumwalt solves that problem by using off-the-shelf
hardware—mostly IBM blade servers running Red Hat Linux—and putting it
in a ruggedized server room. Those ruggedized server rooms are called
Electronic Modular Enclosures (EMEs), sixteen self-contained, mini data
centers built by Raytheon.
Measuring 35 feet long, 8 feet high, and 12 feet wide, the 16 EMEs
have more than 235 equipment cabinets (racks) in total. The EMEs were
all configured and pre-tested before being shipped to Bath, Maine, to be
installed aboard the Zumwalt. The EME approach lowered overall cost of
the hardware itself, and allows Raytheon to pre-integrate systems before
they're installed. "It costs a lot to do the work in the shipyard,"
said Raytheon's DDG-1000 deputy program manager Tom Moore, "and we get
limited time of access."
Each EME has its own shock and vibration damping, power protection,
water cooling systems, and electromagnetic shielding to prevent
interference from the ship's radar and other big radio frequency
emitters.
The EMEs tap into the Total Ship Computing Environment, the Zumwalt's
shipboard Internet. Running multiple partitioned networks over a mix of
fiber and copper, TSCE's redundantly switched network system connects
all of the ship's systems—internal and external communications, weapons,
engineering, sensors, etc.—over Internet protocols, including TCP and
UDP. Almost all of the ship's internal communications are based on Voice
Over IP (with the exception of a few old-school, sound-powered phones
for emergency use).
Enlarge/ A diagram of the Zumwalt's control systems and their connections to the Total Ship Computing Environment.
There's also some wireless networking capability aboard the Zumwalt,
but Raytheon officials giving me the tour were not at liberty to discuss
just what sort of wireless this is. Still, that capability is supposed
to allow for roving crew members to connect to data from the network
while performing maintenance and other tasks.
Systems that weren't built to be wired into an IP network—other
"programs of record" within the ship, which are installed across
multiple classes of Navy ships—are wired in using adaptors based on
single-board computers and the Lynx OS real-time Linux operating system.
Called Distributed Adaptation Processors, or DAPs, these systems
connect things like the ship's engineering systems, fire suppression
systems, missile launchers, and radio and satellite communications gear
into the network so they can be controlled by networked clients.
It looks like you want to launch a missile
Enlarge/
The mock-up of the Zumwalt's operations center at Raytheon's Portsmouth
facility, complete with haze-gray paint, has the exact dimensions of
the space on the ship itself. The Zumwalt will include a second level to
host the operations of units deployed with the ship.
Some of those networked clients were what I was looking at in the
mocked-up Zumwalt operations center. The operations center isn't just
where screens are watched and commands are shouted—the whole ship can be
practically run from the space, from guns and missiles to engines.
There's no "radio room" on the Zumwalt; all the communications are
managed from the operations center. The ship's guns are fully automated
and operated by an operations center watch stander instead of a gunner's
mate in the mount. Theoretically, the ship could even be steered from
the ops center—the ship is piloted by computer, not a helmsman. And all
of these tasks are performed from the same type of console.
Enlarge/
The Mark 57 vertical launch system, developed by Raytheon, can carry a
mix of anti-ship, anti-aircraft, and land attack cruise missiles. It
communicates with the operations center over the ship's network.
Called
the Common Display System, or CDS (pronounced as "keds" by those who
work with it), the three-screen workstations in the operations center
are powered by a collection of quad-processor Intel motherboards in an
armored case, which gives new meaning to the nautical phrase "toe
buster." Even the commanding officer's and executive officer's chairs on
the bridge have CDS workstations built-in.
Each CDS system can run multiple Linux virtual machines atop
LynuxWorx's LynxSecure, a separation kernel tthat has been implemented
in CDS as a hypervisor. This allows the workstation to connect
to various networks partitioned by security level and purpose. "Every
watch stander station runs out of the same box," Raytheon's DDG-1000
developer lead Robert Froncillo told me. "So they can sit at any CDS and
bring up their station."
This may not seem like a big deal to most people. But on past ships,
workstations tended to be purpose-built for a specific weapons system or
sensor. That meant every system had a different configuration and
interface, and you couldn't have a watch stander handle multiple tasks
without having to switch seats. The CDS workstation uses common USB
interfaces for its peripheral devices (such as trackballs and
specialized button panels) and is equipped with touchscreens, as well,
so that watch standers have a choice between "classic" and touch
interfaces.
That doesn't mean there's necessarily a "Clippy" to help new
operators master their systems. The Raytheon team has had sailors in to
perform usability assessments from before code was even written, showing
them screen shots of interfaces to get feedback from users. "We had a
chief that said, 'We don't want any 'wizards,'" said Froncillo.
A
digital illustration of how the Zumwalt's operations center will look,
complete with its second-level suite for hosting operations for air
detachments and other units deployed aboard.
Raytheon
Putting all of the pieces together is a collection of middleware
running on those IBM blade servers. Many of the shipboard systems use a
commercial publish/subscribe middleware platform to send updates to
operator consoles. But for other systems that need to be more tightly
coupled (like, for example, missile launch commands), the Navy has
specified the use of the Common Object Request Broker Architecture
(CORBA)—the military's favorite mission-critical middleware model. (The
software for the Joint Tactical Radio System's software-defined radios
was also developed using CORBA.)
The next release
Enlarge/ The Zumwalt bow-on at Bath Iron Works. DDG-1001, the USS Michael Monsoor, sits behind her, more than 60 percent complete.
The Zumwalt may not have sailed yet, but its software has already
shipped six times. When Release 5 was completed, Raytheon brought in
more sailors to test the system, tethering it to the company's Total
Ship System Simulator to run through a number of combat scenarios. "We
did antisubmarine warfare, air, and land attack missions," Froncillo
said. The lessons learned were incorporated into release 6, and 7 will
be installed on the ship before the ship's "shakedown" cruise. Another
upgrade will be installed post-delivery, and continual improvements will
be made as the software is deployed to the other two ships in the
class.
But the life of the technology being deployed on the Zumwalt won't
end there. CDS will be used as part of the Navy's Aegis Modernization
Program to upgrade the systems of the fleet's guided missile cruisers
and destroyers. "And there are a lot of things we're developing that
will be reused," Moore said.
Considering how much has been spent over the past decade trying to
get the Zumwalt built, and the other technologies that were developed in
the process, one can hope that more than just the software gets some
reuse.
Aunque las primeras bases teóricas de la electricidad inalámbrica proceden de principios del siglo XIX, con la demostración de los campos magnéticos generados a partir de la corriente o la formulación de la ley de inducción, fue Nikola Tesla el primero en aplicar estos conocimientos, dando vida a experimentos donde la energía se transportaba sin cables.
Se bautizó a esta tecnología, que ha sobrevivido al paso del tiempo, en parte, como un mito, como el efecto Tesla, cuya manifestación más utópica en el pensamiento del inventor de origen serbio planteaba la posibilidad de surtir de energía a todo el planeta como si se tratase de una red wifi universal. La falta de financiación lastró aquel colosal proyecto, pero el sueño de Tesla se ha mantenido vivo desde entonces, generando a lo largo del siglo XX una bibliografía científica inabarcable que en los últimos años ha comenzado a cristalizar en aplicaciones reales.
La falta de financiación lastró el proyecto, pero el sueño de Tesla se ha mantenido vivo, generando a lo largo del siglo XX una amplia bibliografía científica que en los últimos años ha comenzado a cristalizar en aplicaciones realesQuizás la innovación más popular es el denominado estándar Qi, una tecnología auspiciada por Wireless Power Consortium, y que ha dado lugar a una generación de cargadores de inducción que, aunque de momento cuentan con una potencia limitada (5W) que impide la carga de dispositivos con altas necesidades energéticas, funciona con éxito.
No obstante, la aplicación de Qi hace necesario el contacto entre el dispositivo y una base de carga, igual que ocurre con el estándar A4WP, desarrollado por el consorcio Alliance for Wireless Power, del que forman parte -entre otros muchos- Samsung, Broadcom o Qualcomm; y que en su caso aplica la tecnología de resonancia magnética de campo cercano.
El sistema Cota
Precisamente, una de las ventajas principales de las tecnologías anteriores es la gran cantidad de empresas que forman parte del movimiento, permitiendo una carrera constante de innovación que fructifica en una normalización de la que, finalmente, se benefician los usuarios.
Algo que todavía no ocurre con el sistema Cota, lanzado este mismo año por la startup norteamericana Ossia. Se trata de una tecnología revolucionaria que consiste -con elementos similares a las conexiones wifi- en la integración de un cargador y un receptor para conectar el flujo de electricidad a cualquier dispositivo de forma inalámbrica.
La compañía comenzó a desarrollar la tecnología, prácticamente en secreto, en 2006, y a día de hoy su camino parece imparable, después de haber recibido una inyección de 3,2 millones de euros en una ronda de financiación. Apostamos a que no será la única. En el caso de Cota no es necesario el contacto con ninguna base de carga: su alcance es superior a los diez metros y puede alimentar hasta 30 dispositivos al mismo tiempo. A priori, parece el sistema idóneo para llevar la electricidad inalámbrica al hogar a corto plazo.
Autopistas con electricidad
No es casualidad que una de las startups llamadas a marcar el paso del futuro lleve el nombre del inventor. Si Tesla Motors se encuenta hoy por hoy en la vanguardia tecnológica de los vehículos eléctricos, la firma Qualcomm, por su parte, lidera la carrera de innovación en el ámbito del suministro energético de este tipo de vehículos. Recordemos, además, que el almcaneamiento de energía está llamada a ser una de las tecnologías que generen mayor volumen de negocio en 2025.
En la actualidad, existen sistemas que permiten recargar un coche eléctrico de forma inalámbrica colocándolo sobre una plataforma, de un modo similar al sistema para cargar los móviles y tablets a través de Qi o A4WP.
Más allá de esto, Qualcomm ha desarrollado un revolucionario sistema capaz de cargar un coche en movimiento, sentando las bases de lo que pueden ser las autopistas del futuro, donde el pavimento estaría dotado de un sistema capaz de alimentar los vehículos en ruta. Combinando este tipo de tecnología con la del pavimento inteligente, cuyo objetivo último es absober la energía del propio tráfico, podemos imaginar el sistema más eficiente y ecológico del mundo.
De momento, la tecnología Qualcomm Halo se probará a lo grande en 2014 en una competición automovilística, también organizada por la FIA, que llevará el nombre de Fórmula E, un campeonato que recorrerá diez ciudades del mundo y en el que participarán exclusivamente coches eléctricos, que en su caso pueden alcanzar velocidades superiores a los 220 kilómetros por hora.
Una tecnología emergente
El hecho de que el estudio considerado como el definitivo, hasta el momento, en el ámbito de la electricidad inalámbrica, proceda del reciente 2007, ejemplifica que se trata de una tecnología todavía en ciernes. Hablamos del trabajo de varios investigadores del Massachusetts Institute of Technology (MIT) difundido por la revista Science.
El hecho de que el estudio considerado como el definitivo, hasta el momento, en el ámbito de la electricidad inalámbrica, proceda del reciente 2007, ejemplifica que se trata de una tecnología todavía en ciernesEn este artículo se acuñó el término witricity (witricidad), hoy una marca registrada de la empresa WiTricity, de Eric Giler, quien se ha convertido, a su manera, en una especie de Nikola Tesla moderno, siendo habituales sus demostraciones públicas, igual que el inventor serbio, sobre el funcionamiento de la electricidad sin cables. Una de sus exhibiciones más famosas ocurrió en 2009, en Oxford, donde usó su tecnología para encender un televisor y tres teléfonos móviles.
Contra todo lo anterior, la base filosófica de Nikola Tesla consistía en crear un sistema global de energía eléctrica gratuita que abarcase todo el proceso, desde la generación de la energía a su distribución, pero según los sistemas actuales parece improbable que esta tecnología pueda saltar por encima de los proveedores habituales y su sistema de tarificación del consumo.
Hoy, Marte es un mundo desierto, frío y estéril, sin
ningún signo de vida, al menos en la superficie. Sin embargo, miles de
millones de años atrás, cuando el planeta rojo era joven, podría haber
tenido una atmósfera densa lo suficientemente caliente para albergar
océanos de agua líquida -un ingrediente esencial para la vida-.
El agua líquida no puede existir en la superficie de Marte en la
actualidad debido a la baja presión atmosférica y a la temperatura de la
superficie, aunque hay evidencia de regueros de flujo líquido que
podrían responder a una solución salada ligeramente congelada, según
relata Joseph Grebowsky, del Centro Goddard de Vuelos Espaciales de la
NASA. El agua en las actuales condiciones atmosféricas de Marte puede
ser hielo o estar sublimada directamente en vapor, sin estar en una fase
líquida.
El vídeo muestra cómo podría haber sido la superficie de Marte durante
este período antiguo, clemente atmosféricamente, mostrando, en el inicio
del mismo, lo que pudo haber sido un lago marciano.
El concepto del autor de la recreación visual se basa en la evidencia de
que Marte una vez fue muy diferente. Las características superficiales y
composiciones minerales sugieren que el antiguo Marte tenía una
atmósfera más densa y agua líquida en su superficie, según Grebowsky.
"Hay característicos canales dendríticos estructurados que, al igual que
en la Tierra, cuadran con la erosión de la superficie que provocan las
corrientes de agua. Los interiores de algunos cráteres de impacto tienen
cuencas que sugieren lagos de cráter, con muchos canales de conexión
que albergaban flujos de agua dentro y fuera del cráter. Pequeños
cráteres de impacto se han eliminado con el tiempo y cráteres más
grandes muestran signos de la erosión por el agua de hace 3.700 millones
años. Y la estratificación sedimentaria se puede ver en las paredes del
valle. Los minerales que están presentes en la superficie, hematita y
arcillas, solo se pueden producir gracias a la presencia de agua
líquida", explica Grebowsky.
Un equipo de científicos del Hospital de Niños de Boston han inventado
lo que se considera uno de los grandes avances médicos en los últimos
años. Ellos han diseñado una micropartícula que se puede inyectar en la
corriente sanguínea de una persona que rápidamente puede oxigenar la
sangre.
Esto es muy útil si la capacidad de respirar se ha limitado, o incluso se corta por completo.
Este descubrimiento tiene el potencial de salvar millones de vidas cada
año. Las micropartículas pueden mantener vivo una persona en un máximo
de 30 minutos después de la insuficiencia respiratoria. Se logra a
través de una inyección en las venas de los pacientes. Una vez
inyectado, las micropartículas pueden oxigenar la sangre a niveles casi
normales.
Tiene innumerables usos potenciales, ya que permite que la vida continúe
cuando se necesita oxígeno, pero no está disponible. Para el personal
médico, se trata del tiempo suficiente para evitar el riesgo de un
ataque cardíaco o una lesión cerebral permanente cuando el oxígeno se
limita o se corta a los pacientes.
El Dr. John Kheir, que comenzó el estudio, trabaja en el departamento de
pediatría del Hospital de Boston en Cardiología. Encontró la
inspiración para la droga en 2006, cuando él estaba tratando a una chica
en la UCI, que tenía un caso de neumonía severa. En ese momento, la
chica no tenía un tubo de respiración, cuando en el momento en que ella
sufría de una hemorragia pulmonar. Esto significa que sus pulmones
habían comienzan a llenarse de sangre, y finalmente sufrió un paro
cardíaco. Tomó médicos unos 25 minutos para eliminar suficiente sangre
de los pulmones para que le permita respirar. Sin embargo, el cerebro de
la niña fue gravemente herido debido a la privación de oxígeno durante
tanto tiempo y que finalmente murió.
Científicos
mexicanos desarrollaron un prototipo de refrigerador revolucionario
donde aplicaron un concepto de la física originado hace 300 años. A lo
largo de casi cinco años, investigadores del Centro de Investigación en
Materiales Avanzados (Cimav) han trabajado en este sistema que no emplea
compresores ni gases refrigerantes, principio utilizado desde mediados
del siglo XIX, sino del efecto magnetocalórico, que es la variación de
la temperatura de un material magnético cuando se aplica o retira un
campo magnético.
La clave del proyecto está en las propiedades de ese material, “puesto
que hasta ahora no se habían podido desarrollar aquellos con capacidad
de disminuir la temperatura en unos 35 grados Celsius”, señala Jesús
González Hernández, director del Cimav.
Pero los investigadores de la institución, centro Conacyt con sede en
Chihuahua, trabajaron en una mezcla de materiales capaz de llegar por
debajo de los cero grados desde una temperatura ambiente. “Son una
mezcla de 7 materiales, entre ellos manganeso, estroncio y oxígeno, con
partículas nanométricas que potencian la propiedad magetocalórica”,
añade el doctor en física.
Un refrigerador común tiene un compresor con un gas refrigerante que
bombea a áreas que se busca enfriar. Estos gases pueden ser nocivos
cuando se liberan al medio ambiente y todo el sistema puede consumir, en
promedio, 200 watts de energía. El refrigerador magnético sólo
emplearía 8 watts, carecería de gases, compactaría el espacio diseñado
para compresor y además no emite ruido alguno.
MERCADO. El proyecto surgió debido a un intercambio académico con
científicos de Irlanda, donde se han hecho avances importantes en el
área. El proyecto en el Cimav ha sido coordinado por el investigador
José Matutes.
El prototipo fue obtenido en conjunto con una empresa del estado y ahora
el centro está en pláticas con Mabe y General Electric, quienes están
interesadas en desarrollar la tecnología, refiere González Hernández.
“Ahora trabajamos en el diseño final, que no sería más que el de una
caja común de refrigerador; el asunto es que sea competitivo y el precio
de producción tenga ventajas. Esperaríamos que este tipo de tecnología
esté disponible en el mercado en, aproximadamente, cinco años”.
Ahora mismo, añade, podrían hacer uno de tipo comercial, pero los
científicos buscan optimizar su “licuado” de materiales y procesos, para
desarrollar un producto que no pueda ser superado en los próximos años.
“Tenemos que optimizar los materiales porque otros grupos pueden intuir
el concepto, por lo que debemos llevarlo a un nivel más de maduración”.
En
un reciente evento de Nvidia, John Carmack, conocido por su trabajo en
id Software, y ahora en Oculus Rift, el veterano desarrollador predijo
un enorme salto en las GPUs –unidades de procesamiento gráfico– durante
los próximos cinco años.
Carmack cree que en estos cinco años, las GPUs decuplicarán su
rendimiento, estandarizando la resolución en 4K, resolución que, según
él, llegarán a las tabletas y a cascos de realidad virtual.
"Hay un billón de dólares haciendo que avancen [las GPUs], y va a ser
genial estar más o menos metido en el mundillo, buscando las áreas
interesantes de los sistemas, donde hay una convergencia entre lo que es
posible ahora, lo que la gente quería antes, como un tipo de pilar de
donde la auténtica innovación saldrá", comenta.
Por último, Carmack comenta que es difícil predecir qué pasará más
adelante de esos cinco años, y ejemplifica el salto tecnológico con la
película Tron, considerada un referente hace 30 años, y que ahora
calificaría de "patéticamente simple".
1. Universos infinitos:"Algunos de estos gemelos estarán haciendo
exactamente lo mismo que nosotros hacemos en este instante, mientras que
otros estarán usando un atuendo distinto al nuestro, y otros ya habrán
escogido diferentes opciones de carrera y vida".
2. Universos burbuja:"En algunos de estos universos burbuja, las leyes
de la física y las constantes fundamentales podrían ser distintas a las
nuestras, dando como resultado lugares bastante extraños".
3. Universos paralelos:"Brian Green, físico de la Universidad de
Columbia, describe la idea como la noción de que “el universo es uno de
los potencialmente numerosos “bloques” que flotan en un espacio de más
dimensiones, como una rodaja de pan dentro de una grandiosa hogaza
cósmica,” en su libro “The Hidden Reality” (“La Realidad Oculta,”
Vintage Books, 2011).
Ahondando más en esta teoría se tiene que estos universos-brana no son
siempre paralelos ni están separados entre sí. En ocasiones podrían
colisionar uno con otro, generando repetidos Big Bangs que reiniciarían
los correspondientes universos una y otra vez.
4. Universos hijo
La teoría de la mecánica cuántica, cuyo dominio es el pequeño mundo de
las partículas subatómicas, muestra otra manera con la que podrían
aparecer múltiples universos. La mecánica cuántica describe el mundo en
términos de probabilidades en lugar de resultados concretos. Las
matemáticas de esta teoría podrían sugerir que todos los posibles
resultados de una situación, ocurren — cada uno en un universo propio.
Por ejemplo, si llegásemos a un cruce en donde podemos elegir entre ir
hacia la derecha o a la izquierda, el universo actual daría lugar a dos
universos hijos: en uno de ellos iríamos hacia la derecha, mientras que
en el otro la elección sería la izquierda.
“Y en cada universo hay una copia tuya presenciando uno de los dos
resultados, pensando — erróneamente — que esa realidad es la única
realidad,” escribió Greene en The Hidden Reality.
5. Universos matemáticos
Los científicos han debatido acerca de si las matemáticas son
simplemente una herramienta útil para describir el universo, o si la
matemática por sí misma es la realidad fundamental y nuestras
observaciones del universo son sólo percepciones imperfectas de su
verdadera naturaleza. Si este último fuera el caso, entonces quizás la
particular estructura matemática que conforma nuestro universo no sea la
única opción, y efectivamente todas las posibles estructuras
matemáticas existan como sus propios universos.
“Una estructura matemática es algo que puedes describir de una manera
completamente independiente al equipamiento humano,” comentó Max Tegmark
de MIT, quien propuso esta alborotadora idea. “De verdad creo que hay
un universo allá afuera, capaz de existir independientemente de mí, y
que seguiría existiendo incluso si no hubiera humanos.”
y una cosa es "sincronizar", y otra lo que acaba llegando.. hay la ligera sospecha que ésta estadística es ligeramente optimista; la situación real es mucho peor..
El 29% de la población no puede sincronizar a 10 Mbps
La Secretaría de Estado de Telecomunicaciones y para la Sociedad de
la Información (SETSI) ha publicado su segundo informe semestral con el
que monitoriza los progresos realizados en España para alcanzar los
objetivos de la Agenda Digital en cuanto a la banda ancha.
Según sus datos, el 59% de la población ya tiene la posibilidad de
conectarse a 30 Mbps y el 52% puede hacerlo a 100 Mbps. Esto es posible
gracias a la cobertura de las redes VDSL, que llega al 12%, el cable,
con un 47% de cobertura, y el FTTH con el 14%.
En el informe también aparece la cobertura mediante HSPA, que llega a
un 99% de la población, y del ADSL con 10 Mbps de velocidad, disponible
para el 71% de los usuarios. Esto significa que hay un importante
sector de la población, del 29%, que bien por no tener cobertura ADSL o por encontrarse a demasiada distancia de su central, no puede sincronizar ni siquiera a 10 Mbps.
La comunidad líder en cobertura VDSL 30 Mb es Extremadura, mientras que Madrid y Cataluña tan solo cuentan con un 7,7 y 10,6 % respectivamente.
En cable, son los territorios naturales de los cableros los que
cuentan con mejor cobertura, liderados por el País Vasco, donde el 90,4 %
de los habitantes puede conectarse a la red de cable.
La fibra hasta el hogar se concentra en Canarias (20,5%), Cataluña (25,5) y Madrid, donde más de la mitad de la población (51,5%) ya tiene cobertura FTTH.
Aquí todas las gráficas de interés: ADSL hasta 10 Mbps VDSL hasta 30 Mbps HFC FTTH HSPA/HSPA+ Combinación VDSL30 + FTTH + HFC Combinación FTTH + HFC
Los seres humanos no paramos de observar vídeos y fotografías de gatos. Un artista norteamericano ha recreado cómo estos animales nos ven a nosotros y al mundo que nos rodea.
Internet es un territorio completamente dominado por los gatos.
Los seres humanos nos podemos pasar horas viendo vídeos de estos
animales haciendo cualquier tipo de cosa. Ha llegado el momento de darle
la vuelta a la tortilla y saber como estos felinos ven el mundo.
Un artista norteamericano ha recopilado los datos necesarios y se ha
ofrecido voluntario para recrear unas imágenes que sirvan de ejemplo.
Este experimento se lo tenemos que agradecer a Nickolay Lamm, quien ha tenido que ponerse en contacto con oftalmólogos y veterinarios
para poder conseguir la mayor cantidad de datos y utilizarlos en su
obra. El resultado es muy interesante y deja imaginarnos cómo estos
animales podrían ver el mundo que les rodea.
Para empezar, debemos saber que el campo de visión
de los gatos es más amplio que el de los seres humanos, abarcando
aproximadamente los 200 grados en vez de nuestros 180 grados. Esto hace
que los humanos podamos ver objetos de una manera definida a una
distancia de entre 30 y 60 metros y los gatos no. Esto tiene una
contrapartida: debido a los fotorreceptores que los gatos tienen en su
retina, pueden ver muchísimo mejor en escenas de poca luminosidad (hasta
seis veces mejor), algo que me recordó a la cámara ultrapíxel del HTC One.
En cuanto a la percepción de colores, también hay
muchas diferencias. Tal y como se puede ver en las imágenes, perciben
los colores menos vibrantes que nosotros. Los científicos pensaban en un
primer momento que los gatos eran dicromáticos (capaces de ver dos
colores a la vez), al parecer no es del todo cierto ya que recientes
estudios afirman que perciben el color verde y son sensibles a
longitudes de onda en el rango azul-violeta y amarillo-verde.
Como podemos observar, las diferencias son notorias y cada una tiene
sus ventajas. De todos modos, exceptuando escenas nocturnas o que son capaces de ver los movimientos rápidos más lentos,
creo que salimos ganando los humanos. Observando las imágenes de
Nickolay Lamm parece que los gatos perciben el mundo en un constante
estado de embriaguez.
El Instituto Tecnológico de Massachusetts nos regala otro de esos
inventos que parecen casi brujería. Se trata de una pulsera
termoeléctrica que engaña al organismo para que no sienta frío o calor
aunque, de hecho, haga frío o calor.
El invento se llama Wristify, y es bastante sencillo en apariencia. Se
basa en el hecho de que, aplicando calor o frío repentinos sobre ciertas
partes del cuerpo con una gran afluencia de sangre, como la muñeca, se
puede modificar hasta cierto punto la forma en la que el organismo
percibe el calor ambiental.
Lo que hace la pulsera es monitorizar la temperatura corporal y enviar
variaciones muy rápidas, pero imperceptibles, de calor o frío a un ritmo
de 0,4 grados celsius por segundo. De esta forma, el cuerpo no siente
tanto las variaciones de temperatura y se mantiene en una zona de
confort. Una batería de ion-litio mantiene en funcionamiento la pulsera
durante ocho horas sin recargar.
Wristify ha ganado el primer premio MADMEC de ciencia y diseño de
materiales del MIT, dotado con 10.000 dólares, y ya tiene un prototipo
funcional. Sus creadores la han concebido con un motivo muy concreto: el
ahorro energético. Una gran parte del consumo eléctrico se debe a los
sistemas de calefacción y aire acondicionado. La pulsera podría ayudar a
ahorrar millones de dólares manteniendo a los inquilinos de un edificio
en una zona de equilibrio térmico sin necesidad de alterar la
temperatura tan drásticamente. [MITnews vía Popular Science]