20130625

Descubren tres supertierras en zona habitable

Descubren tres supertierras en zona habitable



Un equipo de astrónomos del Observatorio Europeo Austral (ESO) han desvelado que la estrella Gliese 667C es un sistema de seis planetas, y no de tres como se creía hasta ahora. Además, se ha descubierto que la mitad de sus planetas son 'Súper-Tierras' situadas en la zona que rodea a la estrella determinada como "habitable".

Las observaciones se han realizado con el instrumento HARPS, instalado en el telescopio de 3,6 metros de ESO, en Chile. Los expertos han estado estudiando a Gliese 667C, una estrella que tiene solo un tercio de la masa del Sol y forma parte de un sistema estelar triple conocido como Gliese 667 y que se encuentra a 22 años luz de distancia, en la constelación de Scorpius (El Escorpión).

Se encuentra bastante cerca de la Tierra, en la vecindad solar, "mucho más cerca que otros sistemas estelares estudiados con otros telescopios como el telescopio espacial Kepler", han apuntado desde ESO.

Estudios anteriores sobre Gliese 667C descubrieron que la estrella alberga tres planetas (eso0939, eso1214) y uno de ellos se encuentra en la zona de habitabilidad. Ahora, el número total ha aumentado a seis y dos de los nuevos planetas llenan por completo la zona de habitabilidad de Gliese 667C.

"Sabíamos, por estudios previos, que la estrella tenía tres planetas, y queríamos ver si podía tener alguno más", ha explicado uno de los autores principales de este trabajo,Mikko Tuomi, quien ha explicado que, "sumando algunas observaciones nuevas y revisando datos anteriores se ha logrado confirmar estos tres planetas, con la confianza de encontrar alguno más". "¡Ha sido muy emocionante encontrar tres planetas de baja masa en la zona de habitabilidad de la estrella!", ha añadido.

Así, se ha confirmado que tres de esos planetas son 'Súper-Tierras' --planetas más masivos que la Tierra, pero menos masivos que planetas como Urano o Neptuno-- y que se encuentran dentro de la zona de habitabilidad de su estrella, una limitada zona alrededor de la estrella en la cual el agua puede estar presente en forma líquida, si las condiciones lo permiten. Se trata de la primera vez que tres planetas de este tipo se localizan orbitando esta zona al mismo tiempo.

"El número de planetas potencialmente habitables en nuestra galaxia es mucho mayor de lo que podríamos pensar si tenemos en cuenta que podemos encontrar varios de ellos en torno a cada estrella de baja masa. En lugar de buscar diez estrellas para encontrar un único planeta potencialmente habitable, ahora sabemos que podemos buscar tan solo una estrella y encontrar varios planetas", ha indicado el coautor Rory Barnes.

ABUNDANTES SISTEMAS COMPACTOS EN LA VÍA LÁCTEA

Se ha descubierto que los sistemas compactos alrededor de estrellas tipo Sol son abundantes en la Vía Láctea. En torno a dichas estrellas, los planetas que orbitan cerca de su estrella anfitriona son muy calientes y difícilmente podrían ser habitables. Pero no ocurre lo mismo con estrellas más frías y tenues como Gliese 667C.

En este caso la zona de habitabilidad se encuentra totalmente integrada en una órbita del tamaño de la de Mercurio, mucho más cerca de la estrella que en el caso de nuestro Sol. El sistema Gliese 667C es el primer ejemplo de un sistema en el que una estrella de baja masa alberga varios planetas potencialmente rocosos en la zona de habitabilidad, según han indicado los expertos.

20130624

Cómo mejora el consumo energético de OS X 10.9

Cómo mejora el consumo energético de OS X 10.9

Centro de notificaciones, Apple Maps, pestañas en el Finder, nuevo Safari, pantallas múltiples, integración con Twitter, iBooks, animaciones bonitas, stunning, amazing, beautiful… realmente más que jugosas novedades, lo que nos dejó la WWDC 2013 fue fríos e indiferentes. Nos presentaron lo mismo de siempre, lo esperado, e intentaron vendérnoslo como si fuese una revolución. Sin embargo, lo que sí me llamó la atención fue la mejora de consumo energético de OS X 10.9, bautizado como Mavericks rompiendo con la tradición de la nomenclatura felina. En los únicos detalles en los que entró la compañía de la manzana sobre esto fueron en los de siempre: “mirad qué geniales somos y lo que hemos hecho”.
mac-book-pro-mavericks
¿Pero cómo lo han hecho? Me sorprende que no se haya hablado apenas de ello, pero quizá sea consecuencia de que no sea un tema fácil de explicar de una manera sencilla. Para entenderlo, hay que buscar una documentación un poco más técnica que los brillantes mundos de Oz que nos vende Apple en su página oficial. Yo lo he hecho, y aquí os traigo el resultado. La mayoría de los enlaces conducen a Wikipedia, donde podréis ampliar información si hay algún concepto sobre el que queráis profundizar.

Timer Coalescing

En tu ordenador ahora mismo hay un montón de procesos funcionando. Es decir, un montón de código en ejecución, para lo cuál necesita básicamente dos cosas. Memoria, en la cual guardar no sólo el código sino los datos sobre los que se trabaja, y una CPU o procesador que ejecute este código. Y esto es así, ya sea en OS X o en el Minix de Tanenbaum. Pero una CPU sólo puede ejecutar un proceso al mismo tiempo, y nosotros tenemos la sensación de que en el ordenador pasan muchas cosas de manera simultánea. Mientras escribimos podemos estar escuchando música y bajando algún archivo de Internet. ¿Cómo es esto posible? Repartiendo el uso de la CPU de manera muy rápida entre los distintos procesos de una manera más o menos equitativa. Así, aunque la sensación es de que todo funciona a la vez, en realidad cada proceso avanza un poquito cada unidad de tiempo (por ejemplo, cada millonésima de segundo). El encargado de que cada proceso pueda ejecutarse en la CPU en un plazo de tiempo razonable es otro programa, construido directamente en lo más profundo del Sistema Operativo, llamado Planificador de CPU. De entre los procesos que están esperando en una cola a ejecutarse escoge uno, le da un poco de tiempo de ejecución y después lo echa para que otro pueda entrar.

planificacion-procesos

Esta teoría es válida tanto si tenemos un procesador como si tenemos 8. Por supuesto, si tenemos 8 entonces sí podremos realmente hacer ocho cosas de manera simultánea, y es aquí donde actúa OS X 10.9 para mejorar el consumo de energía. Ejecutar una instrucción requiere electricidad, y mantener continuamente todas las CPU ocupadas, mucha más. El nuevo planificador intenta mantener simultáneamente tantos procesadores como sea posible inactivosidle, y cuando no se pueda retrasar más la planificación, se intentarán ejecutar simultáneamente tantos procesos como podamos. Si a esto le sumamos retrasar tareas del Sistema Operativo tales como la búsqueda de actualizaciones o la escritura en disco retardada, tendremos Timer Coalescing, un concepto que no es nuevo (ya lo trajo Microsoft en 2009, aunque tampoco fuese nuevo por aquel entonces), pero que hace aparición por primera vez en OS X. Los siguientes gráficos ilustran el concepto.

timer-coalescingA la izquierda, sin Timer Coalescing. A la derecha, con él.

Se puede apreciar (aunque seguro que edulcorado por Apple, pues los gráficos están sacados de su documentación oficial) la reducción del consumo cuando ordenamos los procesos para que se ejecuten a la vez.

App Nap

Si bien el nuevo planificador de CPU de OS X 10.9 me parece la piedra angular de la nueva política de gestión energética, en Apple a lo que más bombo han dado ha sido a App Nap. Quizá porque sea lo más sencillo de explicar al gran público. Si Time Coalescing se encargaba del cuando, App Nap se encarga del cómo pasan los procesos por la CPU.
  • Reducción del temporizador: la frecuencia con la que un proceso se ejecuta, si este proceso no está al cuidado de algo que el usuario esté usando (por ejemplo, si tenemos su aplicación en el foco, o este proceso no se encarga de reproducir audio), se reduce. Es decir, deja de avanzar al mismo tiempo que los demás. Mirando la gráfica antes expuesta, el proceso D se ejecuta con menos frecuencia que el B.
  • Reducción de la entrada/salida: se reduce la frecuencia (y la prioridad) con la que un proceso en modo Nap puede leer o escribir en el disco duro, con el consiguiente ahorro energético.
  • Reducción de la prioridad: la prioridad de procesos es una característica heredada de UNIX, el corazón de OS X. Los procesos con prioridad alta una vez que consiguen la CPU para ellos la pueden retener más tiempo que los procesos con prioridad más baja. Si sumamos la reducción de prioridad a la reducción del temporizador, conseguimos que un proceso no solo tenga el procesador para él menos veces, sino que cuando lo tenga, lo deba liberar mucho más rápido. En el gráfico ya expuesto, los procesos con más prioridad tienen las bandas grises más anchas que aquellos con menos.

Memoria comprimida

Si tras aplicar Timer Coalescing y App Nap un proceso sigue teniendo que ejecutarse, requerirá no solo CPU sino memoria, donde guarda los datos que necesite. Sin embargo, hay procesos que pueden requerir más memoria de la que realmente tenemos, o puede que un proceso lleve tanto tiempo sin requerir una determinada parte de su memoria que la hayamos liberado para dársela a otro. En estos casos necesitaremos echar mano del gran almacén de datos, el disco duro. Pero esto es energéticamente costoso, pues primero tendremos que conseguir memoria (RAM) libre, quizá escribiendo lo que ahí se encontrase en el disco duro para no perderlo, y luego leer de este último y copiar los datos a memoria. La memoria comprimida trata de reducir las lecturas en el disco duro, comprimiendo los datos que no se estén usando para dejar hueco y descomprimiéndolos cuando sea necesario.
Antes y después de comprimir memoria.
Antes y después de comprimir memoria.
Esto, sumado a un algoritmo de compresión rápido, nos ahorrará energía ahorrándonos costosas lecturas de disco. Por poner un ejemplo, suponiendo que OS X 10.9 sea capaz de comprimir los datos a la mitad de su tamaño, con 8GB de memoria RAM podríamos obtener casi el mismo rendimiento que con 16GB. Por supuesto esto sería una situación ideal, pero espero que el concepto se entienda.

Básicamente la forma en la que se ahorra energía, tal y como era de esperar, es haciendo menos cosas, eso sí, sin que el usuario se vea afectado por ello. Quizá ninguno de los tres conceptos presentados sean novedosos en el campo de los Sistemas Operativos, pero sí me parece un gran paso por parte de Apple incluirlos por fin en la informática de consumo. Una cosa en particular (de tantas otras) que me saca de quicio de Windows es lo que hace cuando no estoy usando el ordenador. Podréis observarlo si dejáis solo a vuestro PC un rato. Se pone a leer y escribir en el disco duro como un loco, moviendo datos para que su lectura sea más rápida y creando y actualizando índices para mejorar la búsqueda. Si el ordenador es un sobremesa esto, dentro de lo que cabe, no es un inconveniente, pero cuando estoy con el portátil la batería se va volando. Y esto no sucede con prácticamente ninguna distribución de GNU/Linux. Por lo que, por lo que a mí respecta, estoy deseando que características como App Nap y Timer Coalescing aparezcan en el núcleo de Linux lo antes posible-

Espero que este artículo haya servido para despejar dudas y ampliar conocimientos, y que hayáis disfrutado leyéndolo tanto como yo escribiéndolo. Si queréis seguir profundizando sobre las tecnologías que incluye el núcleo de OS X, os dejo un enlace a una documentación un poquito pesada.

OS X Mavericks – Core Technologies Overview


Actualización (24/06/2013 12.54h): añadida información sobre el origen de Timer Coalescing, gracias al lector neu__.

20130622

¿Por qué un trozo de cuarzo es capaz de mantener los relojes en hora?

¿Por qué un trozo de cuarzo es capaz de mantener los relojes en hora?



A pesar de que a día de hoy existen personas que usan el cuarzo para actividades tan pueriles como quitarse el dolor de cabeza, los científicos han empleado el cuarzo para cosas más útiles y reales: mantener en hora un reloj con mayor precisión.

Esto es posible gracias al efecto piezoeléctrico del cuarzo y otros cristales, descubierto en 1927 por el ingeniero Warren Marrison de Bell Laboratories. Este efecto consiste en que, cuando se comprimen o estiran determinados tipos de cristal, sus átomos producen un campo eléctrico.

Para los relojes de cuarzo, se emplea una parte diferente de dicho efecto: la aplicación de campo eléctrico al cristal logra que éste cambie de forma.

Marrison descubrió que, al aplicar una tensión alterna a este tipo de cristales, éstos vibraban entre 33.000 y 4.000.000 de veces por segundo, con un índice de precisión asombroso.
Mediante la ingeniería mecánica y electrónica, Marrison consiguió crear un reloj de cuarzo con un margen de error de un segundo por decenio.
Esto suponía multiplicar por 10 la fiabilidad del mejor reloj eléctrico disponible en la época.
Para conseguir introducir todas las piezas necesarias en algo que pudiera llevarse en la muñeca se tardaron otros cuarenta años: los primeros relojes de cuarzo los puso por primera vez a la venta la empresa japonesa Seiko el día de Navidad de 1969.
Con todo, la mayor parte del cuarzo empleado hoy en día en electrónica es sintético, y se pueden crear cuarzos específicos con frecuencias determinadas para funciones concretas.

20130620

Tres filósofos de Oxford piden ser congelados para 'resucitar' en 100-200 años

Tres filósofos de Oxford piden ser congelados para 'resucitar' en 100-200 años



¿Quién se negaría a despertar 100-200 años después de morir y ver cómo está todo? Tres académicos de Oxford han decidido asegurarse vivir esa experiencia y ordenaron ser congelados para volver a la vida con su genio intacto, informa 'The Daily Mail'.

Se trata de Nick Bostrom, un profesor de filosofía, y sus colegas Anders Sandberg y Stuart Armstrong. Los tres han firmado un contrato con la empresa Alcor Life Extension Foundation para que después de su muerte biológica los expertos les inyecten una combinación de sustancias químicas anticongelantes y trasladen los restos a EE.UU., donde les depositarán en las instalaciones de preservación criogénica a una temperatura de 196 grados bajo cero.

Bostrom y Sandberg pidieron que se conserven sus cabezas, que van a ser guardadas en el desierto de Arizona por 50.000 libras (casi 80.000 dólares) cada una.

Voy a despertarme en un mundo completamente nuevo, y esa posibilidad es muy emocionante

Mientras tanto, Armstrong está optando por tener todo su cuerpo congelado en el Cryonics Institute en el estado de Michigan, en un procedimiento técnicamente más difícil, que podría costarle más de 200.000 dólares. El científico asegura que no es caro: "Es mucho más barato que ir a un gimnasio, que es la manera más popular de tratar de prolongar la vida".

En una entrevista con el periódico 'The Independent' Armstrong no oculta que también tiene planes de garantizar que congelen a su hija, aunque ella todavía no ha nacido (la esposa del filósofo está embarazada).

Su colega, Sandberg, es muy optimista acerca de lo que les espera en el futuro lejano. Está seguro que en 100-200 años la ciencia va a obtener las tecnologías necesarias para revivirle y curarle de lo que le mató. "Voy a despertarme en un mundo completamente nuevo, y esa posibilidad es muy emocionante", explica.

Actualmente Alcor ya tiene 117 "pacientes" congelados, incluso 77 cabezas, por ejemplo, cuenta con la cabeza de la famosa estrella del béisbol estadounidense, Ted Williams, que se mantiene en un tanque de nitrógeno líquido. También cerca de 1.000 personas han firmado contratos con Alcor para que se congelen sus cuerpos tras la muerte.

20130619

"Los bancos seguirán con COBOL porque Java no es la solución a sus problemas"

"Los bancos seguirán con COBOL porque Java no es la solución a sus problemas"

Bill Curtis, ahora jefe de análisis de software y la empresa de medición de CAST, ha dicho que los bancos deben quedarse con las antiguas aplicaciones COBOL ya que estas no tienen los problemas de seguridad y desarrollo que aparecen con los nuevos lenguajes como Java.

Para el científico, la razón por la que los bancos están experimentando constantemente problemas con sus sistemas se debe a que los programas COBOL no están divididos en módulos más pequeños y su funcionamiento es sumamente complejo. Además, al tratarse de sistemas antiguos hay muy poca gente cuyos conocimientos técnicos permitan detectar y resolver rápidamente los problemas que surgen.

“Los programas COBOL son inmensamente complejos, el tamaño de sus módulos tiene 600 líneas de código. Mientras que el tamaño de un módulo Java tiene 30 líneas de código”, ha declarado. "En COBOL existe una fuerte correlación entre el tamaño del sistema y de la densidad de los defectos. Es exponencial, cuanto mayor es el sistema, más alta es la densidad de los defectos en cada cien líneas ", ha puntualizado.

Para Curtis, volver atrás y reescribir los sistemas en Java sería un desastre, puede hacerse pero llevaría consigo que durante un largo periodo de tiempo las cifras de errores se dispararán.

Y agrega que, para superar los fallos y defectos, los bancos deben analizar su código y averiguar exactamente cómo funciona. El científico considera que el problema de la industria financiera es que los sistemas se crearon hace años y muchos operan con poca comprensión de por qué ha sido diseñado de esta manera.

En los últimos meses un gran número de fallos TI en el sector financiero, incluido el corte de RBS, ha costado perdidas millonarias y la crítica generalizada acerca de la obsoleta TI de los sistemas con los que operan los bancos.

The Scale of the Universe 2 — Other Languages

The Scale of the Universe 2 — Other Languages

20130617

Nicola Tesla « Trinity a Tierra

Nicola Tesla « Trinity a Tierra

Peter Lindemann, DSc, se interesó en la energía libre en 1973, tras serle presentado el trabajo de Edwin Gray. Antes de 1981 había desarrollado sus propios sistemas de energía libre basados en los generadores de reluctancia variable y en los diseños del motor pulsante.

Durante los años 80 trabajó con Bruce DePalma y Eric Dollard. Desde 1988 hasta 1999 fue miembro de la junta de la Borderland Sciences Research Foundation. Durante este período publicó como autor más de 20 artículos para The Journal of Borderland Research. El Dr. Lindemann es una eminente autoridad en los usos prácticos de la tecnología del éter y de la electricidad fría.

Actualmente es un asociado de la investigación del Dr. Roberto Adams en Nueva Zelanda, y colabora estrechamente con Trevor James Constable en EE.UU. También es director de investigación para Clear Tech, Inc. en EE.UU. El libro del Dr. Lindemann, The Free Energy Secrets of Cold Electricity, se repasa en esta edición.



Introducción

Un sondeo efectuado entre los alumnos de primer ciclo del INSA de Lyon arrojó resultados sorprendentes: de las 87 respuestas recibidas, unos 4 estudiantes eran capaces de aportar informaciones relativas a Nikola Tesla, lo que representa un 5 % de los estudiantes encuestados. Es muy poco teniendo en cuenta en entorno científico en el que se realizó el estudio.Es tanto más sorprendente en cuanto que Tesla dedicó su vida a la ciencia, permaneciendo soltero toda su vida para consagrarse plenamente a su pasión: la invención.

En el curso de su vida, inventó numerosas máquinas, algunas de las cuales son revolucionarias, capaces de conmocionar al mundo entero. Nadie ha oído hablar nunca de ello.Este es el motivo por el que hemos decidido escoger este tema para nuestra exposición. Nos ha parecido primordial para una carrera científica el conocer la existencia de este hombre notable, así como de su carrera, que estuvo sembrada de emboscadas.

Estuvo presente en las iniciativas de numerosos progresos en las ciencias y las técnicas. Muchas de sus creaciones son utilizadas hoy en día cotidianamente sin que nadie se haga la pregunta de quién fue el científico que le ha permitido tener esta calidad de vida actual. El objetivo de nuestra exposición es el de conocer mejor a este genio desconocido, así como a sus ingeniosos inventos.

Centraremos nuestro dossier en la vida de Tesla y sus inventos, así como en sus aplicaciones, y no en los aspectos técnicos de todos sus inventos. Necesitaríamos entonces muchos más tiempo y energía para comprender los detalles de todas sus invenciones. Todavía hoy los científicos retoman los trabajos de Tesla. Para todos los inventos nombrados en este dossier, nos es posible proporcionar una explicación científica incluso aunque no la incluyamos en el dossier. Queremos precisarlo ya que es posible que, en un primer momento, se pueda suponer que estas máquinas contradicen las leyes de la física.

Como conclusión, el debate nos ayudará a reflexionar sobre el desconocimiento que le envuelve, y la reacción de la sociedad, pública o científica, frente a los nuevos descubrimientos e invenciones.

Carta de identidad de Nikola Tesla

Nikola Tesla nació el 10 de julio de 1856 en Smiljan, Croacia, cerca de la costa del Adriático, muriendo el 7 de enero de 1943. Su padre era un eclesiástico serbio ortodoxo y su madre era una mujer inteligente aunque analfabeta. Nikola es el penúltimo de una familia de cinco hijos. Sus padres querían que ingresase en la Iglesia o el ejércitoPosee numerosas cualidades intelectuales, tales como una gran memoria fotográfica, un genio inventivo, el don de visualizar con tal nitidez que no tiene necesidad de maquetas, ni de dibujos, ni siquiera de experimentar. Su representación mental convierte a los modelos en perfectamente reales.

Además él mismo dice: ” todo lo que invento funciona como lo he imaginado, la experimentación se desarrolla tal como estaba previsto “. Desde pequeño inventa objetos originales. Tiene una infancia problemática debido a una historia familiar muy intensa que le creó problemas psicológicos y fobias. Es sólo a la edad de 17 años cuando empieza a interesarse realmente en sus inventos. Tesla aparece como un autodidacta.


Condecoraciones de Tesla

Recibió en vida numerosas distinciones académicas de universidades americanas y de otros países:

* la medalla John Scott
* la medalla Edison, considerada como el mayor reconocimiento en el terreno eléctrico.
* Numerosos premios otorgados por los gobiernos europeos.Pero no será hasta 1975 que su nombre entrará a formar parte del panteón de inventores americanos.


Parte 1: La electricidad

Sus inicios en la escuela

En 1875 ingresa en la escuela politécnica de Graz en Austria, donde estudia matemáticas, física y mecánica.Su profesor de física le presenta un aparato de corriente continua que funciona a la vez como un motor y como una dínamo. El inconveniente es que esta máquina produce muchas chispas. Tesla la examina y propone reemplazar la corriente continua por corriente alterna, lo que según el profesor llevaría a obtener el movimiento perpetuo, es decir, un imposible.La idea de transformar esta máquina no lo abandonará: “para mí es un voto sagrado, una cuestión de vida o muerte. Sé que moriré si fracaso. En el fondo de mi cerebro se encuentra la solución pero todavía no consigo expresarla”.

Invención del motor de corriente alterna

Seis años más tarde, en una conferencia en el Instituto Americano de Ingenieros Eléctricos, revela un nuevo principio científico de su simplicidad deslumbradora. Sus aplicaciones prácticas revolucionarán el mundo tecnológico. Tesla acaba de descubrir un nuevo sistema, el principio del campo magnético rotativo, generado por corrientes alternas en número de una o más desfasadas las unas en relación a las otras. Acababa de inventarse el motor de corriente alterna.

Lucha por la investigación de un estándar eléctrico

En los meses posteriores a esta conferencia, se aplica totalmente al objetivo de inventar nuevas formas de máquinas de corriente alterna.En 1883 consigue construir su verdadero primer motor de inducción de corriente alterna. Incapaz de lograr interesar a nadie en Europa con su radical procedimiento, Tesla aceptó el ofrecimiento de Thomas Edison, que le proponía ir a trabajar a Estados Unidos. Al año siguiente, con 28 años, decide embarcarse y probar suerte para trabajar con Edison en Estados Unidos, donde este último acaba de crear la red eléctrica que suministra a la ciudad de Nueva York.Esta red, basada en la corriente continua, sufre importantes malfuncionamientos: frecuentes accidentes, averías regulares, varios incendios causados por la electricidad… Además, la corriente no puede ser conducida a larga distancia (hasta dos millas) ya que las líneas no podrían soportar tensiones elevadas, indispensables para transmisiones alejadas. Es necesaria una central cada dos millas.

Tesla interviene entonces hablando de su motor de inducción de corriente alterna, que según él es la tendencia del futuro: “Quién desarrolle esta técnica, se hará rico”. Edison no está de acuerdo. Envía a Tesla para reparar la instalación eléctrica de un vapor, lo que realiza rápidamente. Descubre la manera de mejorar las primitivas dínamos de Edison, y le ofrecen 50.000 dólares para proseguir su trabajo.

A Edison no le gusta el genio de Tesla, se siente amenazado por sus talentosas invenciones.

El problema entre los dos hombres se agrava, lo que obliga a Tesla a dimitir.Un grupo de financieros, conscientes del potencial económico, propone a Tesla que funde una sociedad, lo que él hace. Desgraciadamente se los pone en contra y se encuentra sin dinero, ya que los financieros recuperan su empresa, en la que había invertido sus ahorros.Un dirigente de una gran sociedad, Westinghouse, se interesa de inmediato en su corriente alterna. En 1886 se asiste a la primera inauguración comercial del sistema de corriente alterna. Su motor de inducción es rápidamente reconocido como un elemento de nueva tecnología. Westinghouse, el rival directo de Edison, sueña con abastecer a Estados Unidos con la corriente alterna, y firma un contrato con Tesla, en calidad de consultor. Se inicia una lucha titánica entre Westinghouse-Tesla y Edison, que se decanta a favor de Westinghouse-Tesla.

Instalación de la corriente alterna en Estados Unidos

En enero de 1893 Westinghouse anuncia que su empresa acaba de obtener el contrato de instalación de toda la infraestructura eléctrica. Pronto se utilizará exclusivamente la corriente alterna de Tesla, el sistema tan encarnecido y calumniado. Toda la electricidad utilizada en el mundo en aquella época será producida, transmitida, distribuida y transformada por medio del sistema polifásico de Tesla. La transmisión de la corriente durante centenares o miles de kilómetros ya no será un problema.Las dos primeras fábricas generadoras de corriente sobre el Niágara se construyen a partir de octubre de 1893, una de las cuales directamente sobre las cataratas del Niágara. La primera quedará concluida en 1896, y alimentará a Buffalo.

En Nueva York los tranvías y los metros funcionan con corriente alterna, y la electrificación de las vías de tren está en camino.La industria metalúrgica también necesita altas tensiones que sólo la alterna puede proporcionar, se asistente entonces a un desarrollo fulgurante de la aeronáutica. La electricidad permite disponer de una gran energía mecánica, calorífica, electromagnética, lo que conducirá a una extraordinaria revolución para la industria.

En 1906 Tesla inventa una turbina: 4,5 Kg. y 30 caballos de vapor. Tesla piensa que podría rebajar el coste de la electricidad dado su bajo coste de fabricación en relación a lo que se hace en aquella época.

Parte 2: La luz

Lámpara de pastilla de carbono – luz de alta frecuencia

El punto fuerte de sus demostraciones en este campo es la lámpara de pastilla de carbono, presentada en 1891. Está formada por un tubo al vacío (pero que contiene algunos iones en estado gaseoso) de 15 cm. Acabada por un pequeño globo de cristal dotado de una pieza minúscula de material sólido, montada en el extremo de un hilo de conexión única con la fuente de alta frecuencia. La pastilla central del material propulsa electrostáticamente las moléculas del gas que la rodea hacia el globo de cristal, luego las atrae de la misma manera, al ritmo de la fuente de alta frecuencia. Al golpear la pastilla a su regreso, las moléculas la calientan hasta la incandescencia, en un proceso que se repite millones de veces por segundo.

El calor de la pastilla incandescente se transfiere a las moléculas de la pequeña cantidad de gas del tubo, y así se produce la luz.Esta bombilla es muy barata, y con el mismo gasto energético, es 20 veces más brillante que la bombilla de Edison, la que utilizamos en la actualidad. El único problema es que se necesita una fuente de corriente de alta frecuente, lo que desgraciadamente no es compatible con los 50 Hz tradicionales.

El tubo de neón se inspira en los descubrimientos de Tesla, pero su rendimiento no es tan interesante.

Microscopio electrónico

La lámpara con pastilla de carbono también contiene el concepto del microscopio electrónico. Se generan partículas que son enviadas en línea recta a partir de un minúsculo punto de actividad sobre la pastilla, mantenida a un potencial elevado. Con la corriente continua sólo se consigue expulsar las partículas. En la superficie del globo, las partículas reproducen con una imagen fosforescente el dibujo del punto microscópico desde el que son emitidas.Inspirándose en esta constatación hecha por Tesla, los científicos descubren en 1939 la posibilidad de utilizar un microscopio no ya con luz, sino que gracias a un flujo de electrones da una resolución mucho más grande. La descripción de Tesla del efecto obtenido con su lámpara de pastilla de carbono se encuentra casi sin cambios en los términos para describir al microscopio electrónico.

Acelerador de partículas

La lámpara de partículas contiene también ciertos aspectos de los aceleradores de partículas. En efecto, la expulsión de partículas de alta velocidad en los aceleradores lineales se encuentra en la lámpara. Además, el fenómeno de resonancia (ver parte mecánica) interviene en los aceleradores de tipo ciclotrón.

Parte 3: La mecánica

Invención de un avión de despegue y aterrizaje vertical

Fue en 1928, a sus 72 años, cuando Tesla construyó un modelo de avión de despegue y aterrizaje vertical. El modelo de Tesla es un primer paso innegable en la búsqueda en este terreno. Es notable que hubiera tenido esa idea en una época en la que la aviación estaba en mantillas. Los planos de Tesla han sido posteriormente utilizados en las investigaciones americanas para el desarrollo de sus aviones. En 1980 todavía impactaba la posibilidad de construir aviones con esta especificidad.

Las oscilaciones mecánicas y las vibraciones armónicas: la resonancia

En 1898 prueba un oscilador minúsculo que acopla a un pilar de hierro fundido que atraviesa un inmueble. Se produce una vibración en todo el inmueble y el pánico de todos los inquilinos que creen que se trata de un terremoto. Tesla acaba de demostrar el efecto de la resonancia ” esta viga no hubiera podido ser destruida con mazas, ni incluso con palancas: ha bastado una ráfaga de pequeños golpes que, por separado, no hubieran podido lastimar ni a una mosca “. Es posible que un alfeñique impulse a una persona corpulenta en un balancín, si le empuja siempre en el momento preciso para permitir una amplificación del movimiento.

Este fenómeno también tiene aplicaciones en electricidad.


Parte 4: La energía libre

Introducción

Fue en el transcurso de la conferencia del 20 de mayo de 1891 en el Instituto Americano de Ingenieros Eléctricos de Nueva York, que Testa habló por primera vez de energía libre. He aquí lo que dijo:” Dentro de algunas generaciones, nuestras máquinas serán propulsadas por esta energía disponible en cualquier parte del universo (…) En el espacio existe una forma de energía ¿Es estática o cinética? Si es estática, todas nuestras investigaciones habrán sido en vano.

Si es cinética -y sabemos que lo es – es tan sólo cuestión de tiempo, y la humanidad pondrá en armonía sus técnicas energéticas con los grandes engranajes de la naturaleza “El 30 setiembre de 1894 Tesla publica un artículo en el que expone su teoría de la luz, la materia, el éter y el universo, y afirma que el 90% de la energía de las luces eléctricas es malgastado: ” espero vivir lo suficiente para ser capaz de colocar una máquina en el centro de esta habitación, y hacerla funcionar únicamente con la energía del entorno “.

Noción de éter y de energía del campo del vacío

El concepto de éter fue introducido por Aristóteles para designar al quinto elemento. Este término englobaba en su origen a todos los objetos que se encontraban en el exterior de la atmósfera terrestre. Los físicos de la Edad Media postulaban que el éter es una sustancia que llena el espacio. Newton también se refirió al mismo. Posteriormente, Maxwell pensaba que ” no hay duda de que los espacios interplanetarios e interestelares no están vacíos, sino llenos de una sustancia que existe en grandes cantidades y es regular “.Se realizaron experiencias para intentar demostrar la existencia del éter.

Un experimento se hizo famoso. Si el éter existía, debían existir “vientos de éter” debidos a la rotación de la tierra, suponían los físicos de la época. Se enviaron dos señales: una contracorriente de los vientos del éter, y la otra en la misma dirección. Los científicos esperaban una separación entre los tiempos empleados por las dos señales en recorrer una misma distancia. El experimento no reveló diferencia alguna. Debido a ello se produjo un rechazo del concepto de éter. Pero muchos científicos piensan todavía que el concepto de éter no es una ficción. Por lo demás, he aquí la lista de científicos que postulan la existencia de este elemento, por nombrar sólo a los más conocidos:

• Paul Dirac (Premio Nobel, 1933)
• De Broglie (Premio Nobel,1929)
• A. Michelson (Premio Nobel,1907)
• A. Einstein (Premio Nobel,1921)
• Sir Oliver Lodge
• Muchos otros Premios Nobel


De este éter se puede sacar energía. El espacio presente entre los átomos no está vacío, sino lleno de energía. Su concentración es altamente elevada, del orden de los 5.000 Kwh. por cm3 según algunos cálculos. Es difícilmente perceptible, a menos de hacerlo actuar con campos electromagnéticos o con materia. Sería imposible no tener energía, ya que es omnipresente. Como analogía, se puede citar este ejemplo: un hombre sentado en el fondo del mar, con una taza en la mano, se pregunta como puede llenar su taza de agua.


En esta analogía, el agua hace el papel del éter, y el hombre en el fondo del mar, el de la Humanidad que vive en la Tierra. La omnipresencia de esta energía nos hace olvidar que existe y que es infinita.

Pero el concepto de éter tiende a borrarse del pensamiento de los grandes físicos de la época. A los 15 años, Albert Einstein (1879-1955) pensaba como muchos otros científicos, que existía sin duda un éter y que el espacio no estaba vacío.

Más tarde abandonó esta idea, que continuó rechazando durante muchos años. Fue en ese momento cuando desarrolló la teoría relativista que se impuso entre los físicos. Se ignoró todo lo que Einstein dijo más tarde acerca del éter. En 1934 retomó esta teoría diciendo que el espacio no podía estar vacío, que el espacio es un medio dinámico.

Las máquinas de energía libre

Tesla es pionero en este terreno. Fue el primero en inventar una máquina que extraía su energía de una fuente infinita e inagotable, la energía del punto cero, o más vulgarmente llamada la energía libre. Tesla inventó una máquina que no solo es capaz de autoalimentarse, sino que saca la energía del aire que la rodea. Su aparato era una bobina de electroimanes, para la cual obtuvo una patente en 1894.

La forma de su bobina permitía a un sistema de almacenaje de una enorme cantidad de energía, utilizando tan solo una parte ínfima de esta energía para su propio funcionamiento. Se la puede comparar a un vehículo que tuviese un enorme depósito de gasolina siempre lleno, y que consumiera sólo dos litros por cada cien kilómetros.En nuestros días se han construido máquinas de energía libre y funcionan con el aire ambiente como único carburante. Bruce DePalma es el inventor más conocido en energía libre, con su máquina-N. En ella utiliza imanes muy potentes para hacer que la energía del espacio trabaje en la tierra, ya que considera que ” el imán es una ventana a la energía libre del espacio “.

También existe otra forma de energía libre: la energía radiante. Tesla intentó un aparato capaz de captar la energía directamente del sol. Este procedimiento no es muy ventajoso ya que su rendimiento no es demasiado alto.

Actualidades y puesta al día

Es muy raro ver en revistas artículos relativos al éter, y todavía menos a la energía libre, ya que un 95% de personas nunca han oído hablar de ello. Pero en Sciences et Avenir de enero de 2002, en el dossier « Los herejes de la ciencia », Jean Pierre Vigier , considerado probablemente como el mayor físico francés vivo, defiende la idea de un éter material: « existe un éter material, físico, portador de ondas y partículas, exactamente igual como el mar es portador de un navío». Luego continúa evocando sucintamente la idea de una energía infinita: « Extraer energía del vacío para convertirla en fuente inagotable: viejo sueño o fantasía ».Se realizó un experimento para intentar hacer evidente la fuerza del vacío: «Construyeron un columpio de 500 micrómetros cuadrados suspendido a algunos nanómetros del suelo.

Luego se aproxima una esfera a menos de un micrómetro. Incluso sin que haya contacto, el columpio se inclina». En física cuántica, el vacío no está realmente vacío, de hecho es la sede de fluctuaciones que crean partículas virtuales engendrando una fuerza de presión atractiva sobre las placas.

Las posibles consecuencias

Evidentemente, se pueden encontrar multitud de campos en los que el uso de una energía limpia e infinita sería muy benéfico.

Se puede citar al automóvil, a la calefacción de las habitaciones y en general a la industria. Sería muy beneficioso utilizarla en el terreno espacial. « El genio inventor del hombre nos permitirá no sólo viajar por el universo a una velocidad inimaginable, en una trayectoria fija, sino que nos permitirá también, gracias a la energía que podrá obtenerse del espacio, tener autonomía y mantenernos durante largos períodos con un consumo mínimo de energía »

Estos aparatos de energía infinita podrían otorgar la independencia energética a la población.

Se pueden imaginar construcciones privadas de aparatos, de medidas variables: desde el generador en el jardín, hasta la central con potencia suficiente para iluminar toda una ciudad. Algunos científicos piensan que es el camino a seguir para el futuro. Otros, por el contrario, piensan que « el hecho de dar a la sociedad una energía abundante, barata e inofensiva, sería lo peor que podría ocurrir en el planeta, porque las personas podrían utilizarla con fines no necesariamente positivos ».Reflexionemos un poco en cuanto a los beneficios que pueden aportarnos una energía limpia e infinita: todos los bosques, lagos y océanos dejarían de estar amenazados de ser contaminados con residuos radioactivos, o por petróleo.

El aire de las ciudades sería más puro, el ruido incesante de los coches se reduciría. Las industrias emitirían menos productos polucionantes al aire. En resumen, se llegaría a aumentar la vitalidad de las personas, ya que respirarían aire puro, beberían agua descontaminada y se nutrirían con alimentos sanos.


Parte 5: las radiocomunicaciones

Dónde está la energía libre?, ¿Qué fue de la energía libre?

A fines de 1880, las revistas especializadas en ciencias eléctricas predecían la “electricidad libre” para un futuro cercano. Los increíbles descubrimientos sobre la naturaleza de la electricidad eran hechos cotidianos. Nikola Tesla demostraba la “iluminación sin hilos” y otras maravillas asociadas con las corrientes de alta frecuencia. Existía un entusiasmo sobre el futuro como nunca antes se había conocido en la historia.En un plazo de 20 años habría automóviles, aeroplanos, películas, cámaras fotográficas, música grabada, teléfonos y radio.

La era Victoriana nos llevaba hacia algo completamente nuevo. Por primera vez en la historia, el pueblo tenía esperanzas de un futuro utópico, con modernos sistemas de transporte y comunicaciones en abundancia, así como trabajo, ropa y alimentos para todos. Se conquistarían la enfermedad y la pobreza. El nivel de vida iría mejorando a la vez que cada uno tendría su “pedazo del pastel”.

Entonces, ¿qué sucedió? En medio de toda esta explosión tecnológica, ¿dónde se fueron todos los progresos en energía? Todo aquel entusiasmo sobre la “electricidad libre”, que ocurrió momentos antes del principio del siglo pasado, ¿fue quizá el optimismo a ultranza que la “ciencia verdadera” eventualmente ha desacreditado?Realmente, la respuesta a esta pregunta es “no”. De hecho, la verdad es todo lo contrario. Las espectaculares tecnologías en energía fueron desarrolladas junto con otros progresos. Desde aquella época, se han desarrollado múltiples métodos para producir grandes cantidades de energía a un costo extremadamente bajo. Sin embargo, ninguna de esas tecnologías han hecho que se “abra” al mercado de consumo como artículo de comercio. Pronto discutiremos el por qué de todo esto.

Estado Actual de la Tecnología

Primero, describiré una corta lista de las tecnologías que forman la “energía libre”, de las que estoy actualmente enterado, y que están demostradas más allá de toda duda razonable. La característica común que conecta todos estos descubrimientos es que utilizan una pequeña cantidad de una forma de energía, para controlar o liberar una gran cantidad de otra forma de energía. Muchos de ellos, de alguna manera, cogen ligeramente el campo subyacente del éter, una fuente de energía a la que la ciencia “moderna” ha ignorado convenientemente.

1. Energía Radiante

El Transmisor Amplificador de Nikola Tesla, el dispositivo de energía radiante de T. Henry Moray, el motor EMA de Edwin Gray y la máquina Testatika de Paul Baumann, funcionan todos con la denominada “energía radiante”. Esta forma natural de energía (erróneamente denominada “electricidad estática”) se puede extraer directamente del ambiente o de la electricidad ordinaria, por el método llamado “de fraccionamiento”. La energía radiante puede realizar las mismas maravillas que la electricidad ordinaria, por menos del 1% de su coste. Sin embargo, no se comporta exactamente como la electricidad, y esto ha contribuido a que fuera malentendida por parte de la comunidad científica.Actualmente, la Comunidad de Methernitha, en Suiza, tiene en activo cinco o seis modelos de estos dispositivos, que explotan ligeramente esta energía, funcionando como dispositivos auto-arrancables (no necesitan energía para el arranque inicial) y sin combustible.

2. Motores accionados por imán permanente

El Dr. Robert Adams (Nueva Zelanda) ha desarrollado asombrosos diseños de motores eléctricos, generadores y calentadores, que funcionan en base a imanes permanentes. ¡Uno de esos dispositivos necesita 100 vatios de electricidad de unas baterías, genera 100 vatios para recargar las baterías, y produce además más de 140 BTUs de calor en dos minutos!El Dr. Tom Bearden (E.E.U.U.) tiene trabajando dos modelos de un transformador eléctrico, accionado por imán permanente. Utiliza una entrada eléctrica de 6 vatios para controlar la trayectoria de un campo magnético que sale de un imán permanente. Canaliza el campo magnético, primero a una bobina de salida y luego a una segunda bobina de salida. Repite el proceso rápidamente, de una manera análoga al “ping-pong”.

El dispositivo puede producir una salida eléctrica de 96 vatios, sin piezas móviles. Bearden llama a su dispositivo Generador Electromagnético Inmóvil o MEG (Motionless Electromagnetic Generador).Jean-Louis Naudin ha duplicado el dispositivo de Bearden en Francia. Los principios para este tipo de dispositivo fueron divulgados por primera vez por Frank Richardson (E.E.U.U.), en 1978.Troy Reed ( E.E.U.U.) tiene en funcionamiento modelos de un ventilador especialmente magnetizado, que calienta mientras gira. Toma exactamente la misma cantidad de energía para hacer girar el ventilador, genere o no calor.Más allá de todos estos progresos, múltiples inventores han identificado los mecanismos de trabajo que producen un torque motor solamente de los imanes permanentes.

3. Calentadores mecánicos

Hay dos clases de máquinas que transforman una pequeña cantidad de energía mecánica en una gran cantidad de calor. El mejor de estos diseños, puramente mecánicos, es el sistema de cilindro rotatorio, diseñado por Frenette (E.E.U.U.) y Perkins (E.E.U.U.).En estas máquinas, un cilindro rota dentro de otro cilindro, del que le separan unos 3 mm. El espacio entre los cilindros se llena de líquido, que puede ser agua o aceite, y es este “líquido de funcionamiento” el que se calienta cuando se hace girar el cilindro interno.Otro método utiliza imanes montados en una rueda para producir grandes corrientes de Foucault en una placa de aluminio, haciendo que esta placa se caliente rápidamente. Estos calentadores magnéticos han sido demostrados por Muller (Canadá), Adams (NZ) y Reed (E.E.U.U.).Todos estos sistemas pueden producir 10 veces más calor que los métodos estándar, usando la misma entrada de energía.

4. Electrólisis súper-eficiente

El agua se puede descomponer en hidrógeno y oxígeno, utilizando electricidad.

Los libros estándares de química dicen que este proceso requiere más energía de la que se puede recuperar cuando se recombinan los gases.Esto es cierto únicamente en el peor de los casos. Cuando el agua se excita con su propia frecuencia resonante molecular, según un sistema desarrollado primero por Stan Meyer (E.E.U.U.) y recientemente por Xogen Power, Inc., se colapsa en los gases hidrógeno y oxígeno, con una muy pequeña entrada eléctrica.También, al usar diversos electrólitos (añadidos que hacen que el agua conduzca mejor la electricidad) la eficacia del proceso cambia drásticamente.Se sabe igualmente que ciertas estructuras geométricas y texturas superficiales son mejores que otras. La implicación es que se pueden producir cantidades ilimitadas de combustible hidrógeno para hacer funcionar los motores (como el de un coche), por el coste del agua.Más sorprendente aún es el hecho de que Freedman (E.E.U.U.) patentó en 1957 una aleación metálica especial, que descompone espontáneamente el agua en hidrógeno y oxígeno, sin entrada eléctrica exterior y sin causar ningún cambio químico en el propio metal. Esto significa que esta aleación metálica especial puede producir hidrógeno del agua, libre y de forma indefinida.

5. Motores de implosión/vortex

La mayoría de motores industriales utilizan la liberación de calor para causar expansión, y presión para producir trabajo, como en el motor de un coche. La naturaleza utiliza el proceso opuesto de enfriamiento para originar succión y vacío para producir el trabajo, como lo que ocurre en un tornado.Entre1930 y 1940, Viktor Schauberger (Austria) fue el primero en construir modelos funcionales de los motores de implosión. Desde esa época, Callum Coats ha escrito extensamente sobre los trabajos de Schauberger en su libro “Living Energy”.

Posteriormente, un gran número de investigadores han construido modelos operativos de los motores de turbina de implosión. Éstos son motores sin combustible (fuelles) que producen trabajo mecánico por la energía alcanzada en un vacío. También hay diseños mucho más simples que utilizan movimientos del vórtice para explotar una combinación de gravedad y fuerza centrífuga para producir un movimiento continuo en líquidos.

6. Tecnología de la fusión fría

En marzo de 1989, dos químicos, Martin Fleischmann y Stanley Pons, de la Brigham Young University, Utah (USA), anunciaron que habían producido reacciones atómicas de fusión en una probeta. Los anuncios fueron “desacreditados” dentro de los seis meses siguientes y el interés público se perdió.Sin embargo, la fusión fría es real.

El exceso de la producción del calor se ha documentado no sólo en varias ocasiones, sino que también se ha catalogado la transmutación atómica de elementos a baja energía, ¡implicando docenas de diversas reacciones! Esta tecnología puede producir definitivamente energía barata y docenas de otros procesos industriales importantes.

7. Bombas de calor asistidas por energía solar

El refrigerador de cocina es la única “máquina de energía libre” que cualquiera puede poseer. Es una bomba de calor que funciona eléctricamente. Utiliza una cantidad de energía (electricidad) para mover tres cantidades de energía (calor). Esto le da un “coeficiente del funcionamiento” (COP) de cerca de tres. El refrigerador utiliza una cantidad de electricidad para bombear tres cantidades de calor desde el interior del refrigerador al exterior del mismo. Éste es su uso típico, pero es la peor manera posible de utilizar la tecnología. Veamos por qué. Una bomba de calor bombea calor desde la “fuente” del calor hasta el “sumidero” o lugar que absorbe el calor. La “fuente” de calor debe, obviamente, ser caliente y, obviamente, para que este proceso trabaje mejor el “sumidero” debe ser frío. En el refrigerador ocurre exactamente lo contrario.

La “fuente” de calor está dentro de la caja, que es fría, y el “sumidero” para el calor es el aire a temperatura ambiente de la cocina, que es más caliente que la fuente. Esta es la razón por la cual el COP sigue siendo bajo para el refrigerador de cocina. Pero esto no es verdad para todas las bombas de calor.Con las bombas de calor, asistidas por energía solar, se logran fácilmente COPs de 8 a 10.

En tales dispositivos, una bomba de calor extrae calor de un colector solar, y lo descarga en un absorbedor subterráneo grande, que permanece aproximadamente a 12.8ºC.; la energía mecánica se extrae en la transferencia. Este proceso es equivalente al de un motor de vapor que extrae energía mecánica entre la caldera y el condensador, excepto que utiliza un líquido que las “hierve” a una temperatura mucho más baja que el agua.Uno de tales sistemas, probado en los años 70, produjo 350 HP, medidos en un dinamómetro, en un motor especialmente diseñado con apenas 100 pies cuadrados del colector solar (9,3 m2). (Éste no es el sistema promovido por Dennis Lee.

La cantidad de energía que tomó para hacer funcionar al compresor (entrada) era de menos 20 HP, así que este sistema ¡produjo 17 veces más energía de la que tomó para mantenerse funcionando! Colocado en una azotea, podría suministrar a un pequeño vecindario, usando exactamente la misma tecnología que mantiene el alimento frío en su cocina.Hay actualmente un sistema de bomba de calor a escala industrial, ubicado al norte de Kona, Hawaii, que genera electricidad a partir de las diferencias de temperatura del agua del océano.

Docenas de otros sistemas no se han mencionado, y muchos de ellos son tan viables y probados como los que se ha comentado.Pero esta corta lista es suficiente para hacer hincapié en un punto: la tecnología de la energía libre está aquí y ahora. Ofrece al mundo, para todos, y en todas partes, abundancia de energía sin contaminación.Es posible ahora detener la producción de los gases que producen el efecto invernadero, y cerrar todas las plantas de energía atómica. Podemos ahora desalinizar cantidades ilimitadas de agua de mar, a un precio asequible, y llevar agua fresca adecuada a los habitats más alejados. Los costes del transporte y producción para todo pueden caer drásticamente. Incluso los alimentos se pueden sembrar en invernaderos calentados durante el invierno, en cualquier lugar.Todas estas ventajas maravillosas, que pueden hacer la vida en este planeta más fácil y mejor para todos, se han pospuesto por décadas. ¿Por qué? ¿A quiénes han servido los propósitos de este aplazamiento?

Enemigos Invisibles de la Tecnología de la Energía Libre

Cuatro gigantescas fuerzas han trabajado juntas para crear esta situación. Decir que existe y que ha existido una conspiración para suprimir esta tecnología, conduce solamente a una comprensión superficial del mundo. Y coloca la responsabilidad totalmente fuera de nosotros mismos. Nuestra buena voluntad de seguir siendo ignorantes e inactivos frente a esta situación, ha sido interpretada siempre por dos de estas fuerzas como consentimiento implícito.

Así pues, además de “un público no exigente”, ¿cuáles son las otras tres fuerzas que impiden la disponibilidad de la tecnología de la energía libre?


1. El Monopolio Del Dinero

En la teoría económica estándar, hay tres clases de industria: capital, mercancías y servicios.

Dentro de la primera clase, el capital, también hay tres subclases: capital natural, efectivo y crédito. El capital natural se relaciona con las materias primas (tales como una mina de oro) y las fuentes de energía (tales como un pozo de petróleo o una hidroeléctrica).

El efectivo se relaciona con la impresión del “dinero de papel” y la acuñación de monedas; de estas funciones generalmente se encarga el gobierno. El crédito se relaciona con los préstamos de dinero por interés y la extensión de su valor económico a través del depósito de cuentas de empréstito. Según esto, es fácil ver que la energía funciona en economía de la misma manera que el oro, la impresión de dinero por parte del gobierno, o la aplicación del crédito por un banco.

En Estados Unidos, así como en la mayoría del resto de países del mundo, existe un monopolio del dinero. Somos libres de ganar tanto dinero como queramos, pero solamente se nos pagará con billetes de la Reserva Federal.

No hay nada que se pueda hacer para ser pagado con certificados del oro, o con alguna otra forma de dinero. Este monopolio del dinero está solamente en manos de un pequeño número de bancos privados, y estos bancos son posesión de las familias más ricas del mundo.Su plan es, eventualmente, controlar el 100 por ciento de todos los recursos de capital mundial, de tal manera que se pueda controlar la vida de cada uno con la disponibilidad (o no disponibilidad) de todas las mercancías y servicios.

Una fuente independiente de riqueza (un dispositivo de energía libre), en manos de cada persona del mundo, arruinaría permanentemente sus planes para la dominación del mundo. Es fácil ver por qué esto es verdad.Actualmente, la economía de una nación puede retrasarse o acelerarse dependiendo de si suben o bajan los tipos de interés. Pero si una fuente independiente de capital (energía) estuviera presente dentro de la economía, y cualquier negocio o persona pudiera generar más capital, sin pedir un préstamo a un banco, ésta estrangulante acción centralizada en los tipos de interés simplemente no tendría el mismo efecto.

La tecnología de la energía libre cambia el valor del dinero. Las familias más ricas, y los emisores del crédito, no desean ninguna competición. Es así de simple. Desean mantener su control actual del monopolio de la fuente de dinero. Para ellos, la tecnología de la energía libre no debe ser simplemente suprimida, ¡debe ser permanentemente prohibida!Así pues, las familias más ricas, y sus instituciones de actividades bancarias centrales, son la primera fuerza que actúa para posponer la disponibilidad pública de la tecnología de la energía libre. Sus motivaciones son “el derecho divino de gobernar”; la avaricia, y la insaciable necesidad de controlarlo todo excepto a sí mismos.


Las armas para cumplir este aplazamiento incluyen:

• la intimidación,

• los “expertos” desenmascaradores,

• la compra y “encajonado” de la tecnología,

• el asesinato e intento de asesinato de los inventores,

• los incendios maliciosos, y

• una amplia variedad de incentivos y frenos financieros para manipular a los posibles defensores o partidarios.

También han promovido la aceptación general de una teoría científica que dice que la energía libre es imposible (las leyes de la termodinámica).

2. Gobiernos Nacionales

La segunda fuerza que opera para posponer la disponibilidad pública de la tecnología de la energía libre son los gobiernos nacionales. El problema aquí no se relaciona con la competición en la impresión de los billetes sino con el mantenimiento de la Seguridad Nacional.Existe el concepto de que el mundo es una selva, y de que los seres humanos han de ser considerados como extremadamente crueles, deshonestos y engañosos. Es trabajo del gobierno prever la defensa común. Para esto, las fuerzas policiales están delegadas por la rama ejecutiva del gobierno para hacer cumplir la ley. La mayoría de nosotros consentimos la regla de la ley porque creemos que es lo correcto, que funciona en nuestro propio beneficio. Sin embargo, siempre hay algunos individuos que creen que su propio beneficio está mejor servido por comportamientos que no se conforman voluntariamente con el orden social generalmente convenido. Esta gente prefiere funcionar fuera de “la ley”, y son considerados proscritos, criminales, subversivos, traidores, revolucionarios o terroristas.

La mayoría de los gobiernos nacionales han descubierto, por ensayo y error, que la única política extranjera que realmente funciona a cierto plazo es una política de intercambio de “esto por aquello”. Esto significa que los gobiernos se tratan de la manera en que están siendo tratados.Existe una actividad constante por ser los mejores, por tener posición e influencia en los asuntos mundiales, ¡y el partido más fuerte es el que gana! En economía se le llama “la regla de oro”, que quiere decir que “quien tiene el oro hace las reglas”. En política también existe, aunque su aspecto es más darviniano.

Se trata simplemente de la “supervivencia del más apto”.En política, sin embargo, el más apto ha llegado a significar que el partido más fuerte lucha de la manera más sucia. Es utilizado absolutamente todo medio disponible para mantener un excedente de ventaja sobre el adversario, y todos son el “adversario”, no importa si son considerados amigos o enemigos.

Esto incluye la postura psicológica indignante, la mentira, el engaño, espiar, robar, el asesinato de los líderes del mundo, guerras de poder, alianzas y cambios de alianzas, tratados, ayuda exterior y la presencia de fuerzas militares donde sea posible.Guste o no, ésta es la arena real y psicológica en la cual funcionan los gobiernos nacionales. Ningún gobierno nacional hará nunca cualquier cosa que de ventaja a su adversario, sin obtener nada a cambio. ¡Nunca! Es suicidio nacional.

Cualquier actividad del individuo, dentro o fuera del país, que se interprete como dar ventaja de cualquier manera a un adversario, será juzgada como una amenaza para la seguridad nacional. ¡Siempre!¡La tecnología de la energía libre es la peor pesadilla para un gobierno nacional! Abiertamente reconocida, la tecnología de la energía libre desencadena una carrera armamentística ilimitada por todos los gobiernos, en una tentativa final de obtener ventaja y dominación absolutas. Piense sobre ella. ¿Piensa que Japón no se sentiría intimidado si China tuviese la energía libre? ¿Piensa que Israel se sentaría tranquilamente mientras Irak/Irán/Jordania adquieren energía libre? ¿Piensa que la India permitiría que Pakistán desarrollara energía libre? ¿Piensa que E.E.U.U. no intentaría impedir que Osama Bin Laden consiguiera energía libre?

La energía ilimitada, disponible en la situación actual en este planeta, conduciría a la inevitable modificación del equilibrio de la energía. Esto podría convertirse en una guerra total para evitar que “el otro” tuviera la ventaja de la energía abundante e ilimitada. Todos la desearían, y al mismo tiempo desearían impedir que otros la consiguieran.

Así pues, los gobiernos nacionales son la segunda fuerza que opera para posponer la disponibilidad pública de la tecnología de la energía libre. Su motivación es el “instinto de conservación”.


Este instinto de conservación funciona a tres niveles:

1. no dando ventaja indebida a un enemigo externo;

2. previniendo la acción individualizada (anarquía) capaz de poner en riesgo las políticas energéticas oficiales dentro del país; y

3. preservando los flujos de la renta derivados de gravar fuentes de energía actualmente en uso.

Sus armas incluyen:

* la obstaculización en la emisión de patentes, bajo argumentos de seguridad nacional,

* el hostigamiento, legal e ilegal, de inventores a través de cargos criminales, auditorías de impuestos, amenazas, intervenciones telefónicas, detención, incendios malintencionados, el hurto de la propiedad durante el envío, y

* un sinfín de otras intimidaciones, que hacen que resulte imposible el negocio de construir y comercializar una máquina de energía libre.

3. Desilusión y falta de honradez en el movimiento de FE (Free Energy=Energía Libre)

La tercera fuerza que opera para posponer la disponibilidad pública de la tecnología de la energía libre consiste en el grupo de inventores estafadores y charlatanes. En la periferia de los grandes y extraordinarios avances científicos, que constituyen las tecnologías de energía libre reales, descansa un mundo sombrío de anomalías inexplicadas, de invenciones marginales y de promotores sin escrúpulos. Las primeras dos fuerzas utilizan constantemente a los medios para mostrar los peores ejemplos de este grupo, distraer la atención del público, y desacreditar los verdaderos avances, asociándolos a los fraudes obvios.Durante los últimos 100 años han emergido docenas de historias acerca de invenciones inusuales.

Algunas de estos conceptos cautivaron la imaginación del público de tal forma, que se creó una mitología sobre estos sistemas que continúa hasta día de hoy.Nombres como Hubbard, Coler y Mark Hendershot acuden inmediatamente a la mente. Detrás de estos nombres quizás existían verdaderas tecnologías, pero simplemente no existen suficientes datos técnicos disponibles en el dominio público para tomar una decisión. A pesar de que estos nombres son citados por los “desenmascaradores” como ejemplos de fraude, siguen estando asociados a una mitología de la energía libre. Porque la idea de la energía libre emerge de lo más hondo de la mente subconsciente humana.Sin embargo, algunos inventores con tecnologías marginales que demuestran anomalías útiles, han exagerado erróneamente la importancia de su invención.

También algunos ellos han exagerado de forma equivocada la importancia de sí mismos para inventarla. Aparece entonces una combinación de la “fiebre del oro” y/o de un “complejo de Mesías”, que rompen por completo cualquier contribución futura que puedan hacer. Mientras van siguiendo el hilo de una investigación que parece aportar una gran promesa, empiezan a intercambiar entusiasmo por hechos, con lo que a partir de ese punto, la validez de su trabajo científico decae grandemente.

Hay una poderosa y sutil seducción que puede someter a cualquier personalidad, si ésta llega a creer que “lleva el peso del mundo en sus hombros”, o que es el “salvador” del mundo.Cuando las personas piensan que pueden llegar a ser extremadamente ricas, cualquier cosa les puede suceder. Seguir siendo objetivo y humilde, en presencia de una máquina de energía libre operativa, requiere de una enorme disciplina espiritual. Las psiques de muchos inventores devienen inestables simplemente porque creen tener una máquina de energía libre.

Y a la par que la calidad del trabajo científico se deteriora, algunos inventores empiezan también a desarrollar un complejo de persecución que les coloca muy a la defensiva e inalcanzables.

Este proceso les imposibilita para desarrollar realmente una máquina de energía libre, e incrementa enormemente las mitologías del fraude.Luego están los verdaderos estafadores. En los últimos 15 años, una persona en EE.UU. ha llevado la estafa de la energía libre a la categoría de arte profesional. Ha ganado más de 100,000,000 de dólares americanos; ha estado entre rejas por hacer negocio en el estado de Washington; encarcelado en California, y todavía sigue en el negocio. Habla siempre de una variación de uno de los verdaderos sistemas de energía libre, vende a la gente la idea de que ellos conseguirán pronto uno de estos sistemas, pero en última instancia vende sólo la información promocional, no da ningún dato verdadero sobre el sistema de energía en sí mismo. Ha sido perseguido sin compasión por las comunidades cristianas y patriotas estadounidenses, y todavía sigue fuerte.

El actual fraude de esta persona implica hacer firmar a cientos de miles de personas en las localidades donde instalarán una máquina de energía libre. A cambio de instalar un generador de FE en su hogar, obtendrán electricidad libre para toda la vida, y su compañía venderá el exceso de energía a la empresa del servicio público local.

Tras ser convencidos de que recibirán electricidad libre para toda la vida, compran con gusto una película de vídeo, que además ayuda a convencer del fraude a sus amigos.Una vez que se entiende el poder y las motivaciones de las primeras dos fuerzas de las que hemos hablado, resulta obvio que el “plan de negocio actual” de esta persona es inviable. Esta persona probablemente haya causado más daño al movimiento de la energía libre en EE.UU. que cualquier otra fuerza, destruyendo la confianza de la gente en esta tecnología.

Así pues, la tercera fuerza que pospone la disponibilidad pública de la tecnología de la energía libre es la desilusión y la falta de honradez dentro del propio movimiento. Las motivaciones son el auto-engrandecimiento, la avaricia, el deseo de poder por encima de todo, y un falso sentido de la presunción.Las armas utilizadas son: la mentira, el engaño, el timo del “cebo y el cambio” (la “estampita”), el autoengaño y la arrogancia, combinados con una ciencia vil.

4. Un público no-exigente

La cuarta fuerza que funciona para posponer la disponibilidad pública de la tecnología de la energía libre es… todo el resto de nosotros. Es fácil ver cuán despreciables y estrechas de miras son las motivaciones de las otras fuerzas, pero esas motivaciones están también muy vivas dentro de cada uno de nosotros.Al igual que las familias más ricas, ¿acaso cada uno de nosotros no abrigamos secretamente ilusiones de una falsa superioridad, y deseamos controlar a los demás en vez de a nosotros mismos?¿O acaso no podríamos “vendernos”, si el precio fuera suficientemente alto?

Por ejemplo, si nos ofrecen ahora 1 millón de dólares en efectivo.O, como los gobiernos: ¿no deseamos todos asegurar nuestra propia supervivencia?Si estamos en el centro de un teatro lleno de gente y se declara un incendio, ¿acaso no nos aterramos, y empujamos sobre todo a los más débiles, apartándolos, para llegar a la puerta en tiempo mínimo?O, como el inventor-estafador, ¿no negociamos una ilusión cómoda, de vez en cuando, por un hecho incómodo? Y ¿no nos gusta pensar más en nosotros mismos que en que otros nos den crédito?O ¿acaso no tenemos miedo a lo desconocido, incluso si esto promete una gran recompensa?

En realidad podemos ver que las cuatro fuerzas son apenas diversos aspectos del mismo proceso, funcionando a diversos niveles en la sociedad. Sólo existe una fuerza que impide la disponibilidad pública de la tecnología de la energía libre, y es el comportamiento no motivado espiritualmente del animal humano.

En el análisis anterior, la tecnología de la energía libre es una manifestación exterior de la abundancia Divina. Es el motor de la economía de una sociedad iluminada — donde la gente se comporta voluntariamente de una manera respetuosa y civilizada hacia todos; donde cada miembro de la sociedad tiene todo lo que necesita y no desea lo que tiene su vecino; donde la guerra y la violencia física son comportamientos socialmente inaceptables; y donde las diferencias entre la gente están no ya simplemente toleradas, sino vistas con agrado.El aspecto de la tecnología de la energía libre en el dominio público es el amanecer de una era verdaderamente civilizada. Es un acontecimiento de nuestra época en la historia humana. Nadie puede “otorgarse el crédito” de ella.

Nadie puede “hacerse rico” con ella. Nadie puede “mandar en el mundo” con ella. Es, simplemente, un regalo de Dios. Nos fuerza a todos a tomar la responsabilidad de nuestras propias acciones, y de nuestro propio dominio del yo mismo autodisciplinado, cuando sea necesario. El mundo, tal como está actualmente, no puede disponer de la tecnología de la energía libre, sin haberse antes transformado totalmente en algo más.

Esta civilización ha alcanzado ya el límite de su desarrollo, porque le han nacido las semillas de su propia transformación. A los animales humanos no espirituales no se les puede confiar la energía libre. Harán solamente lo que siempre han hecho, que es ventaja sin piedad sobre cualquiera, o matarse ellos mismos en el proceso.Si se retrocede y se lee el atlas resumido de Ayn Rand (1957), o los informes del Club de Roma, “The Limits To Growth” (1972), llega a ser obvio que las familias más ricas lo han comprendido así durante décadas.

Su plan es vivir en el mundo de la energía libre excluyendo permanentemente al resto de nosotros. Esto no es nuevo. Las regalías siempre han considerado generalmente a la población (nosotros) sus objetivos.Lo nuevo es que ahora podemos comunicarnos todos mucho mejor que en cualquier otro momento del pasado. Internet nos ofrece a nosotros, la cuarta fuerza, una oportunidad para superar los esfuerzos combinados de las otras tres fuerzas, que están impidiendo la extensión de la tecnología de la energía libre.

La oportunidad para una sociedad más justa

Lo que está empezando a suceder es que los inventores están publicando su trabajo en vez de patentarlo y mantenerlo secreto. Más y más gente están entregando la información sobre estas tecnologías en libros, vídeos y sitios Web. Aunque todavía hay mucha información inútil sobre la energía libre en Internet, la disponibilidad de la buena información se está incrementando rápidamente. Al final de este artículo hay una lista de sitios Web y de otros recursos.Es imprescindible que se empiece a recopilar toda la información que se pueda de los verdaderos sistemas de energía libre. La razón de esto es simple. ¡Las primeras dos fuerzas nunca permitirán que un inventor o compañía construya y venda una máquina de energía libre a cualquiera! La única manera de conseguirlo es construirlo uno mismo (o conseguir que un amigo más hábil lo construya).

Esto es exactamente lo que están comenzando a hacer, de forma cauta y silenciosa, miles de personas. Uno puede sentirse completamente inadecuado para esta tarea, pero se empieza recopilando la información ahora. Uno puede ser apenas un eslabón en la cadena de acontecimientos para beneficio de otros. Hay que centrarse en lo que se puede hacer ahora, no en cuánto queda por hacer. Los pequeños grupos de investigación privados están resolviendo los detalles mientras usted lee este artículo. Muchos confían en publicar sus resultados en Internet.Todos nosotros constituimos la cuarta fuerza.

Si nos levantamos y rechazamos seguir permaneciendo ignorantes e inactivos, podemos cambiar el curso de la historia. Es la suma de nuestra acción combinada lo que puede marcar la diferencia. Solamente la acción total que representa nuestro consenso puede crear el mundo que deseamos. Las otras tres fuerzas no nos ayudarán a poner una central eléctrica sin combustible en nuestro sótano.

No nos ayudarán a estar libres de sus manipulaciones.Sin embargo, la tecnología de la energía libre está aquí. Es verdadera, y cambiará todo sobre la manera en que vivimos, trabajamos y como nos relacionamos el uno con el otro. En el análisis anterior, la tecnología de la energía libre hace que la avaricia y el miedo para nuestra supervivencia resulten obsoletos. Pero como en todos los ejercicios de fe espiritual, primero debemos manifestar la generosidad y confianza en nuestras propias vidas.La fuente de la energía libre está dentro de nosotros. Es ese entusiasmo de expresarse libremente.

Es nuestra intuición espiritual dirigida, que se expresa sin la distracción, intimidación o manipulación. Es nuestro buen corazón abierto. Idealmente, las tecnologías de la energía libre sostienen a una sociedad justa donde cada uno tiene suficiente alimento, ropa, abrigo, autoestima y tiempo libre para contemplar los significados espirituales más altos de la vida. ¿Acaso no debemos enfrentarnos a nuestros propios miedos, y pasar a la acción para crear este futuro para los hijos de nuestros hijos?

Quizás no seamos los únicos esperando actuar con una mayor verdad.La tecnología de la energía libre está aquí. Ha estado aquí durante décadas. Las nuevas tecnologías de la comunicación, e Internet, han rasgado el velo del secreto de este hecho notable. Personas de todo el mundo están empezando a construir dispositivos de energía libre para su propio uso. Los banqueros y los gobiernos no quieren que esto suceda, pero no pueden pararlo.En un futuro cercano, las enormes inestabilidades económicas y las guerras serán utilizadas para distraer a la gente de unirse al movimiento de la energía libre. Esencialmente, no habrá cobertura de los medios más importantes sobre este aspecto ni sobre lo que esté sucediendo.

Se divulgará simplemente como guerras y guerras civiles que entran en erupción por todas partes, conduciendo al envío de las “fuerzas de paz” de la ONU a más y más países.La sociedad occidental está cayendo en espiral hacia la autodestrucción debido a los efectos acumulados a largo plazo de la avaricia y de la corrupción. La disponibilidad general de la tecnología de la energía libre no puede detener esta tendencia, sólo puede reforzarla.

Sin embargo, si se tiene un dispositivo de energía libre, se puede colocar en una mejor posición para sobrevivir la transición política, social, económica que está en curso. Ningún gobierno nacional sobrevivirá este proceso. La pregunta es entonces, en última instancia ¿quién controlará el gobierno del mundo que emerge? ¿La primera fuerza o la cuarta fuerza?La última gran guerra está casi sobre nosotros. Las semillas están sembradas. Después de esto vendrá el principio de una civilización verdadera. Los que rechacen luchar sobrevivirán para ver el amanecer del mundo de la energía libre. Os desafío a estar entre los que lo intentan.

20130615

Suecia prohibe el uso de Google Apps en el sector público

la noticia habla de Google, pero mirando un poco más allá.. ¿debería cualquier país utilizar Windows (Sistema Operativo con numerosas puertas traseras, que no pueden garantizar la protección de la privacidad)?


Suecia prohibe el uso de Google Apps en el sector público

  • Funcionarios suecos aducen que hay fallos en la protección de la privacidad de los usuarios. 
  • La decisión llega en un momento de cambios para Google en el continente europeo.
  • Se cuestiona la política de igualdad de condiciones en el uso de las funciones de Google.
Suecia impulsa nuevas regulaciones
El gobierno sueco ha decidido esta semana que prohibirá el uso de cualquier producto de la nube de Google -incluyendo calendario, Gmail y Google Drive- dentro de instituciones públicas ya que consideran que Google puede tener acceso a la información de los usuarios y que los usuarios en el sector público no pueden asegurar que los derechos de protección de datos están asegurados.

El fallo incluye una evaluación con ejemplos de una deficiencia dentro del contrato de Google, incluyendo la incertidumbre sobre cómo podría la información ser recopilada o procesada por el gigante informático.

La decisión llega en un momento difícil para la compañía dueña del motor de búsquedas más utilizado en el mundo: después de las revelaciones sobre posible entrega de datos de usuarios al gobierno norteamericano, un grupo de expertos en la protección de datos de la UE decide cómo responder a las nuevas condiciones de privacidad de la compañía, que amalgama datos en todos sus productos y servicios.

Esta decisión también afectaría el uso de la nube de Google en otros ámbitos cómo escuelas, donde son útiles por la posibilidad de compartir grandes cantidades de información pero donde se pierde el control sobre la misma.

Noruega podría sumarse próximamente a estas regulaciones, y es posible que otros gobiernos de la región tomen el ejemplo sueco para sus países. 

La Unión Europea teme por la privacidad de sus datos

La Unión Europea teme por la privacidad de sus datos

  • La Comisión pedirá explicaciones a EE UU sobre el espionaje
  • Los países negocian desde hace meses cómo cerrar las lagunas de privacidad

El espionaje informático en Estados Unidos ha colocado en primer plano un problema que inquieta a Europa desde hace meses: la desprotección de los datos personales. Apenas unas horas más de conversación les faltaron a los ministros europeos de Justicia del pasado jueves para que la revelación del programa estadounidense centrara la reunión en la que los mandatarios trataban de reforzar las normas comunitarias de protección de datos. La Comisión Europea constató con pesar que hay Estados dispuestos a bloquear esa regulación poco antes de que The Guardian revelara con sus informaciones la urgencia de pactar ese nuevo marco.

Las normas comunitarias sobre esta materia datan de 1995. Pese a figurar todavía entre las más garantistas del mundo, la irrupción de Internet en la vida diaria de los europeos —y especialmente la llegada de las redes sociales— ha convertido en obsoleta la regulación. El Ejecutivo comunitario lanzó hace ya año y medio una propuesta para restringir el acceso que compañías y poderes públicos tienen a datos sensibles de los usuarios y regular cuestiones tan novedosas como el derecho al olvido.

Desde entonces, los Estados miembros se resisten a ponerse de acuerdo en elementos fundamentales de la regulación. Pero la irrupción del espionaje estadounidense ha desatado el nerviosismo de algunos miembros de la Comisión Europea. “Este caso demuestra que un marco legal para la protección de datos personales no es un lujo, sino un derecho fundamental. Ya es hora de que el Consejo Europeo demuestre que puede actuar rápidamente para reforzar los derechos de los ciudadanos”, reclamó la vicepresidenta de la Comisión Europea y responsable de Justicia, Viviane Reding, tras conocerse el espionaje.

A la hora de evaluar el grado de desprotección de los ciudadanos en la red, tan importante resulta la regulación europea como la que detalla los intercambios de datos entre Europa y Estados Unidos. Ninguna de las dos acaba de concretarse. Pero el escándalo de la vigilancia ha llegado a tiempo para centrar la reunión que mantendrán a partir del miércoles en Dublín los responsables europeos con las autoridades estadounidenses. La casualidad ha querido que este encuentro anual se dedique en esta ocasión a la protección de datos.

Ni la regulación europea ni la que controla los intercambios con EE UU termina de concretarse

Reding tendrá la oportunidad de preguntar a Estados Unidos los detalles del espionaje, a cuántos europeos ha afectado y cómo piensa garantizar la seguridad de las comunicaciones, según explica una portavoz de la comisaria. La preocupación no es nueva. La Unión Europea entrega ya numerosos datos de sus ciudadanos a Estados Unidos (de los pasajeros aéreos, de las transferencias bancarias...), pero no tiene garantías de que el tratamiento de esos datos respete los estándares europeos. Por eso la comisaria de Justicia explora desde 2011 un acuerdo de protección de datos vinculado a la cooperación policial y judicial. Porque en la práctica, por muchas regulaciones que se aprueben al respecto, tanto los poderes públicos como los privados tienen acceso a información clave del ciudadano que puede ser utilizada en su contra.

Varios elementos bloquean desde hace tiempo esa colaboración entre las dos potencias. Entre ellos, que un ciudadano estadounidense que considere violada su privacidad puede reclamar ante las autoridades europeas, mientras un europeo no puede hacer lo mismo frente la administración estadounidense. La Comisión quiere, además, clarificar si esos intercambios implicarían una cesión indiscriminada de datos o se trataría de peticiones cuando existan “sospechas concretas”, explican fuentes comunitarias. “Cuando un ciudadano europeo manda mensajes o llama por teléfono a alguien en Estados Unidos no espera que sus datos personales sean interceptados o transmitidos a terceras personas”, describen.

Otras fuentes comunitarias consideran que las posibilidades de aproximación en este acuerdo de intercambio de datos son ahora más limitadas que antes de conocerse la revelación del cerco a las comunicaciones privadas. Aunque algunos Estados miembros son menos beligerantes en este terreno, la mayoría recela del uso que Estados Unidos pueda dar a esas bases de datos, mucho más ahora. La propia canciller alemana, Angela Merkel, aprovechará la cita que mantendrá con el presidente estadounidense, Barack Obama, el próximo 18 de junio para pedirle explicaciones sobre este caso.

El control de las comunicaciones indigna especialmente al Parlamento Europeo, muy celoso de la privacidad de los ciudadanos. “¿Cómo podemos hablar de relación especial entre la Unión Europea y Estados Unidos cuando Obama dice explícitamente que solo han espiado a extranjeros?”, se pregunta la diputada holandesa liberal Sophie in 't Veld, gran defensora de las libertades civiles.

20130614

La deuda de la Complutense paraliza los proyectos de los investigadores


La deuda de la Complutense paraliza los proyectos de los investigadores



El dinero que el Ministerio de Economía asigna de forma directa a los proyectos científicos de la Universidad Complutense de Madrid (UCM) ha sido ingresado a esa universidad. Pero esta, dada la crítica situación financiera que padece, no ha puesto inmediatamente esos fondos a disposición de los investigadores destinatarios, retrasando tanto los pagos con los que ellos contaban para trabajar que se han visto inmersos en un laberinto de facturas impagadas, proveedores que dejan de suministrarles material de laboratorio, reclamaciones de colegas internacionales, bloqueo en las revistas donde tienen que publicar sus resultados... Esta situación se da en medio de una drástica reducción de los presupuestos de ciencia de los últimos años que, en el caso de los científicos de la UCM, les afecta por partida doble hasta el punto de entorpecer gravemente el desarrollo de sus investigaciones.

Lo denuncia la Plataforma de Investigadores de la UCM. Este estrangulamiento de financiación a la investigación ha provocado “incluso la paralización de proyectos”, señala el colectivo, o el encarecimiento de los mismos al tener que abonar sobrecostes por los retrasos de pago, que han llegado a superar el año. “Estamos afectados por este problema cientos de investigadores de la Complutense”, denuncia un miembro de la Plataforma. El colectivo explica que el agujero financiero que está provocando este atolladero para los científicos en la mayor universidad presencial de España (100.000 alumnos y 6.000 profesores) ronda los 50 millones de euros en la Fundación Complutense, la entidad encargada de gestionar fondos de investigación que obtiene el personal de la UCM. Según la Plataforma, que agrupa a unos 600 investigadores, un tercio del total de profesores de la UCM realiza “investigación activa”, es decir, en programas competitivos.



El rectorado de la Complutense reconoce el problema y asegura que está haciendo lo posible para remediarlo. “No queremos echar la culpa a los gestores anteriores de la UCM, pero la realidad es la que es: el actual equipo rectoral llegó en junio de 2011 y nos encontramos con una deuda de 50 millones de la UCM con la Fundación; la mayor parte es dinero de investigación”, explicó a EL PAÍS el vicerrector de Investigación, Joaquin Plumet. “Desde que llegamos al rectorado hemos intentado transferir mayor cantidad de fondos a la Fundación para remediar la situación y la demora de pago a proveedores, si en 2012 era superior a un año, ahora es de tres o cuatro meses”.

El problema no aflora en una fecha fija, sino que es producto de una paulatina deriva presupuestaria de la Fundación. Los científicos empezaron a sufrir los efectos cada vez más acuciantes de los retrasos y los impagos, hasta llegar a una situación desesperada.

La Plataforma de Investigadores canaliza una larga y detallada lista de científicos que cuentan las dificultades que sufren. Varios denuncian el aumento de precios (un 15% o 20%) de los suministros. Para otros, la situación es más grave aún porque los proveedores se han negado a servirles el material, dada la deuda acumulada, o no realizan servicios de reparación y mantenimiento de equipos de laboratorio. Varios profesores se quejan de impagos de facturas de viajes a colaboradores, incluso de instituciones extranjeras, que anticiparon los gastos y que no logran cobrar tras varios meses reclamando el dinero, con la “consiguiente merma del prestigio de la Universidad Complutense”, añade uno de ellos.

Unos profesores se quejan de no haber podido pagar cuotas de inscripción a congresos internacionales. En el animalario de un centro “la mayoría de los proveedores (de guantes, calzas, mascarillas, alcohol, pienso, anestésicos, etcétera) han dejado de servir a la UCM, por lo que parte de ese gasto lo asumimos ahora los investigadores”, denuncia otro. Entre las quejas destaca una sobre “la imposibilidad de usar laboratorios de máxima calidad, por ejemplo para dataciones de precisión, ya que solo aceptan el pago en 60 días”. Se llega a denunciar la “imposibilidad de realizar experimentos con animales”.

Un investigador remite una foto de un abultado archivador de facturas impagadas sobre su mesa. Una imagen vale más que mil palabras. Y otros exponen el problema surgido cuando el retraso en el pago de las tarifas de publicación de las revistas científicas les complica la presentación de sus investigaciones en ellas.

Los científicos que presentan sus proyectos en programas competitivos y son seleccionados por su calidad e interés tras ser evaluados, reciben cada uno una asignación para desarrollarlo (en un plazo de tiempo fijo), y tienen que ir justificando los gastos. El procedimiento habitual es que la institución en la que trabaja el investigador abra para él una línea de gasto.

En el caso de la UCM, la Plataforma achaca los problemas de acceso a la financiación a la estrategia del rectorado, que trabaja con una caja única a la que va a parar todo el dinero que llega a la universidad, independientemente de su origen y destino, y de la que salen todos sus pagos. Pero el dinero de los proyectos de investigación (del Plan Nacional de I+D+i, de programas europeos o de la autonomía) se asigna individualmente. Y los titulares son responsables del uso apropiado del dinero en los plazos establecidos (tres años en el Plan Nacional). Plumet admite que existe una política de caja única y recalca que la investigación es prioritaria, pero por detrás del pago de los sueldos del personal.

La Secretaría de Estado de I+D+i, que gestiona y financia los proyectos del Plan Nacional, afirma que no le consta que esté produciéndose la situación que denuncia la Plataforma de la UCM debido a la caja única, pero recuerda que “el dinero de los proyectos ha de ser justificado pormenorizadamente al término del mismo (con posibles prórrogas argumentadas y justificadas) y, en caso de que no se cumpla, la institución tiene que devolver el dinero no justificado”.

Los científicos de la UCM quieren soluciones ya. El rectorado dice que se están pagando las facturas urgentes de proveedores y Plumet reconoce su “obligación de intentar arreglar este problema”. Pero incide en que, con los profundos recortes de financiación de la Comunidad de Madrid que sufre la Complutense, “la situación no se arregla en un día”.

20130612

La invención de Edwin Armstrong

La invención de Edwin Armstrong


Edwin Howard Armstrong es uno de los genios inventores estadounidenses olvidados. Llegó a la gran escena de los inventores estadounidenses justo después de los titanes Thomas Edison y Alexander Graham Bell. Pero su trabajo en el área de la tecnología radiofónica es quizá más importante que el de cualquier inventor individual en los primeros cincuenta años de la radio. Mejor preparado que Michael Faraday, quien siendo aprendiz de un encuadernador había descubierto la inducción eléctrica en 1831, pero con la misma intuición acerca de cómo funcionaba el mundo de la radio. Al menos en tres ocasiones Armstrong inventó tecnologías que significaron muy importantes avances en nuestra comprensión y utilización de la radio.

El día después de la Navidad de 1933 a Armstrong se le otorgaron cuatro patentes por su invención más significativa: la radio FM. Hasta entonces, la radio comercial había sido de amplitud modulada (AM). Los teóricos de esa época habían dicho que una radio de frecuencia modulada jamás podría funcionar. Tenían razón en lo que respecta a una radio FM en una banda estrecha del espectro. Pero Armstrong descubrió que una radio de frecuencia modulada en una banda ancha del espectro podría proporcionar una calidad de sonido asombrosamente fiel, con mucho menos consumo del transmisor y menos estática.

El cinco de noviembre de 1935 hizo una demostración de esta tecnología en una reunión del Instituto de Ingenieros de Radio en el Empire State Building en Nueva York. Sintonizó su dial a través de una amplia gama de emisoras de AM, hasta que sintonizó una emisión que había organizado a 27 kilómetros de distancia. La radio se quedó totalmente en silencio, como si estuviese muerta, y después, con una claridad que nadie en esa sala jamás había oído en un dispositivo eléctrico, produjo el sonido de la voz de un locutor: “Ésta es la emisora aficionada W2AG en Yonkers, Nueva York, operando en una frecuencia modulada de dos metros y medio”.

La audiencia estaba oyendo algo que nadie había pensado que fuera posible:

Se vació un vaso de agua delante del micrófono en Yonkers; sonó como vaciar un vaso de agua… Se arrugó y rasgó un papel; sonó como un papel y no como un fuego crepitando en mitad del bosque… Se tocaron discos de marchas de Sousa y se interpretaron un solo de piano y una pieza para guitarra… La música se proyectó con una sensación de estar realmente en un concierto que raras veces se había experimentado con una “caja de música” radiofónica.

Como nos dice nuestro sentido común, Armstrong había descubierto una tecnología radiofónica manifiestamente superior. Pero en la época de su invento, Armstrong trabajaba para la RCA. La RCA era el actor dominante en el mercado de la radio AM. Para 1935, había mil estaciones de radio por todos los EE.UU., pero las emisoras de las grandes ciudades estaban en manos de un puñado de cadenas.

El presidente de la RCA, David Sarnoff, amigo de Armstrong, estaba deseando que Armstrong descubriera un medio para eliminar la estática de la radio AM. Así que Sarnoff estaba muy entusiasmado cuando Armstrong le dijo que tenía un dispositivo que eliminaba la estática de la “radio”. Pero cuando Armstrong hizo una demostración de su invento, Sarnoff no estuvo contento.


Pensaba que Armstrong inventaría algún tipo de filtro que eliminara la estática de nuestra radio AM. No pensaba que empezaría una revolución, empezaría toda una maldita industria que competiría con la RCA.

El invento de Armstrong amenazaba el imperio AM de la RCA, así que la compañía lanzó una campaña para ahogar la radio FM. La FM era una tecnología superior, pero Sarnoff era un estratega superior. Tal y como un autor lo describe:


Las fuerzas a favor de la FM, en su mayoría del campo de la ingeniería, no pudieron superar el peso de la estrategia diseñada por las oficinas legales, de ventas y de patentes para derrotar esta amenaza a la posición de la corporación. Porque la FM, en caso de que se le permitiera desarrollarse sin trabas, presentaba [...] un reordenamiento completo del poder en el campo de la radio [...] y la caída final del sistema cuidadosamente restringido de la AM sobre la cual la RCA había cultivado su poder.

La RCA, en un principio, dejó la tecnología en casa, insistiendo en que hacían falta más pruebas. Cuando, después de dos años de pruebas, Armstrong empezó a impacientarse, la RCA comenzó a usar su poder con el gobierno para detener en general el despliegue de la FM. En 1936, la RCA contrató al anterior presidente de la FCC y le asignó la tarea de asegurarse de que la FCC asignara espectros de manera que castrara la FM, principalmente moviendo la radio FM a una banda del espectro diferente–. En principio, estos esfuerzos fracasaron. Pero cuando Armstrong y el país estaban distraídos con la Segunda Guerra Mundial, el trabajo de la RCA empezó a dar sus frutos. Justo antes de que la guerra terminara, la FCC anunció una serie de medidas que tendrían un efecto claro: la radio FM quedaría mutilada. Tal y como Lawrence Lessing lo describe:


La serie de golpes recibidos por la radio FM justo después de la guerra, en una serie de decisiones manipuladas a través de la FCC por los grandes intereses radiofónicos, fue casi increíble en lo que respecta a su fuerza y perversidad.

Para hacerle hueco en el espectro a la última gran apuesta de la RCA, la televisión, los usuarios de la radio FM tuvieron que ser trasladados a una banda del espectro totalmente nueva. También se disminuyó la potencia de las emisoras de FM, lo que significó que la FM ya no podía usarse para transmitir programas de un extremo a otro del país (este cambio fue fuertemente apoyado por AT&T, debido a que la pérdida de estaciones repetidoras significaría que las estaciones de radio tendrían que comprarle cable a AT&T para poder conectarse). Así se ahogó la difusión de la radio FM, al menos por el momento.

Armstrong ofreció resistencia a los esfuerzos de la RCA. En respuesta, la RCA ofreció resistencia a las patentes de Armstrong. Después de incorporar la tecnología FM al estándar emergente para la televisión, la RCA declaró las patentes sin valor, sin base alguna, y casi quince años después de que se otorgaran, se negó a pagarle derechos a Armstrong. Durante cinco años, Armstrong peleó una cara guerra de litigios para defender las patentes. Finalmente, justo cuando las patentes expiraban, la RCA ofreció un acuerdo con una compensación tan baja que ni siquiera cubriría las tarifas de los abogados de Armstrong. Derrotado, quebrado, y ahora en bancarrota, en 1954 Armstrong le escribió una breve nota a su esposa y luego saltó desde la ventana de un decimotercer piso.