domingo, 21 de diciembre de 2008

Los Descubrimientos Astronomicos Más Recientes

LA ASTRONOMÍA no se ha quedado estacionaria en su acervo de conocimientos. Todo lo contrario, año con año, se hacen nuevos descubrimientos que amplían nuestra concepción del Universo. En este capítulo describimos someramente algunos de los resultados recientes de mayor relevancia.



1) Los hoyos negros sí tienen emisiones

Uno de los conceptos teóricos más importantes de nuestro tiempo es el de los hoyos negros. La teoría de la relatividad general predice que si compactamos la masa de un objeto más y más, con el tiempo alcanzaremos un radio para el cual la atracción gravitacional en la superficie del objeto es tan grande que ni aun la luz podría escapar de ellos. Para un objeto con la masa de la Tierra este radio crítico (llamado radio de Schwarzchild) es de sólo 0.9 cm. Como es imposible para la tecnología actual el crear un hoyo negro en el laboratorio, se les ha tratado de detectar en distintas partes del Cosmos, donde cierto tipo de fenómenos que involucran energías astronómicas podrían crear hoyos negros. Por ejemplo, se cree que las explosiones estelares llamadas supernovas podrían comprimir la parte central de una estrella hasta formar un hoyo negro.

¿Han finalmente detectado los astrónomos un hoyo negro más allá de toda duda? Esta es una pregunta muy difícil de contestar. Existen observaciones de ciertas regiones del Universo en donde se cree que existen hoyos negros, pero la evidencia no es concluyente aún. Como hemos dicho, se creía hasta hace poco que los hoyos negros no emitían ningún tipo de radiación y por lo tanto habría que probar su existencia indirectamente por los efectos de atracción gravitacional que producirían sobre estrellas o nubes gaseosas que estuviesen cerca de ellos. El sistema estelar binario con emisión de rayos X llamado Cisne-X, es uno de los mejores candidatos, pues se cree que uno de los dos objetos que lo forman es un hoyo negro con una masa varias veces mayor que la de nuestro Sol.

También se cree que el centro de nuestra Galaxia alberga un hoyo negro supermasivo, con millones de veces la masa del Sol. Esto se ha deducido a partir de las grandes velocidades de rotación de las nubes gaseosas que existen a su alrededor. Se ha propuesto también que un hoyo negro aún más masivo, con miles de millones de veces la masa del Sol, existe en el centro de la galaxia eruptiva M 87. Existen muchas galaxias que al ser observadas en las frecuencias de radio muestran chorros de plasma que son eyectados desde su núcleo. La causa de esta actividad también ha sido atribuida a un hoyo negro supermasivo. Todas estas evidencias son indirectas puesto que el hoyo negro, en caso de existir, no posee (se decía) emisión característica alguna.

En 1974 y para sorpresa general, el físico inglés S. W. Hawking demostró en una serie de trabajos ya clásicos, que en realidad los hoyos negros sí tienen una emisión característica. Su resultado se basa en la aplicación de la mecánica cuántica a las predicciones de la relatividad general. Cuando aquélla no se toma en cuenta, las partículas y la radiación no pueden escapar del hoyo negro. Sin embargo, de acuerdo con la mecánica cuántica, en una región en que hay fuerzas tan intensas, la probabilidad de creación de pares de partículas no es despreciable. El fenómeno de creación de pares, predicho por Dirac en 1931 como la producción de un electrón y un positrón a partir de la radiación electromagnética, sin dejar de seguir siendo sorprendente, es un fenómeno muy familiar para los físicos dedicados al estudio de las partículas elementales. Las condiciones en que se encuentra el espacio en la superficie de un hoyo negro favorecen la creación de partículas que originan la emisión característica de este objeto.

¿Podremos en el futuro detectar directamente a los hoyos negros por medio de su emisión de partículas? Al parecer no, porque ella es debilísima y se confunde con la emisión de los muchos otros objetos "normales" que pueblan el Universo. Aunque parezca paradójico, las teorías predicen que los hoyos negros que emiten más intensamente son los más pequeños. Mientras más emiten, más masa pierden y más pequeños se hacen. Si durante la Gran Explosión en la que se originó el Universo se crearon hoyos negros de todos los tamaños, es posible predecir que los que originalmente tuvieron una masa de 1015 gramos (similar a la masa de un asteroide) son los que estarían emitiendo más intensamente en el presente. De hecho, éste efecto de transformación de masa en energía es catastrófico y el hoyo negro acabaría su vida emitiendo un pulso de rayos gamma. Se han hecho experimentos buscando recibir estos pulsos y hasta ahora no se han detectado.




Concepto Artistico de Un Agujero Negro





Expansiones superlumínicas en los núcleos de los cuasares

Como sabe todo físico, la velocidad de la luz (300 000 kilómetros por segundo) no puede ser alcanzada, mucho menos excedida, por los cuerpos del mundo real. A principios de la década de los setentas, varios grupos de radioastrónomos comenzaron a estudiar los núcleos de los misteriosos cuasares usando las poderosas técnicas de la interferometría de base muy larga. Esta técnica consiste en el uso simultáneo de varios radiotelescopios distribuidos sobre vastas áreas geográficas, y permite obtener mapas de la emisión de objetos de pequeñísimas dimensiones angulares.

Un resultado muy importante se obtuvo al realizar mapas de un mismo cuasar en distintas épocas y compararlos luego. Los cuasares tienen erupciones en las que su brillo aumenta considerablemente. Se encontró que estas erupciones van acompañadas de la eyección de dos o más nubes de plasma que se expanden respecto al centro del cuasar. Se encontró que estas nubes se expanden a velocidades que exceden la de la luz, típicamente de 5 a 10 veces.

Pero no hay por qué alarmarse y comenzar a buscar una alternativa a la teoría de la relatividad. Varios ingeniosos astrofísicos han demostrado que estos efectos podrían ser sólo aparentes, o sea una especie de ilusión óptica. Los diversos modelos propuestos involucran efectos de velocidad de fase. Estos efectos son similares a los que ocurren cuando una ola rompe al llegar a la orilla del mar. La formación de espuma se propaga rapidísimo, a velocidades mucho mayores que la de la ola en sí. Pero, por otra parte, ninguno de los varios modelos ha sido aceptado por la generalidad de los astrónomos y estas expansiones aparentemente superlumínicas siguen siendo uno de los misterios más importantes de la astronomía contemporánea.




Imagen Referencial de un Quasar



Moléculas complejas en el espacio interestelar

Los vastos espacios que existen entre las estrellas no se encuentran totalmente vacíos sino que los llena un tenue gas interestelar. Este gas se halla a su vez permeado por energéticas radiaciones ultravioletas capaces de destruir los lazos químicos de las moléculas. Se creía pues que sólo los resistentes átomos podrían subsistir en un medio tan inhóspito. Sin embargo, los setentas presenciaron el descubrimiento de complejas y delicadas moléculas en las llamadas nubes moleculares. El gas interestelar es muy inhomogéneo y se conglomera en nubes de años-luz de diámetro que por sus condiciones físicas son un criadero de moléculas complejas. Las partes centrales de estas grandes nubes moleculares se hallan escudadas de la destructiva radiación ultravioleta por el material de su periferia. En los núcleos de estas nubes se han descubierto más de 50 moléculas, algunas muy pesadas como el cianodiacetileno (HC5N). Es muy sugerente el que sea también en estas nubes moleculares donde se forman las nuevas estrellas, algunas de las cuales muy posiblemente tendrán planetas en los que quizá aparezca la forma más compleja de la organización de la materia: la vida. Parecería que la naturaleza se organiza en secuencias de mayor complejidad al ir del sencillo medio interestelar a las nubes moleculares y finalmente a estrellas y planetas.

La Busqueda de moleculas Complejas Podria Estar llegando a su Final


Vulcanismo activo en Ío

Nuestro conocimiento de los planetas y satélites que forman el sistema planetario del Sol se ha visto grandemente acrecentado con los datos proporcionados por las sondas espaciales enviadas por los Estados Unidos y la Unión Soviética. Particularmente impactante fue el descubrimiento hecho en marzo de 1979 por el vehículo espacial Viajero 1 de la existencia de volcanes activos en Ío, uno de los satélites de Júpiter. Cuatro meses después un segundo vehículo, Viajero II, estudió este fenómeno en más detalle. De los catorce satélites que se le conocen a Júpiter, probablemente sea Ío, el de características más peculiares. Hace quince años se descubrió que las emisiones a longitudes decamétricas de radio que Júpiter emite esporádicamente ocurrían, en general, cuando \315o se encontraba formando un ángulo recto respecto a la línea Tierra-Júpiter. Generalmente se cree que estas emisiones se deben a que lo perturba a la magnetosfera de Júpiter (en la que Ío se encuentra embebido) y que esto crea inestabilidades eléctricas que a su vez originan radiación de radio. Las emisiones son más fuertes en direcciones paralelas al movimiento de Ío y esta característica geométrica hace que se les detecte más comúnmente cuando Ío se halla formando un ángulo recto respecto a Júpiter, o sea cuando su movimiento orbital es paralelo a la línea de visión de la Tierra a Júpiter.

El descubrimiento de vulcanismo activo indica que, además de la Tierra, existen otros cuerpos en el Sistema Solar que tienen una superficie dinámica y cambiante. La atmósfera terrestre, con sus procesos asociados como la erosión y la sedimentación, da a la Tierra un tratamiento facial que mantiene su superficie aparentemente joven, puesto que paulatinamente hace desaparecer a los cráteres meteoríticos antiguos. Algo similar debe ocurrir en Ío, puesto que las fotos de los Viajeros 1 y II no muestran ningún cráter del tipo meteorítico. Esto implica que la superficie de Ío cambia y se rejuvenece en periodos del orden de sólo millones de años. En contraste, Ganimedes, otro de los satélites de Júpiter, debe de tener una superficie prácticamente estática puesto que se halla cubierto de cráteres creados por impactos meteoríticos.



Jupiter y el Satelite Io a la Derecha


¿Se formó nuestro Sistema Solar debido a la explosión de una supernova?

Se cree que cuando se formó nuestro Universo hace 15 mil millones de años, casi toda la materia se hallaba en la forma de los elementos hidrógeno y helio. Así, cuando se formaron las galaxias y en ellas las primeras estrellas, no había condiciones para la aparición de la vida porque ésta requiere de muchos otros elementos químicos como carbón, nitrógeno, oxígeno, etc. Afortunadamente, las estrellas más masivas de aquella primera generación de estrellas debieron haber terminado su vida en una explosión de supernova. El gas eyectado en esta explosión es muy importante puesto que es muy rico en los elementos químicos necesarios para la formación de planetas de tipo terrestre (silicio, aluminio, hierro, etc.), así como para la aparición de la vida (carbono, nitrógeno, oxígeno, etc.). Este gas se mezcla con el gas interestelar, de modo que para cuando se formaron nuevas estrellas ya existían las condiciones para que se formasen planetas terrestres y quizá vida. Es por esto que siempre se ha creído que las supernovas estaban relacionadas indirectamente con la formación de nuevos sistemas solares.

Recientemente, análisis químicos del meteorito Allende sugieren que esta relación entre supernovas y sistemas solares es mucho más estrecha de lo creído. El famoso meteorito Allende es llamado así porque cayó en 1969 cerca del pueblito de Allende, Chihuahua. En él se ha detectado un exceso del isótopo magnesio-26 que sólo se puede explicar proponiendo que cuando el meteorito se solidificó tenía aluminio-26 entre sus componentes. Lo importante de esto es que el aluminio-26 es un isótopo con una vida media relativamente corta (700 000 años) que decae hasta formar el magnesio-26. La presencia de un exceso de magnesio-26 en el meteorito Allende implica que hubo una explosión de supernova que inyectó elementos químicos en una nube de gas interestelar y que antes de que el aluminio-26 decayera se solidificó en los meteoritos. Inclusive se ha propuesto que fue precisamente esta explosión de supernova la que causó que un fragmento de nube gaseosa se colapsara para formar el Sistema Solar. En otras partes de nuestra Galaxia se ha encontrado evidencia de que cuando el gas eyectado por una supernova choca con nubes de gas interestelar, este gas es comprimido y en ciertos casos quizá se ha colapsado gravitacionalmente formando nuevas estrellas. Si esta teoría es correcta, concluiríamos que la muerte de las viejas estrellas causa el nacimiento de otras nuevas.

El Sistema Solar pudo haber sido originado por la explosion de una Supernova Ultragigantesca


Flujos bipolares en regiones de formación estelar

En 1980 dos grupos de radioastrónomos detectaron, durante sus estudios de regiones de formación estelar, un nuevo tipo de fenómeno inesperado. Uno de los grupos estaba encabezado por Ronald Snell de la Universidad de Texas y el otro por mí, que ya entonces laboraba para el Instituto de Astronomía de la UNAM. El fenómeno consiste en lo siguiente. Alrededor de las estrellas jóvenes se detectan dos nubes de gas que se alejan de la estrella en forma antiparalela. A este fenómeno se le bautizó, por su geometría, como un flujo bipolar. En la actualidad se conocen unos 50 casos de flujos bipolares.

¿Por qué son importantes los flujos bipolares? A primera aproximación, uno espera que cualquier material eyectado por una estrella salga en todas las direcciones, o sea con una geometría isotrópica. ¿Por qué los flujos bipolares sólo se alejan de la estrella en dos direcciones? La respuesta tentativa que se ha dado a esta pregunta es que alrededor de las estrellas jóvenes existe un disco de gas que detiene a las eyecciones de la estrella en su plano. Las eyecciones sólo pueden salir por los polos del disco, formándose un flujo bipolar.

La posible existencia de un disco alrededor de las estrellas jóvenes es importante porque se cree que esta situación ocurrió para nuestro Sol poco después de su formación. Este disco hipotético es muy interesante porque de él se podrían formar posteriormente los planetas. Con el avance en la capacidad de la instrumentación astronómica ha sido ya posible confirmar que existen discos alrededor de al menos algunas estrellas jóvenes. La especulación es que en el futuro se formarán planetas a partir de estos discos. Todavía no se ha podido detectar de manera definitiva un planeta en otra estrella, pero estos discos bien podrían constituir las estructuras precursoras de los planetas.

La Prueba mas Feaciente que exuste sobre el origen de los flujos bipolares se encuentra inmersa en la Nebulosa Del Aguila


La estructura del Universo

Uno de los postulados fundamentales de la astronomía es que el Universo es homogéneo. Por esto, entendemos que si tomamos un volumen de espacio lo suficientemente grande, vemos más o menos lo mismo independientemente de donde estemos colocados. En el Centro de Astrofísica de la Universidad de Harvard y el Instituto Smithsoniano se ha trabajado intensivamente para determinar cómo están distribuidas en el espacio las galaxias. Para esto, primero se determina la posición de la galaxia en el cielo, o sea en dos dimensiones. Luego se mide la velocidad de alejamiento de la galaxia en cuestión y, usando la ley de Hubble, se determina la distancia a la galaxia, o sea su tercera dimensión. Con estos datos es posible construir una maqueta tridimensional del Universo. El primer resultado que se obtiene es conocido hace muchos años; las galaxias están agrupadas en cúmulos. El nuevo resultado que obtuvieron los investigadores del Centro de Astrofísica fue sorprendente y aún no tiene explicación. Resulta que los cúmulos de galaxias no están distribuidos al azar en el espacio, sino que forman enormes filamentos, de dimensiones demasiado grandes para ser explicadas por cualquiera de las teorías disponibles. Se cree que estos filamentos son consecuencia de las condiciones físicas que existieron en el Universo joven. Pero la explicación precisa de su existencia no ha sido encontrada aún.


Las Galaxias estan distribuidas equitativamente conforme a la Estructura del Universo



Fuente principal:

http://bibliotecadigital.ilce.edu.mx/sites/ciencia/volumen1/ciencia2/01/html/sec_19.html


Adaptacion:
Nestor Arraez.

Imagenes: Google search.
























sábado, 20 de diciembre de 2008

¿¿¿Que se Joda el Mundo???


A veces me doy cuenta que el mundo ya no es el mismo de antes, la gente azarada todo el tiempo, el trafico, el calor, el estrés, el fastidio, el efecto Schumann haciéndose presente a cada momento termina por agobiarme, ya no soporto mas, desearía liberarme de todo esto de una vez por todas, No creo en nadie. Vida absurda la que me toca vivir a cada día y en cada momento, nací para sufrir moriré para vivir.


mientras la gente se afana en progresar no se dan cuenta del mal que están haciendo, talan árboles de manera indiscriminada para obtener el misero papel, ¿Acaso no saben que reciclando mensualmente se evitan la tala de millones de árboles anuales? o acaso no conocen la palabra ¡¡RECICLAJE!!.


Aun cuando saben que el progreso esta a sus manos siguen contaminando, dañando nuestra vida nuestra madre naturaleza se esta debilitando t por mas que se esfuerza en detenernos no lo logra; sencillamente porque la hemos dañado, que durante millones de años mantuvo intacta su biodiversidad, su flora, su fauna, hoy sencillamente esta al borde de un colapso total, a cosencuencia de nosotros mismos; por nuestra propia culpa hemos dañado en tan solo medio siglo lo que a la tierra le ha llevado miles de millones de años originar, Nuestros Ríos Nuestros Océanos, Nuestros Bosques, Todo todo lo estamos destruyendo!! Las consecuencias son inevitables, debido a nuestro afán de poder, hemos construido armas armas y mas armas, cada vez mas destructivas ¿para que? ¿Para defendernos de algo? ¡¡NO!! Para matarnos nosotros mismos, odiarnos no es nosotros mismos, por nuestra raza, nuestro color de piel, por divergencias políticas que no tienen sentido, por poseer lo que no es nuestro, por quitarles a otros lo que les pertenece, por la maldita envidia, por el avarísimo, el egocentrismo, todo es culpa de eso y eso es consecuencia de nosotros.


Simplemente por intentar ser superiores en todo y ser los mejores hacemos cosas que dañan nuestro planeta, la contaminación ya no es un factor que a los gobiernos norteños les importe, ellos solo quieren poder y lo buscaran a toda costa, así tengan que morir miles de personas e inclusive la misma Tierra, Ya hemos comenzando a dañarla, el Agujero en la Capa de Ozono es solo una pequeña muestra de lo que le estamos haciendo al Planeta, ahora para agravar mas la situación esta El Calentamiento Global, ¿Culpa de quien? De Nosotros mismos, no es raro pensar en algún momento sucederá lo mismo que esta pasando en una cinta de ciencia ficción que esta en cartelera; Cuando ya la tierra no nos soporte, no nos aguante mas, sencillamente clamara por ayuda, y la ayuda vendrá de afuera para salvarla de NOSOTROS MISMOS.


¿Desmesurada la idea? ¡¡NO!! Sencillamente si no nos detenemos no estaremos aquí en un futuro, nuevas civilizaciones estarán aquí cuidando nuestro planeta, algo que ni por carrizo hemos hecho, Aunque muchas personas han contribuido a paliar la crisis de nuestro planeta sencillamente es algo muy insignificante comparado con el daño anual que le hacemos al nuestra madre tierra. Tal como otros seres nacieron, vivieron, y murieron aquí en la tierra convirtiéndose solamente en simples vestigios de vida antepasada, así seremos nosotros en un futuro para otros seres.


La muerte liberara al Planeta del cáncer que somos nosotros para ella, un cáncer que esta acabando con lo que ella tardo miles de años en conformar, ¡¡Prefiero estar solo cuidando mi planeta que acompañado viendo como se destruye!!. Nunca mas habitara en mi ser la semilla que hace preocuparme por mi mismo, “La semilla del Cáncer de la tierra” a partir de ahora mi vida será solo para el Planeta Tierra hasta tiempos indefinidos ¿Por qué? Que idiota eres al preguntártelo, Eres iluso al no darte cuenta que NO HAY MAS PLANETAS COMO EL NUESTRO, por lo menos en este Sistema Solar, La Tierra es única y esta de nuestra parte Cuidarla y preservarla.

Cuando sencillamente te des cuenta de esto o tomes conciencia de tus actos quizás en algún momento nuestro Planeta podrá perdonarte, y si lo hacemos todos NOS PERDONARA A TODOS.


Nestor Arraez

Astronomo Aficionado

Derechos Reservados

Diciembre 20 de 2008




sábado, 29 de noviembre de 2008

¿OSNIs o Ovnis?



OSNI (objeto sumergible no identificado) se refiere a un supuesto fenómeno equivalente y/o asociado a un fenómeno más específico dentro del fenómeno OVNI cuya característica principal es que se presentaría en ambientes MARINOS

ebido a los numerosos informes, los grupos ufológicos especulan que serían naves de origen desconocido, cuyas base submarinas u hogares de quienes los habrían construido (extraterrestres, seres inteligentes acuáticos, etc.) en las profundidades de océanos y lagos.

Así, por ejemplo, cierto parapsicólogo, postula la posibilidad de que existan órdenes superiores de vida inteligente en las ignotas profundidades básicamente inexploradas de la Tierra (un claro ejemplo sería la Fosa de las Marianas a más de 11 000 metros de profundidad), los cuales podrían comunicarse con los hombres de manera muy indirecta (el llamado ocultismo y la magia negra privilegian la comunicación del hombre con los seres del inframundo; éstos suelen ser plásticamente representados, por ejemplo en el vudú y en ciertos ritos de veneración a deidades hindúes, como pólipos deformes y poderosos, que sólo se nos hacen perceptibles psíquicamente en asociación a la subjetiva noción de la muerte como vacuidad negra y temible); e incluso sean las inteligencias que la mitología haya concebido como infernales, de mundos lúgubres y sombríos y eternamente carentes de la luz del Sol, la Luna o las estrellas (piénsese en el Hades, por ejemplo); empero la posibilidad técnica de investigación científica concreta al respecto es tan poco plausible como la pretendida fuera de nuestro orbe terrestre. Además se conoce que la vida puede prosperar en este ambiente, bien, sea por ejemplo a través de la quimiosíntesis, que puede ser un reemplazo más que eficiente para postular una vida inteligente floreciente en las remotas dimensiones de la hondura oceánica, de la misma forma como incluso también se postula que podría suceder en ciertos astros lejanos de la influencia cercana del Sol, como son Europa (una luna de Júpiter), o Encélado (una luna de Saturno), en los cuáles la cantidad de agua (líquida en sus profundidades al parecer por procesos volcánicos) parece ser más que estimable.


jueves, 27 de noviembre de 2008

Desconcertante: La Resonancia Shumann





En la década de los años 50, el profesor alemán Dr. O. W. Schumann de la Universidad Tecnológica de Munich, descubrió el efecto de resonancia del sistema entre tierra-aire-ionosfera, hoy llamado generalmente ONDAS SCHUMANN, en honor a su descubridor. En Física se les denomina "Ondas transversal-magnéticas".

La Resonancia Schumann es un conjunto de picos en la banda de frecuencia extra baja (ELF) del espectro electromagnético presente en la Tierra. Se producen porque el espacio entre la superficie terrestre y la ionosfera actúa como un gran emisor direccional o una guía de ondas.

La forma y dimensiones terrestres provocan que este emisor direccional o guía de ondas actúe como una cavidad resonante para las ondas electromagnéticas en la banda ELF. Esta cavidad o emisor es excitada en forma natural por los relámpagos, generando varias frecuencias de entre 6 y 50 ciclos por segundo; específicamente 7’8, 14, 20, 26, 33, 39 y 45 Hz, con una variación diaria alrededor de +/- 0.5 Hz. Lógicamente también influyen las redes de transmisión eléctrica humanas que utilizan una corriente alterna de 50 Hz muy próxima a una de esas frecuencias, dado que su séptimo sobre-tono se ubica aproximadamente en 45 Hz. La frecuencia más baja, y al mismo tiempo la de intensidad más alta en la resonancia de Schumann se sitúa aproximadamente en 7,83 Hz.

La forma física de esta gran emisora o guía de ondas que es la ionosfera terrestre repercute directamente en las ondas que en ella resuenan, así un aumento de ionización de esta capa de la atmósfera deberá lógicamente generar un cambio de la resonancia Schumann. Estos cambios en la ionosfera no solo son propiciados por las tormentas solares también pueden ser propiciados por otros agentes terrestres naturales o agentes artificiales generados por los humanos.
Estas ondas Schumann vibran en la misma frecuencia que las ondas cerebrales de los seres humanos y de todos los mamíferos en general, en 7,8 Hz (ciclos por segundo). Durante millones de años esta frecuencia ha sido más o menos la constante sobre la cual todos los organismos vivos del planeta han desarrollado su biología interna. Hay muchas personas que sufren gravemente las consecuencias de las interferencias ocasionadas en esas frecuencias de las ondas Schumann. Muchos problemas cardiacos son debidos a este hecho. La moderna terapia biomagnéticas, con ayuda de aparatos generadores de ondas Schumann y de ondas geomagnéticas aporta hoy en día una valiosa ayuda para superar estos problemas.

Es importante, como principio de precaución, no adulterar esta frecuencia sobre la cual se ha desarrollado nuestra evolución como especie, nuestro ADN, nuestra biología celular, nuestra glándula pineal del hipotálamo, etc.

El profesor Schumann trabajaba en los años 50, con sus estudiantes universitarios, en cálculos de potenciales en sistemas esfero-simétricos. Un día, les planteó el deber de calcular el potencial de dos cáscaras semiesféricas que tienen una determinada distancia entre si y que son ambas eléctricamente conductoras. Entonces, como si fuera una ocurrencia del momento, dijo: "Tenemos también la tierra y la ionosfera. Tomen como ejemplo el diámetro de la tierra y el diámetro de la capa inferior de la ionosfera, la capa Heaviside y calculen qué frecuencia propia resulta ahí".
El, naturalmente, tenía que calcularlo también, para ver si lo que sacaban los estudiantes era correcto y entonces obtuvo como resultado aproximadamente 10 ciclos por segundo.

Publicó este resultado en una revista de Física Técnica y casualmente un médico que se interesaba por la Física y era suscriptor de la revista, el Dr. Ankermüller lo leyó y le llamó poderosamente la atención este resultado, ya que 10 Hertz es el ritmo Alfa del cerebro humano, es decir una frecuencia muy característica.
Se puso enseguida en comunicación telefónica con el Dr. Schumann y le dijo: "es interesantísima lo que Ud. midió, de que la Tierra tiene la misma resonancia propia como el cerebro humano. Habría que controlar si esto es realmente así". "Bueno", le contestó el Dr. Schumann, "si esto es interesante para la medicina, voy a poner a un estudiante que justamente tiene que hacer su tesis de doctorado, para que lo verifique con mayor precisión, pues los 10 Hz calculados eran un valor muy aproximado". El doctorando se llamaba Herbert König, quien fuera más tarde yerno del célebre Dr. Ernest Hartmann y que posteriormente fue sucesor de este.
El Dr. König, a través de muchas mediciones, pudo determinar luego que el valor exacto no era 10, sino 7,8 Hz y esto hizo que el asunto sea todavía mas interesante, pues 7,8 Hz es la frecuencia del hipotálamo y es la única frecuencia que en todos los mamíferos, incluyendo el hombre, es tan exactamente común. Mientras el ritmo Alfa varia de una persona a otra y el mismo es de aproximadamente 9, 10, 11 Hz, la frecuencia de 7,8 Hz es como ya se dijo arriba, exactamente común a todos, es una constante normal biológica, que funciona como un marcapaso para nuestro organismo y sin esa frecuencia la vida humana no es posible.
Esto se comprobó más dramáticamente con los primeros astronautas, tanto los rusos como los americanos, pues éstos volvían de su misión espacial con muy serios problemas de salud. Al estar volando fuera de la ionosfera les faltaba la pulsación de esa frecuencia vital de 7,8 Hz.
Más tarde, este problema fue subsanado por generadores de ondas Schumann artificiales. Los científicos de la NASA hicieron en ese tiempo muchos estudios interesantes al respecto. Uno de ellos, el Prof. Wever hizo construir un bunker subterráneo totalmente aislado magnéticamente. Durante varias semanas hizo allí experimentos con estudiantes voluntarios que quedaban encerrados allí. A los pocos días se producían en los mismos serios problemas de salud: dolor de cabeza, migrañas, desvaríos, etc. Y sobre todo los ritmos cardiacos se desarticulaban totalmente. Pero si luego se hacían ingresar a ese búnker pulsaciones de 7,8 Hz, por un breve tiempo, entonces las condiciones de salud de los voluntarios se volvían a estabilizar nuevamente durante varios días.

Aunque la Ciencia Física oficial casi lo ha ignorado, las grandes potencias mundiales han estado experimentando con estas ondas, muy reservadamente, en grandes proyectos súper secretos. Constituyen una de las armas militares más sofisticadas del futuro, ya que por medio de la modulación de estas ondas procuran interferir drásticamente en la mente del supuesto enemigo, causándole los estragos más inimaginables, que eventualmente podrían causar consecuencias imprevisibles.


Si tantas palabras te confunden puedes sencillamente escuchar el siguiente video de youtube donde hablan mas detalladamente sobre este Desconcertante misterio. Hasta la proxima



El Regalo del Cosmos. La Via Lactea






La Vía Láctea es la proyección, sobre la esfera celeste, de uno de los brazos espirales de la galaxia de la cual nosotros formamos parte, que toma, por extensión, el mismo nombre. Es una agrupación de unos 100.000 millones de estrellas en forma de espiral o girándula, cuyas dimensiones se estiman en torno a los 100.000 años-luz y cuyo disco central tiene un tamaño de 16.000 años-luz.
La Vía Láctea, también llamada Camino de Santiago, puede observarse a simple vista como una banda de luz que recorre el firmamento nocturno, que Demócrito ya atribuyó a un conjunto de estrellas innumerables tan cercanas entre sí que resultan indistinguibles. En 1610 Galileo, usando por primera vez el telescopio, confirmó la observación de Demócrito. Hacia 1773 Herschel, contando las estrellas que observaba en el firmamento, construyó una imagen de la Via Láctea como un disco estelar dentro del cual la Tierra se encuentra inmersa, pero no pudo calcular su tamaño. En 1912 la astrónoma H. Leavitt descubrió la relación entre el periodo y la luminosidad de las estrellas llamadas variables cefeidas, lo que le permitió medir las distancias de los cúmulos globulares. Varios años después Shapley demostró que los cúmulos están distribuidos con estructura más o menos esférica alrededor del centro del disco, en lo que denominó el halo galáctico. También mostró que éste no está centrado en el Sol, sino en un punto distante del disco en la dirección de la constelación de Sagitario, donde situó correctamente el centro de la galaxia. Esta estructura quedó confirmada cuando se observó desde el observatorio de Monte Wilson en California que el objeto espiral llamado Andrómeda estaba constituido por estrellas individuales y no era una mera nebulosa de gas como hasta entonces se creía. Hacia 1930 Trumpler descubrió el efecto de oscurecimiento galáctico producido por el polvo interestelar, con lo que se logró corregir tanto el tamaño de la Galaxia como la distancia a la que se encuentra el Sol a los valores hoy en día aceptados. De acuerdo con estos datos, el sistema Solar se encuentra a una distancia entre 8.000 y 10.000 parsecs de distancia del centro galáctico, aproximadamente a dos tercios de distancia. Todas las estrellas que componen la Vía láctea están rotando alrededor del núcleo, que se cree que puede contar en su interior con un agujero negro. Las observaciones astronómicas referidas a galaxias distantes muestran que la velocidad de rotación del Sol alrededor de la galaxia es de unos 250 km/s, empleando aproximadamente 250 millones de años en realizar una revolución completa. Las estrellas próximas al Sol realizan una órbita relativamente parecida, pero las más cercanas al centro de la galaxia giran más rápido, hecho que se conoce como rotación diferencial. La edad de la Vía Láctea se estima en unos 13 mil millones de años, dato que se desprende del estudio de los cúmulos globulares y que concuerda con el resultado obtenido por los geólogos en su estudio de la desintegración radiactiva de ciertos minerales terrestres. La observación del mapa estelar ha permitido reconstruir los brazos espirales de la Galaxia, zonas en las cuales es abundante el número de cúmulos estelares o zonas de formación estelar. Éstos se nombran por las constelaciones que en ellos se encuentran. El brazo más cercano al centro galáctico es llamado de Centauro o de Norma-Centauro. El siguiente brazo hacia el exterior es el de Sagitario. El brazo de Orion es nuestro brazo local, también llamado del Cisne, y el brazo contiguo hacia el exterior se conoce como el de Perseo. Las estrellas que se encuentran en la Galaxia suelen agruparse en dos grandes grupos, llamados comúnmente poblaciones. El grupo llamado de población I está integrado por estrellas de composición solar, relativamente jóvenes, que se distribuyen en órbitas aproximadamente circulares en el disco galáctico, dentro de sus brazos. Las estrellas de población II son ricas en hidrógeno y helio, con escasez de elementos pesados, son de mayor edad, y tienen órbitas que no se encuentran dentro del plano galáctico.


Sencillamente debo declarar que nuestra Galaxia, la "Via Lactea" no es la unica en el Universo, existen Centenares de millones de Galaxias, cada una con Centenares de Millones de estrellas que probablemente posean planetas y que se asemejen a nuestro Sistema Solar. es por eso que no debemos desacreditar la idea de que pobablemente no estamos solos aqui en el universo. En un proximo estudio hablaremos de "EL PUNTO AZUL PALIDO" Muchas Gracias.




Una Muestra Pequeña de lo grande que es el Universo. Centenares de Galaxias en una sola foto



Texto e imagenes:
http://www.astromia.com/
Adaptacion. Nestor Arraez













Alineación al centro

viernes, 14 de noviembre de 2008

El Satelite Simón Bolivar

Se trata del primer satélite artificial propiedad del Estado venezolano que estará en órbita a mediados de 2008. Será administrado por el Ministerio del Poder Popular para Ciencia y Tecnología a través del Centro Espacial Venezolano (CEV) para el uso pacífico del espacio ultraterrestre. Estará ubicado a 35.786,04 kilómetros de la superficie de la tierra con una órbita geoestacionaria.



El satelite Simon Bolivar, es una herramienta cientifica que se esta llevando a cabo entre los paises, Venezuela y la Republica Popular China, esto con la finalidad de elevar y ampliar los conocimientos cientifico-tecnologicos a nivel de:


1.- Investigaciones Meteorologicas

2.- Ampliacion de Redes y canales televisivos

3.- Utilizar las herramientas que este proporciona para independizar el Pais Proveedor de la materia prima (Venezuela) del gobierno de los Estados Unidos en materia tecnologica y espacial.


Una vez en orbita el satelite estara entrando en un curso geo-estacionario por aproximadamente dos meses, esto con la finalidad de alcanzar la orbita prevista para su funcionamiento. Concluida esta fase el satelite entrara en operacion y comenzara a retransmitir las señales televisivas y radiales que provengan de Venezuela hacia paises que se encuentren en su punto centripeto de orbita, como lo son Ecuador, Bolivia, Peru, Argentina, Brasil, parte de Centroamerica y el caribe y cercanias de Mexico. Este tendra una vida util aproximada de 15 años, una vez concluidos se le pueden realizar labores de mantenimiento y ponerlo nuevamente en funcionamiento, ya no por 15 años pero si por otro periodo mas extenso.

El objetivo del Satélite Simón Bolívar es facilitar el acceso y transmisión de información. Entre ellos se encuentra la transmisión de mensajes por internet, transmisiones de telefonía, televisión, telemedicina y tele-educación. Además servirá para la integración latinoamericana e impulsará a la Unión de Naciones Suramericanas (Unasur). Fue fabricado por la Administración Nacional China del Espacio por un valor de 240 millones de dólares según las especificaciones de la Unión Internacional de Telecomunicaciones, además este organismo chino es el encargado de poner en órbita a este satélite. Está previsto que el Satélite Simón Bolívar sea lanzado al espacio en el mes de septiembre, luego de las Olimpiadas de Beijing 2008. El proceso de lanzamiento del satélite tomará alrededor de cuatro días y medio. El lanzamiento tendrá lugar en China, luego estará bajo la responsabilidad de los venezolanos dirigir el satélite hasta sus coordenadas finales. El mencionado satélite impulsará beneficios en los aspectos de tele-educación, tele-medicina, seguridad, defensa y resguardo de la nación.

Es muy importante mencionar que el Satelite Simon bolivar cumplira en todo su contorno labores pacificas en el espacio y en ningun momento pondra en amenaza la seguridad de los habitantes de los paises beneficiados por este sistema tecnologico.

miércoles, 17 de septiembre de 2008

Como funciona el LHC.

El descomunal LHC, que entró en funcionamiento hace unas semanas atras, es aún más potente que sus predecesores. Se encuentra entre Suiza y Francia, y su circunferencia es más de tres veces la del Tevatrón - unos 27 kilómetros. De hecho, el LHC es tan brutal que necesita acelerar las partículas con muchos aceleradores secundarios, que forman una especie de cadena.

Como su propio nombre indica, en su forma más básica una máquina de este tipo no es más que un dispositivo que acelera partículas cargadas y luego las hace impactar contra un objetivo. Los hay de muy poca energía, como una televisión tradicional, y de muchísima energía, como el LHC que entrará en funcionamiento el año que viene, pero todos funcionan mediante el mismo concepto: la atracción y repulsión de cargas.

El tipo más sencillo y primitivo de acelerador de partículas es el tubo de rayos catódicos o CRT (Cathode Ray Tube), que sigue estando en muchas televisiones y monitores antiguos, aunque vayan siendo reemplazados ya por otro tipo de monitores como los de cristal líquido. Un tubo de rayos catódicos funciona de una manera sorprendentemente sencilla:

En primer lugar, se tiene un emisor de electrones (como veremos, es posible acelerar otras partículas subatómicas, pero los electrones son muy fáciles de obtener y muy ligeros comparados con su carga, de modo que son las más comúnmente utilizadas). El emisor suele ser un metal que está conectado a la corriente eléctrica y se calienta mucho. Los electrones del metal, a una temperatura elevada, se agitan tanto que son capaces de escapar de él: este efecto se denomina efecto termoiónico.

Una vez se tienen estos electrones libres, se aceleran utilizando un par de electrodos dentro de un tubo en el que hay un vacío imperfecto, uno negativo (en el extremo del tubo en el que están los electrones) y otro positivo (en el extremo opuesto). Sin entrar en disquisiciones acerca del campo eléctrico -ya tendremos tiempo de hacerlo en la serie correspondiente-, los electrones son repelidos por el electrodo cercano a ellos y atraídos por el opuesto, de modo que empiezan a moverse hacia el electrodo positivo, más y más rápido.

Por eso, querido lector, si tienes una televisión “tradicional”, verás que tienen un gran fondo: no es posible tener una televisión de ese tipo que sea muy fina. La razón es que, con un acelerador de este tipo, cuanto mayor es el voltaje entre los electrodos y más separados están (más recorrido tienen los electrones para acelerar), más velocidad pueden adquirir los electrones. Como sabes, los electrones son dirigidos a uno u otro punto de la pantalla mediante imanes, y allí forman la imagen, pero eso es ya otra historia.

¿Cuánta energía tienen los electrones de los televisores? Pues la verdad, no mucha, aunque probablemente más de la que pensabas: pueden acelerar hasta la cuarta parte de la velocidad de la luz (unos 75.000 km/s) mediante voltajes de unos 15.000-20.000 voltios. En física de partículas, lo que suele importar es la energía cinética que adquiere la partícula, que suele medirse en electronvoltios (eV). Un eV es la energía que tiene un electrón cuando se acelera mediante un voltaje de un voltio, de manera que los electrones de tu televisor (si aún es CRT) tienen una energía de unos 15.000-20.000 eV, es decir, 15-20 keV (kiloelectronvoltios, o miles de electronvoltios). ¿Parece mucho? Espera a que sigamos con el artículo.

Los generadores de rayos X (utilizados, por ejemplo, para hacer radiografías) funcionan casi exactamente igual: se aceleran electrones a lo largo de un tubo recto, como en una televisión, y a continuación se hacen chocar contra un objetivo de algún metal, como el tungsteno: cuando los electrones -que van muy rápido- chocan contra el metal, pierden casi toda su energía, que es emitida en forma de fotones muy energéticos, es decir, rayos X. Los cañones de rayos X son bastante más largos que tu televisor, y funcionan con diferencias de potencial mucho mayores: imagina lo que puede lograrse con un tubo de metro y medio y millones de voltios. Este tipo de aceleradores puede lograr energías de millones de electronvoltios (MeV, megaelectronvoltios).

Sin embargo, los aceleradores de partículas más interesantes son, sin lugar a dudas, los empleados para hacer colisionar partículas subatómicas por los físicos para conocer más sobre la estructura de la materia. El problema con los tubos de rayos catódicos es que la energía que puede lograr un electrón (o cualquier otra partícula cargada) entre dos placas cargadas es bastante baja comparada con la energía necesaria para observar la mayor parte de los fenómenos interesantes para los físicos, de modo que pronto se desarrollaron nuevos aceleradores más complejos.

Una manera de evitar este problema es no utilizar dos electrodos, sino muchos: imagina que tienes cien placas metálicas, cada una con un agujero en el centro. Un cañón de electrones emite electrones libres en un extremo. Los electrones, como en la televisión, son repelidos por la placa junto a ellos y atraídos por la siguiente (cargada positivamente). Justo cuando el electrón atraviesa el agujero del electrodo positivo, se cambia la polaridad del circuito de modo que la placa queda cargada ahora negativamente, y la siguiente positivamente: el electrón es ahora repelido por la placa que acaba de atravesar, y atraído por la siguiente…

De este modo, si se tienen suficientes electrodos uno detrás de otro, y suficiente distancia, pueden lograrse velocidades gigantescas. Desde luego, los problemas prácticos son varios: en primer lugar, según los electrones se mueven más y más rápido, recorren distancias enormes, de modo que un acelerador de este tipo puede ser larguísimo. Además, piensa que muy pronto los electrones pasan de placa a placa tan rápido que las placas cambian de polaridad a frecuencias muy altas. De hecho, se convierten en emisores de microondas - y muchos de estos aceleradores se fabrican para convertirse en cavidades resonantes a esas frecuencias, para aprovechar las ondas generadas por las placas.

Este tipo de aceleradores sigue siendo muy utilizado, por su sencillez. El más largo y más potente de todos es el SLAC (Stanford Linear Accelerator Center) de la Universidad de Stanford, en California, que tiene ¡tres kilómetros y doscientos metros de largo! Se trata probablemente del objeto totalmente recto más largo de la Tierra.


El SLAC fue construido en 1966 y el tubo por el que se mueven las partículas está enterrado a 10 metros de profundidad. La carretera que ves, bajo la que pasa el acelerador, es la autopista interestatal 280. Este monstruo rectísimo es capaz de proporcionar 50.000.000.000 eV (50 GeV, gigaelectronvoltios) a los electrones y positrones que acelera - los lleva a velocidades que se aproximan a la de la luz. Unas 1.000 personas trabajan en el SLAC. Durante muchos años se utilizó directamente, haciendo impactar las partículas sobre átomos para producir partículas inestables, y de hecho este acelerador ha producido tres Premios Nobel (los descubrimientos del quark charm, la estructura de quarks de los protones y electrones, y el descubrimiento del tauón).

Hoy en día, sin embargo, el SLAC se utiliza como “cañón” de un colisionador circular de electrones y positrones, el PEP-II, que tiene una circunferencia de más de dos kilómetros y consta de dos tubos (uno para los electrones y otro para los positrones, que giran en sentidos contrarios hasta que se encuentran en la intersección entre los tubos).

El problema de los aceleradores lineales de este tipo, como puedes comprender, es que hay un límite práctico a la longitud que pueden tener. La solución, naturalmente, sería conseguir que la partícula lo recorriese de principio a fin y luego volviera a empezar. ¿Cómo lograr eso? Con un acelerador que no sea recto, sino circular. El tipo más sencillo es el denominado ciclotrón.

Un ciclotrón, básicamente, tiene dos placas (no muchas, como los grandes aceleradores lineales), igual que el televisor. La partícula cargada se acelera entre ellas, llega a la placa que la atrae, la atraviesa… y entonces se encuentra con un intenso campo magnético que la hace girar. Aunque ya hablaremos cuando corresponda del campo magnético en profundidad, lo que hace básicamente un campo magnético es hacer que las cosas giren -en curvas tanto más “cerradas” cuanto mayor sea el campo-.

La partícula, entonces, realiza una curva muy cerrada hasta que vuelve a la placa que había atravesado. Mientras, se ha cambiado la polaridad de las dos placas: ahora el electrodo que lo atrajo lo repele, y al revés. De modo que la partícula atraviesa de nuevo el tubo, pero ahora en sentido contrario al inicial y más rápido que la primera vez. Cuando sale por el otro lado, se encuentra con un campo magnético que la hace girar y vuelve a realizar el camino en sentido contrario.

Cada vez que la partícula realiza el recorrido, gira y vuelve, se mueve más y más rápido, de modo que la curva que realiza es cada vez más y más abierta (una espiral), hasta que llega un momento en el que no puede acelerarse más o se saldría del aparato: en ese momento se hace que salga definitivamente, tras haber recorrido el tubo muchas veces y moverse muy rápido. Los primeros ciclotrones se construyeron en los años 30, pero el problema -similar al de los aceleradores lineales- es el tamaño: una partícula que va muy rápido realiza curvas tan abiertas que haría falta un ciclotrón de un radio gigantesco para alcanzar energías muy grandes.


La solución de este problema es simplemente hacer que el campo magnético que hace girar a las partículas y las obliga a volver por donde vinieron sea cada vez más grande, según las partículas aceleran, de modo que el radio de la curva siempre sea el mismo. De esa manera, no hace falta tener en cuenta que las partículas realicen curvas de radio variable, sino que basta con un solo tubo. De este tipo son los aceleradores actuales más potentes, que se denominan sincrotrones, pues se sincronizan el campo magnético de los imanes y el eléctrico de los electrodos para acelerar las partículas.

Un sincrotrón moderno recibe partículas que ya se mueven muy rápido, pues su “cañón” suele ser un acelerador lineal de los que hemos hablado anteriormente, que desemboca en el anillo del sincrotrón (algunos tienen más de un anillo, y las partículas pasan al anillo exterior cuando se mueven demasiado rápido para el interior). En el anillo hay un campo eléctrico (los electrodos que cambian de polaridad para repeler-atraer la partícula) y un campo magnético (que hace que la partícula gire) sincronizados con el movimiento de la partícula, para que su trayectoria sea justo la del tubo circular.

El problema práctico, en este caso, es el efecto Joule, por el que un conductor se calienta cuando lo atraviesa una corriente eléctrica. Aunque el sincrotrón sea muy grande, el hacer girar a una partícula para que haga un círculo cuando se mueve a una velocidad que es prácticamente la de la luz es muy difícil: hacen falta campos magnéticos monstruosos. Desde luego, estos campos magnéticos no se consiguen con imanes naturales - sería de risa. Se logran con electroimanes superconductores. Y ahí está el problema: por un lado, para lograr un campo magnético muy grande, hace falta que el metal superconductor esté muy frío. Por otro, al ser un electroimán, hace falta una corriente eléctrica muy grande, que hace que todo se caliente mucho. Aunque los sincrotrones más grandes tienen sistemas de refrigeración potentísimos por helio líquido, hay un límite práctico que es difícil de rebasar, pues la cantidad de calor a disipar cada segundo es monstruosa.

El sincrotrón más potente que existe -y el acelerador más potente de la historia- es el Tevatrón del Fermi National Accelerator Laboratory en Batavia, Illinois, construido en 1987. Es un anillo con una circunferencia de unos seis kilómetros, y es capaz de proporcionar energías de hasta 1 TeV (teraelectronvoltio, un billón de electronvoltios) a los protones y antiprotones que acelera. Estas partículas, cuando han recorrido el anillo cientos de miles de veces, llegan a moverse a velocidades próximas a la de la luz. No, en serio, muy próximas: les faltan unos 320 km/h para llegar a la velocidad de la luz.

No sólo eso: el Tevatrón tiene dos tubos en el anillo, de modo que puede acelerar partículas en los dos tubos moviéndose en sentidos opuestos y luego hacer que colisionen en el punto de intersección con energías relativas de casi 2 TeV. El quark top fue descubierto en el Tevatrón en 1995.

Para explicar mejor el comcepto de como funciona el LHC anexo el siguiente video de youtube para que se entienda claramente lo que he querido escribir en este objetivo, lo malo es que se encuentra en ingles pero las imagenes hablan por si solas. que lo disfruten!!





Fuente principal: http://eltamiz.com


domingo, 14 de septiembre de 2008

el LHC, lo que Demostrara y lo que traera consigo.




El Gran Colisionador de Hadrones sera el Intrumento mas grande construido por el hombre que podria desentrañar de una vez por todas los misterios del universo y acalarar por fin su origen asi como tambien demostrar le existencia en definitiva de algunos elementos del universo que se sabe que estan alli mas no se han podido aprecuar del todo, asi como el de descucbrir cuantos son los elementos que componen la materia en general. Para ello se hace una breve explicacion de lo que aqui se demostrara y como sera su aporte a la ciencia.



La Energia Oscura

La energía oscura se considera una forma hipótetica de energía que se encuentra en el Universo, ejerce una presión negativa y tiende a aumentar la expansión del Universo. En el modelo estándar de la cosmología, la energía oscura representa de un 70% a 73% de la masa-energía del Universo.
Se entiende que la energía oscura ejerce una presión negativa. La presión positiva se hace notar cuando una sustancia empuja a los objetos que están en su medio, como la que se observa en los fluidos. Por el contrario la presión negativa actúa cuando la sustancia tira de su medio. Respecto a la naturaleza de la materia energía prevalece la especulación. Es conocida por ser homógenea, no ser muy densa y no se sabe como interactúa con las fuerzas fundamentales a excepción de la gravedad. Dado que su densidad es de 10−29 g/cm3, es compleja la elaboración de experimentos para detectarla en el el laboratorio.



Materia oscura


La materia oscura es uno de los temas fundamentales de la astrofísica moderna. Es una materia hipótetica que se considera carece de interacción electromagnética y si la hay es tan debil que se confunde con la radiación de fondo de microondas. La materia oscura se clasifica en materia oscura bariónica y materia oscura no bariónica. La primera conformada por electrones, protones y neutrones. En este tipo de materia se incluyen los gases que no emiten radiación electromagnética y la estrellas frías. Se considera que la materia oscura barionica es una pequeña parte de toda la materia oscura por la cantidad de deuterio que existe en el universo ya que el deuterio al estar formado por neutrones, protones y electrones, su relación en el Universo es menor. Por lo tanto la mayor cantidad de materia oscura es la no bariónica que se divide a su vez en materia oscura caliente y materia oscura fría. La materia oscura caliente, parte de la materia no bariónica, se mueve a velocidades cercanas a la luz, sin embargo no puede explicar la formación de galaxias en un estado donde las partículas se encuentran libres. Para explicar la estructura del Universo es necesario recurrir a la materia oscura fría que fue propuesta para solucionar el problema de la estructura del espacio. Partiendo del supuesto que en un momento inicial existieran fluctuaciones, la distribución cambiaría la forma y propagación de las fluctuaciones. Si toda la materia oscura fuera caliente no se hubiera podido formar estructuras complejas porque las fluctuaciones ocurren con energía mucho menor. De suceder así las estructuras irían de una complejidad mayor a una menor, es decir que primero se habrían formado los supercumulos y luego estructuras menos complejas. Ahora bien si se considera la existencia de materia oscura fría, las fluctuaciones darían origen a estructuras de lo más simple hasta lo más complejo, lo cual concuerda con el modelo que conocemos del Universo. En el estudio de la materia oscura, el mayor reto es la detección. Se estima que producto de las colisiones de hadrones en el LHC se produzcan Neutralinos, la cual se considera una partícula pesada y estable que sería la mejor candidato para explicar la energía oscura.



Bosón de Higgs

El bosón de Higgs es una partícula hipotética masiva cuya existencia esta predicha por el módelo estándar de física de las partículas, sin embargo es la única partícula que no ha sido observada. El bosón de Higgs explicaría por una parte porque las partículas fundamentales tienen masas tan diferentes (el fotón y el gluón no tienen masa) y por otra la relación entre masa y energía. Si no se encontrará el bosón de Higgs el modelo anunciaría que todas las partículas se mueven a la velocidad de la luz (con lo cual no tendrían masa), no obstante la experiencia nos dice que es inadmisible. Por eso es importante encontrar tal partícula para dar consistencia al campo de Higgs. El campo de Higgs permería el Universo, cuyo efecto sería que las partículas se comportarán como dotadas de masa, debido a la interacción entre las partículas fundamentales y el bosón. Pese a los experimentos con aceleradores de partículas como el CERN o el Fermilab no ha habido pruebas claras de su existencia. En este sentido es el Gran Colisionador de Hadrones el cual se considera capaz de confirmar o desmentir la existencia del bosón. La detección del bosón de Higgs se realizará a partir del estudio de los residuos de la desintegración. Los resultados de las colisiones deberán ser filtrados para un posterior estudio.

El LHC, ¿Acabara con el mundo? o nos demostrara como se origino el Universo

El Gran colisionador de Hadrones.

El Gran Colisionador de Hadrones (en inglés Large Hadron Collider o LHC, siglas por las que es generalmente conocido) es u Acelerador de Particulas (o acelerador y colisionador de particulas) ubicado en la actualmente denominada Organización Europea para la Investigacion Nuclear (la sigla es la del nombre en francés de tal institución: Conseil Européen pour la Recherche Nucléaire, CERN), cerca de Ginebra, en la frontera Francia-Suiza

El LHC se diseñó para colisionar haces de Hadrones más exactamente de Protones de 7 Tev de energia siendo su propósito principal examinar la validez y límites del Modelo Estandar el cual es actualmente el marco teórico de la física de partículas, del que se conoce su ruptura a niveles de energía altos.

Los protones acelerados a velocidades del 99% de c y chocando entre sí en direccionets diametralmente opuestas producirían altísimas energías (aunque a escalas subatómicas) que permitirían simular algunos eventos ocurridos durante o inmediatamente después del Big-Bang (Explosion que origino el universo, el tiempo y la materia)

El LHC se convertirá en el acelerador de partículas más grande y energético del Mundo. Más de 2000 físicos de 34 países y cientos de universidades y laboratorios han participado en su construcción.

Hoy en día el colisionador se encuentra enfriándose hasta que alcance su temperatura de funcionamiento, que es de 1,9 K (menos de 2 grados sobre el cero absoluto o lo que es igual a −271,25 °C). Los primeros haces de partículas fueron inyectados el 1 de agosto de 2008, el primer intento para hacer circular los haces por toda la trayectoria del colisionador se produjo el 10 de septiembre de 2008 mientras que las primeras colisiones a alta energía tendrán lugar después de que el LHC se inaugure de forma oficial el 21 de octubre de 2008.

Teóricamente se espera que, una vez en funcionamiento, se produzca la partícula másica conocida como el Boson de Higgs, (a veces llamada "la partícula de Dios"). La observación de esta partícula confirmaría las predicciones y "enlaces perdidos"del Modelo Estandar de la física, pudiéndose explicar cómo adquieren las otras partículas elementales propiedades como su Masa, Verificar la existencia del bosón de Higgs sería un paso significativo en la búsqueda de una Teoria de la Gran Unificacion teoría que pretende unificar tres de las cuatro Fuerzas Fundamentales conocidas, (El Electromagnetismo, la Gravedad, La iInteraccion Nuclear Fuerte y la Interaccion Nuclear Debil) quedando fuera de ella únicamente la gravedad. Además este bosón podría explicar por qué la Gravedad es tan débil comparada con las otras tres fuerzas. Junto al bosón de Higgs también podrían producirse otras nuevas partículas que fueron predichas teóricamente, y para las que se ha planificado su búsqueda, como los Strangelets (pequeños fragmentos de materia extraña), los Microagujeros Negros (un simple agujero negro pequeño, en el que los efectos de la mecanica cuantica juegan un importante rol), el Monopolio Magnetico ( es un partícula hipótetica que consiste en un imán con un solo polo magnetico) y las particulas sipersimetricas ( Es una simetría hipotética propuesta que relacionaría las propiedades de los Bosones y los Fermiones).

El nuevo acelerador usa el túnel de 27 Km de circunferencia creado para el Gran Colisionador de Electrones y Positrones (LEP en inglés).

Experimentos

Los protones se acelerarán hasta tener una energia de 7 TeV cada uno (siendo el total de energía de la colisión de 14 TeV). Se están construyendo 5 experimentos para el LHC. Dos de ellos, ATLAS y CMS son grandes detectores de partículas de propósito general. Los otros tres, LHCb, ALICE y TOTEM, son más pequeños y especializados. El LHC también puede emplearse para hacer colisionar iones pesados tales como Plomo (la colisión tendrá una energía de 1150 TeV). Los físicos confían en que el LHC proporcione respuestas a las siguientes cuestiones:

  • ¿Qué es la masa?(se sabe cómo medirla pero no se sabe qué es realmente)
  • El origen de la masa de las partículas (en particular, si existe el Boson de Higgs)
  • El origen de la masa de los Bariones
  • Cuántas son las partículas totales del Átomo
  • Por qué tienen las partículas elementales diferentes masas (es decir, si interactúan las partículas con un campo de Higgs)
  • El 95% de la masa del Unviverso no está hecho de la Materia que se conoce y se espera saber qué es la Materia Oscura.
  • La existencia o no de las partículas supersimétricas
  • Si hay dimensiones extras, tal como predicen varios modelos inspirados por la Teoria de Cuerdas y, en caso afirmativo, por qué no se han podido percibir
  • Si hay más violaciones de simetría entre la materia y la antimateria
  • La aceleración de partículas ya se utiliza para el estudio del cáncer y el cerebro
  • La instalación del proyecto ha obligado a desarrollar un internet de nueva generación

El LHC es un proyecto de tamaño inmenso y una enorme, y potencialmente peligrosa, tarea de ingeniería. Mientras esté encendido, la energía total almacenada en los imanes es 10 gigaJoules y en el haz 725 megaJoules. La pérdida de sólo un 10-7 en el haz es suficiente para iniciar un "quench" (un fenómeno cuantico en el que una parte del superconductor puede perder la superconductividad). En este momento, toda la energía del haz puede disiparse en ese punto, lo que es equivalente a una explosión.


La Red de computación.

La red de computación (o Computing Grid en inglés) del LHC es una red de distribución diseñada por el CERN para manejar la enorme cantidad de datos que serán producidos por el Gran Colisionador de Hadrones (LHC). Incorpora tanto enlaces propios de Fibra Optica como partes de Internet de alta velocidad.

El flujo de datos provisto desde los detectores se estima aproximadamente en 300Gb/s, que es filtrado buscando "eventos interesantes", resultando un flujo de 300 Mb/s. El centro de cómputo del CERN, considerado "Fila 0" de la red, ha dedicado una conexión de 10 Gb/s.

Se espera que el proyecto genere 27 Terabytes de datos por día, más 10 TB de "resumen". Estos datos son enviados fuera del CERN a once instituciones académicas de Europa, Asia y Norteamérica, que constituyen la "fila 1" de procesamiento. Otras 150 instituciones constituyen la "fila 2".

Se espera que el LHC produzca entre 10 a 15 Petabytes de datos por año.


Costo de Producción.

La construcción del LHC fue aprobada en 1995 con un presupuesto de 2600 millones de Francos Suizos (alrededor de 1700 millones de Euros, junto con otros 210 millones de francos (140 millones €) destinados a los experimentos. Sin embargo, este coste fue superado en la revisión de 2001 en 480 millones de francos (300 millones de €) en el acelerador, y 50 millones de francos (30m €) más en el apartado para experimentos. Otros 180 millones de francos (120m €) más se han tenido que destinar al incremento de costes de las bobinas magnéticas superconductoras.

Y todavía persisten problemas técnicos en la construcción del último tunel bajo tierra donde se emplazará el Solenoide de Muones Compactos (CMS). El presupuesto de la institución aprobado para 2008, es de 660.515.000 euros de los que España aportará el 8,3%, un total de 53.929.422 euros.


Alarmas sobre posibles catastrofes de orden mundial

Desde que se proyectó el Gran Colisionador Relativista de IONES (RHIC), el estadounidense Walter Wagner y el español Luis Sancho denunciaron ante un tribunal de Hawaii al CERN y al Gobierno de Estados Unidos afirmando que existe la posibilidad de que su funcionamiento desencadene procesos que, según ellos, serían capaces de provocar la destrucción no solo de la Tierra sino incluso del Universo entero. Sin embargo su postura es rechazada por la comunidad científica, ya que carece de cualquier respaldo matemático que la apoye.

Los procesos catastróficos que denuncian son:

  • La creación de un Agujero negro inestable,
  • La creación de Materia Exotica supermasiva, tan estable como la materia ordinaria,
  • La creación de monopolos magneticos (previstos en la Teoria de la Relatividad de Eistein) que pudieran catalizar el decaimiento del Proton.
  • La activación de la Transicion a un estado de Vacio Cuantico.

A este respecto, el CERN ha realizado estudios sobre la posibilidad de que se produzcan acontecimientos desastrosos como Microagujeros negros inestables, redes o disfunciones magnéticas. La conclusión de estos estudios es que "No se encuentran bases fundadas que conduzcan a estas amenazas".

Resumiendo:

  • El planeta Tierra lleva expuesto a fenómenos naturales similares o peores a los que serán producidos en el LHC.
  • Los rayos cosmicos que alcanzan continuamente la Tierra han producido ya el equivalente a un millón de LHC.
  • El Sol, debido a su tamaño, ha recibido 10,000 veces más y también sigue existiendo.
  • Considerando que todas las estrellas del universo visible reciben un número equivalente, se alcanzan unos 10 experimentos como el LHC y aún no se ha observado ningún evento como el postulado por Wagner y Sancho.
  • Durante la operación del colisionador de iones pesados relativistas (RHIC) en Brookheaven (EE.UU) no se ha observado ni un solo strangelet. La producción de strangelets en el LHC es menos probable que el RHIC, y la experiencia en este acelerador ha validado el argumento de que no se pueden producir strangelets.