POR SI A ALGUIEN LE INTERESA ...
Moderadores: Alan78, Tropic, Operadores, Moderadores
-
- Master Calibreitor!
- Mensajes: 16918
- Registrado: Mar, 23 Dic 2003, 01:03
- Ubicación: Madrid
- Contactar:
La sonda nipona Hayabusa (Muses-C) esta ya muy cerca del asteroide 'Itokawa':
Esta ambiciosa misión japonesa, aunque mucho menos cacareada en la prensa que la Deep Impact, si todo sale bien, con su muy exótico perfil de misión puede lograr varias primicias inauditas:
- Orbitar un asteroide encogiendo progresivamente la órbita hasta 'rozarlo'.
- Aterrizar un pintoresco lander saltacráteres llamado Minerva que pegará brincos por la superficie mientras tira fotos.
- Tomar muestras del asteroide y retornarlas a la tierra.
http://www.sondasespaciales.com/modules ... artid=7035
http://neo.jpl.nasa.gov/missions/hayabusa.html
Esta ambiciosa misión japonesa, aunque mucho menos cacareada en la prensa que la Deep Impact, si todo sale bien, con su muy exótico perfil de misión puede lograr varias primicias inauditas:
- Orbitar un asteroide encogiendo progresivamente la órbita hasta 'rozarlo'.
- Aterrizar un pintoresco lander saltacráteres llamado Minerva que pegará brincos por la superficie mientras tira fotos.
- Tomar muestras del asteroide y retornarlas a la tierra.
http://www.sondasespaciales.com/modules ... artid=7035
http://neo.jpl.nasa.gov/missions/hayabusa.html
"The only true law is that which leads to freedom"
(Jonathan Livingston Seagull)
-
- Master Calibreitor!
- Mensajes: 16918
- Registrado: Mar, 23 Dic 2003, 01:03
- Ubicación: Madrid
- Contactar:
Un profesor español en el MIT nos explica como esta la punta de lanza del 'tuning motor' (lectura técnica 'pelín espesa' no apta para cardíacos ):
http://www.sondasespaciales.com/modules ... 0166#3y4y5
http://www.sondasespaciales.com/modules ... 0166#3y4y5
"The only true law is that which leads to freedom"
(Jonathan Livingston Seagull)
- Carlos
- Master Calibreitor!
- Mensajes: 15828
- Registrado: Mié, 03 Mar 2004, 02:03
- Ubicación: Caput Castellae
- Contactar:
Curiosos misterios.
PUBLICADOS POR EL 'NEW SCIENTIST'
Los 13 misterios inexplicables
Desde hace milenios el hombre trata de utilizar la tecnología y los avances científicos para dar respuesta a algunas de las incógnitas de este planeta y el espacio que nos rodea. La revista 'New Scientist' ha recopilado los 13 misterios que, a día de hoy, siguen provocando quebraderos de cabeza a la comunidad científica internacional.
1. El efecto placebo.
Pongamos un caso ficticio, el del paciente X. Varias veces al día, durante varios días, se le provoca dolor, que se controla con dósis de morfina. Hasta el último día del experimento. Esas 24 horas, sin que el señor X lo sepa, la morfina se sustituye por una solución salina absolutamente inócua. Parece increíble, pero dicha solución tiene el mismo efecto que la morfina y el dolor desaparece.
Es lo que se conoce como el efecto placebo. Antes de la llegada de los fármacos en el siglo XX, era el arma más potente de la Medicina contra la enfermedad. Excremento de cocodrilo, aceite de gusano, sangre de lagarto y hasta ser tocado por el Rey eran medicinas usadas entre el siglo XVI y el XIX. Desde la publicación, en 1955, del libro The Powerful Placebo de H.K. Beecher, se reconoció que el 35% de los pacientes con una amplia variedad de enfermedades podría ser tratada sólo con placebo. En estudios posteriores, se ha visto que puede funcionar en el 70% e, incluso, del 100% de los casos.
Nadie sabe todavía qué mecanismos intervienen en el efecto placebo. Algunos estudios sobre el dolor sugieren que reduce la ansiedad y facilita la liberación de endorfinas (sustancias químicas naturales parecidas a los narcóticos) en el cerebro, aunque son hipótesis todavía no confirmadas.
2. El problema del horizonte.
Nuestro Universo era extraordinariamente homogéneo, y la temperatura de la radiación de fondo es la misma en cualquier dirección que observemos. El hecho de que la temperatura sea homogénea no sería sorprendente de no ser porque entre los dos extremos del Universo hay una distancia de casi 2.800 millones de años luz, mientras que la edad del Universo es 'sólo' de unos 1.400 millones de años. Teniendo en cuenta que nada puede viajar más rápido que la velocidad de la luz y la hipótesis de que hubo un instante inicial o big bang, el interrogante es: ¿cómo es posible que regiones físicamente desconectadas desde el "principio" del Universo estuviesen en estados físicos tan parecidos?
Esto es lo que se conoce como el 'problema del horizonte', uno de los mayores quebraderos de cabeza de los cosmólogos, que siguen sin dar con la solución.
3. Rayos cósmicos ultra-energéticos
Los rayos cósmicos son partículas que llegan desde el espacio y bombardean constantemente a la Tierra desde todas direcciones. La mayoría de estas partículas son núcleos de átomos o electrones. Algunas de ellas son más energéticas que cualquier otra partícula observada en la naturaleza. El misterio está en su alta energía. La teoría especial de la relatividad de Einstein dice que cualquier rayo cósmico que llegue a la Tierra desde fuera de nuestra galaxia habrá sufrido tantas colisiones que el máximo posible de energía que puede tener es 5 × 1019 eV.
Los rayos detectados desde hace una década por el observatorio japonés de Akeno están muy por encima de ese límite, con lo cual o los datos -tomados en diferentes ocasiones y siempre parecidos- están mal, o Einstein se equivocó.
4. Los resultados de homeopatía de Belfast
En 1810 el médico alemán Christian Friederich Samuel Hahnemann publicaba el "Organon, el arte de curar", piedra angular de la homeopatía. El principal fundamento de la teoría se define en la ley de los similares (homeo- es el prefijo griego que designa igualdad) por la que una enfermedad se cura con la misma sustancia tóxica que la produce —de ahí que se llame ley de los similares-, pero a dosis infinitesimales. Los homeópatas disuelven esos venenos en etanol —lo que llaman tintura madre- y la diluyen en agua sucesivas veces, no importa cuantas, según ellos el remedio se "imprime" en las moléculas de agua. Tales disoluciones son la parte controvertida de la disciplina, puesto es posible que a esas concentraciones no haya ni una sóla molécula del principio activo en la solución homeopática. Sin embargo su efecto ha sido demostrado en numerosos estudios y se estima que un 15% de los médicos occidentales siguen esta línea.
Madeleine Ennis, farmacóloga de la Queen’s University de Belfast, ha sido siempre el azote de los homeópatas. Asegura que, a esas concentraciones, en los remedios homeopáticos no hay más que agua, por lo que químicamente no tiene sentido que funcionen. Sin embargo en su estudio más reciente Ennis y su equipo se llevaron un "pequeño" chasco: descubrieron que soluciones ultradiluidas de histamina funcionaban en un experimento con basófilos, unas células sanguíneas que actúan en la inflamación. La solución homeopática en la que probablemente no había ni una sola molécula de histamina funcionaba realmente como la histamina. Aunque Ennis se ha visto incapaz de explicar el porqué del efectivo funcionamiento y sigue mostrándose escéptica, ha asegurado que si los resultados son reales y la homeopatía no actúa como un placebo, habría que reescribir parte de los fundamentos de la física y de la química.
5. La materia oscura
No todo lo que existe en el universo es visible. Los astrónomos pueden detectar objetos que emiten o absorber luz o cualquier otro tipo de radiación electromagnética o que interactuan gravitatoriamente con otros objetos que podamos detectar .El término "materia oscura" alude a esta materia cuya existencia no puede ser detectada mediante procesos asociados a la luz, es decir, no emiten ni absorben radiaciones electromagnéticas.
Determinar cuál es la naturaleza de la materia oscura y en qué cantidad existe es el llamado ‘’problema de la materia oscura’’ o ‘’problema de la masa desaparecida’’, y es uno de los problemas más importantes de la cosmología moderna. La cuestión de la existencia de la materia oscura puede parecer irrelevante para nuestra existencia en la tierra, pero, el hecho de que exista o no la materia oscura, afecta el destino final del universo.
6. Metano en Marte
El 20 de julio de 1976 Gilbert Levin, uno de los ingenieros a cargo de las misiones de la NASA al planeta Marte, vio que la Viking que orbitaba el planeta rojo había encontrado emisiones de carbono-14 que contenían metano en el suelo del planeta, por lo que la conclusión debía ser obvia y muy relevante: hay vida en Marte.
Algo está ingiriendo los nutrientes, los está metabolizando, y después los expulsa a la atmósfera en forma de gas mezclado con carbono 14. Sin embargo, la NASA no se atrevió a afirmar con rotundidad el descubrimiento, porque otro instrumento de la Viking, diseñado para identificar moléculas orgánicas consideradas esenciales símbolos de vida no encontró nada, así que casi todos los científicos de la NASA decidieron declarar el hallazgo de la Viking un "falso positivo". Pero , ¿lo era?
A día de hoy, los argumentos a favor y en contra siguen dividiendo a los científicos, aunque es cierto que los rovers que estudian el planeta rojo desde hace un año han encontrado pruebas de los descubrimientos de la Viking.
7. Tetraneutrones
Hace cuatro años, en un acelerador de partículas de Francia detectaron seis partículas que no deberían existir. Las llamaron 'tetraneutrones': cuatro neutrones unidos entre sí de una forma que desafía las leyes de la física.
Francisco Miguel Marquès ay sus colegas del acelerador de Ganil, en Caen, llevan desde entonces tratando de conseguri el efecto otra vez, pero hasta ahora no lo han logrado. Si lo repiten, estos 'racimos' de átomos podrían obligar a los científicos a reconsiderar las fuerzas que mantienen unido el nucelo de los átomos.
8. La anomalía de las Pioneer
Esta es la historia paralela de dos naves espaciales. Una, la Pioneer 10, fue lanzada en 1972; la Pioneer 11 un año después. Ahora mismo, ambas deben estar en el espacio profundo, alejadas de la vista de cualquier ingenio humano, aunque sus trayectorias son demasiado fascinantes como para ignorarlas.
Y es que hay algo que ha estado 'empujando' a las dos naves, provocando que aumenten su velocidad. La aceleración es pequeña, menos de un nanometro por segundo, pero es lo suficiente para hacer sacado a la Pioneer 400.000 kilómetros de su trayectoria inicial. La NASa perdió contacto con la Pioneer 11 en 1995, pero todo hace indicar que podría estar 'sufriendo' el mismo proceso que su hermana gemela, y estaría muy fuera de su rumbo en algún lugar del espacio. ¿Y qué causa este desvío? Por el momento, nadie lo sabe.
9. La energía oscura
Este es uno de los mayores problemas de la física. En 1998, un grupo de astrónomos descubrió que el universo se está expandiendo a más velocidad que nunca. Esto siginifica que la velocidad a la que una galaxia distante se aleja de nosotros aumenta con el tiempo.De ser correcta esta teoría, el resultado último de esta tendencia sería la imposibilidad de seguir viendo cualquier otra galaxia. Esta nueva teoría del fin del Universo ha recibido el nombre de Gran Desgarramiento o, en inglés, Big Rip.
Es un efecto para el que todavía se investigan las causas, aunque una de las sugerencias puede ser que esté motivado por la 'energía oscura', una forma hipotética de energía que permea todo el espacio y que produce una presión negativa, resultando en una fuerza gravitacional repulsiva. La energía oscura puede dar cuenta del universo en expansión acelerada, así como de una significativa fracción de su masa.
10 El acantilado de Kuipper
SI alguien viajara a la zona del sistema solar externa a las órbitas de Neptuno y Plutón, se encontraría algo muy extraño. De repente, tras cruzar el cintutón de Kuiper -lleno de objetos pequeños como asteroides helados y cometas- no hay nada. Los astrónomos lo llaman el 'acantilado de Kuiper', porque la densidad de objetos cae espectacularmente.
La pregunta es qué ha causado este brusco cambio, y la única posible respuesta parece ser la existencia de un décimo planeta del Sistema Solar, lo suficientemente grande como para haber atraído a todos esos cuerpos hacia su órbita. De momento, sin embargo, nadie ha conseguido aportar ninguna prueba de la existencia de ese planeta X.
11. La señal 'wow'
La señal tuvo una duración de 37 segundos, y venía del espacio exterior. El 15 de agosto de 1977 el astrónomo Jerry Ehman, de la Universidad de Ohio State (EEUU), recibió una señal del radiotelescopio de Delaware. Al ver la transcripcción de la señal, Ehman escribió al lado la palabra 'wow1'. 28 años después, nadie ha conseguido dar una explicación a qué o quién emitió dicha señal.
La radiación provenía de la dirección de Sagitario, y de un ámbito de frecuencias de unos1420 megahertzios. Estas frecuencias forman parte del espectro de radio en el que todo tipo de transmisión está prohibida, por un acuerdo internacional. La estella más cercana en esa dirección está a unos 220 años luz, así que si la señal provenía de allí, la tuvo que causar o bien un acontecimiento astronómico de enorme potencia. ¿O quizá fue una civilización alienígena con un transmisor de gran potencia?
12. Constantes no tan constantes
En 1997 el astrónomo John Webb y su equipo de la Universidad de Sidney analizaban la luz que llegaba a la tierra procedente de quasars muy lejanos. En su viaje de 1.200 millones de años luz, la luz había atravesado nubes interestelares de materiales como hierro, níquel o cromo, y los investigadores descubrieron que la los átomos habían absorbido parte de los fotones de la luz procedente de los quasars, pero no los que habían esperado.
Si las observaciones son correctas, la única explicación vagamente razonable es que una constante de la física, llamada la 'fina estructura constante' o 'alpha' cambia de valor cuando pasa a través de estas nubes interestelares. Los científicos siguen investigando.
13. La fusión fría
En 1989 dos investigadores de la Universidad de Utah (Estados Unidos), Martin Fleischmann y Stanley Pons, desencadenaron la fusión nuclear en una probeta. Sostenían que era posible realizar procesos de "fusión fría" usando como catalizador un bloque metálico de paladio. En los siguientes 10 años, fueron miles los científicos que trataron de volver a lograr los mismos resultados, aunque sin éxito. Todavía hoy sigue la polémica, aunque son muchos los que sostienen que los resultados de Fleischmann y Pons fueron fruto de un error experimental.
http://www.elmundo.es/elmundo/2005/03/2 ... 09888.html
PUBLICADOS POR EL 'NEW SCIENTIST'
Los 13 misterios inexplicables
Desde hace milenios el hombre trata de utilizar la tecnología y los avances científicos para dar respuesta a algunas de las incógnitas de este planeta y el espacio que nos rodea. La revista 'New Scientist' ha recopilado los 13 misterios que, a día de hoy, siguen provocando quebraderos de cabeza a la comunidad científica internacional.
1. El efecto placebo.
Pongamos un caso ficticio, el del paciente X. Varias veces al día, durante varios días, se le provoca dolor, que se controla con dósis de morfina. Hasta el último día del experimento. Esas 24 horas, sin que el señor X lo sepa, la morfina se sustituye por una solución salina absolutamente inócua. Parece increíble, pero dicha solución tiene el mismo efecto que la morfina y el dolor desaparece.
Es lo que se conoce como el efecto placebo. Antes de la llegada de los fármacos en el siglo XX, era el arma más potente de la Medicina contra la enfermedad. Excremento de cocodrilo, aceite de gusano, sangre de lagarto y hasta ser tocado por el Rey eran medicinas usadas entre el siglo XVI y el XIX. Desde la publicación, en 1955, del libro The Powerful Placebo de H.K. Beecher, se reconoció que el 35% de los pacientes con una amplia variedad de enfermedades podría ser tratada sólo con placebo. En estudios posteriores, se ha visto que puede funcionar en el 70% e, incluso, del 100% de los casos.
Nadie sabe todavía qué mecanismos intervienen en el efecto placebo. Algunos estudios sobre el dolor sugieren que reduce la ansiedad y facilita la liberación de endorfinas (sustancias químicas naturales parecidas a los narcóticos) en el cerebro, aunque son hipótesis todavía no confirmadas.
2. El problema del horizonte.
Nuestro Universo era extraordinariamente homogéneo, y la temperatura de la radiación de fondo es la misma en cualquier dirección que observemos. El hecho de que la temperatura sea homogénea no sería sorprendente de no ser porque entre los dos extremos del Universo hay una distancia de casi 2.800 millones de años luz, mientras que la edad del Universo es 'sólo' de unos 1.400 millones de años. Teniendo en cuenta que nada puede viajar más rápido que la velocidad de la luz y la hipótesis de que hubo un instante inicial o big bang, el interrogante es: ¿cómo es posible que regiones físicamente desconectadas desde el "principio" del Universo estuviesen en estados físicos tan parecidos?
Esto es lo que se conoce como el 'problema del horizonte', uno de los mayores quebraderos de cabeza de los cosmólogos, que siguen sin dar con la solución.
3. Rayos cósmicos ultra-energéticos
Los rayos cósmicos son partículas que llegan desde el espacio y bombardean constantemente a la Tierra desde todas direcciones. La mayoría de estas partículas son núcleos de átomos o electrones. Algunas de ellas son más energéticas que cualquier otra partícula observada en la naturaleza. El misterio está en su alta energía. La teoría especial de la relatividad de Einstein dice que cualquier rayo cósmico que llegue a la Tierra desde fuera de nuestra galaxia habrá sufrido tantas colisiones que el máximo posible de energía que puede tener es 5 × 1019 eV.
Los rayos detectados desde hace una década por el observatorio japonés de Akeno están muy por encima de ese límite, con lo cual o los datos -tomados en diferentes ocasiones y siempre parecidos- están mal, o Einstein se equivocó.
4. Los resultados de homeopatía de Belfast
En 1810 el médico alemán Christian Friederich Samuel Hahnemann publicaba el "Organon, el arte de curar", piedra angular de la homeopatía. El principal fundamento de la teoría se define en la ley de los similares (homeo- es el prefijo griego que designa igualdad) por la que una enfermedad se cura con la misma sustancia tóxica que la produce —de ahí que se llame ley de los similares-, pero a dosis infinitesimales. Los homeópatas disuelven esos venenos en etanol —lo que llaman tintura madre- y la diluyen en agua sucesivas veces, no importa cuantas, según ellos el remedio se "imprime" en las moléculas de agua. Tales disoluciones son la parte controvertida de la disciplina, puesto es posible que a esas concentraciones no haya ni una sóla molécula del principio activo en la solución homeopática. Sin embargo su efecto ha sido demostrado en numerosos estudios y se estima que un 15% de los médicos occidentales siguen esta línea.
Madeleine Ennis, farmacóloga de la Queen’s University de Belfast, ha sido siempre el azote de los homeópatas. Asegura que, a esas concentraciones, en los remedios homeopáticos no hay más que agua, por lo que químicamente no tiene sentido que funcionen. Sin embargo en su estudio más reciente Ennis y su equipo se llevaron un "pequeño" chasco: descubrieron que soluciones ultradiluidas de histamina funcionaban en un experimento con basófilos, unas células sanguíneas que actúan en la inflamación. La solución homeopática en la que probablemente no había ni una sola molécula de histamina funcionaba realmente como la histamina. Aunque Ennis se ha visto incapaz de explicar el porqué del efectivo funcionamiento y sigue mostrándose escéptica, ha asegurado que si los resultados son reales y la homeopatía no actúa como un placebo, habría que reescribir parte de los fundamentos de la física y de la química.
5. La materia oscura
No todo lo que existe en el universo es visible. Los astrónomos pueden detectar objetos que emiten o absorber luz o cualquier otro tipo de radiación electromagnética o que interactuan gravitatoriamente con otros objetos que podamos detectar .El término "materia oscura" alude a esta materia cuya existencia no puede ser detectada mediante procesos asociados a la luz, es decir, no emiten ni absorben radiaciones electromagnéticas.
Determinar cuál es la naturaleza de la materia oscura y en qué cantidad existe es el llamado ‘’problema de la materia oscura’’ o ‘’problema de la masa desaparecida’’, y es uno de los problemas más importantes de la cosmología moderna. La cuestión de la existencia de la materia oscura puede parecer irrelevante para nuestra existencia en la tierra, pero, el hecho de que exista o no la materia oscura, afecta el destino final del universo.
6. Metano en Marte
El 20 de julio de 1976 Gilbert Levin, uno de los ingenieros a cargo de las misiones de la NASA al planeta Marte, vio que la Viking que orbitaba el planeta rojo había encontrado emisiones de carbono-14 que contenían metano en el suelo del planeta, por lo que la conclusión debía ser obvia y muy relevante: hay vida en Marte.
Algo está ingiriendo los nutrientes, los está metabolizando, y después los expulsa a la atmósfera en forma de gas mezclado con carbono 14. Sin embargo, la NASA no se atrevió a afirmar con rotundidad el descubrimiento, porque otro instrumento de la Viking, diseñado para identificar moléculas orgánicas consideradas esenciales símbolos de vida no encontró nada, así que casi todos los científicos de la NASA decidieron declarar el hallazgo de la Viking un "falso positivo". Pero , ¿lo era?
A día de hoy, los argumentos a favor y en contra siguen dividiendo a los científicos, aunque es cierto que los rovers que estudian el planeta rojo desde hace un año han encontrado pruebas de los descubrimientos de la Viking.
7. Tetraneutrones
Hace cuatro años, en un acelerador de partículas de Francia detectaron seis partículas que no deberían existir. Las llamaron 'tetraneutrones': cuatro neutrones unidos entre sí de una forma que desafía las leyes de la física.
Francisco Miguel Marquès ay sus colegas del acelerador de Ganil, en Caen, llevan desde entonces tratando de conseguri el efecto otra vez, pero hasta ahora no lo han logrado. Si lo repiten, estos 'racimos' de átomos podrían obligar a los científicos a reconsiderar las fuerzas que mantienen unido el nucelo de los átomos.
8. La anomalía de las Pioneer
Esta es la historia paralela de dos naves espaciales. Una, la Pioneer 10, fue lanzada en 1972; la Pioneer 11 un año después. Ahora mismo, ambas deben estar en el espacio profundo, alejadas de la vista de cualquier ingenio humano, aunque sus trayectorias son demasiado fascinantes como para ignorarlas.
Y es que hay algo que ha estado 'empujando' a las dos naves, provocando que aumenten su velocidad. La aceleración es pequeña, menos de un nanometro por segundo, pero es lo suficiente para hacer sacado a la Pioneer 400.000 kilómetros de su trayectoria inicial. La NASa perdió contacto con la Pioneer 11 en 1995, pero todo hace indicar que podría estar 'sufriendo' el mismo proceso que su hermana gemela, y estaría muy fuera de su rumbo en algún lugar del espacio. ¿Y qué causa este desvío? Por el momento, nadie lo sabe.
9. La energía oscura
Este es uno de los mayores problemas de la física. En 1998, un grupo de astrónomos descubrió que el universo se está expandiendo a más velocidad que nunca. Esto siginifica que la velocidad a la que una galaxia distante se aleja de nosotros aumenta con el tiempo.De ser correcta esta teoría, el resultado último de esta tendencia sería la imposibilidad de seguir viendo cualquier otra galaxia. Esta nueva teoría del fin del Universo ha recibido el nombre de Gran Desgarramiento o, en inglés, Big Rip.
Es un efecto para el que todavía se investigan las causas, aunque una de las sugerencias puede ser que esté motivado por la 'energía oscura', una forma hipotética de energía que permea todo el espacio y que produce una presión negativa, resultando en una fuerza gravitacional repulsiva. La energía oscura puede dar cuenta del universo en expansión acelerada, así como de una significativa fracción de su masa.
10 El acantilado de Kuipper
SI alguien viajara a la zona del sistema solar externa a las órbitas de Neptuno y Plutón, se encontraría algo muy extraño. De repente, tras cruzar el cintutón de Kuiper -lleno de objetos pequeños como asteroides helados y cometas- no hay nada. Los astrónomos lo llaman el 'acantilado de Kuiper', porque la densidad de objetos cae espectacularmente.
La pregunta es qué ha causado este brusco cambio, y la única posible respuesta parece ser la existencia de un décimo planeta del Sistema Solar, lo suficientemente grande como para haber atraído a todos esos cuerpos hacia su órbita. De momento, sin embargo, nadie ha conseguido aportar ninguna prueba de la existencia de ese planeta X.
11. La señal 'wow'
La señal tuvo una duración de 37 segundos, y venía del espacio exterior. El 15 de agosto de 1977 el astrónomo Jerry Ehman, de la Universidad de Ohio State (EEUU), recibió una señal del radiotelescopio de Delaware. Al ver la transcripcción de la señal, Ehman escribió al lado la palabra 'wow1'. 28 años después, nadie ha conseguido dar una explicación a qué o quién emitió dicha señal.
La radiación provenía de la dirección de Sagitario, y de un ámbito de frecuencias de unos1420 megahertzios. Estas frecuencias forman parte del espectro de radio en el que todo tipo de transmisión está prohibida, por un acuerdo internacional. La estella más cercana en esa dirección está a unos 220 años luz, así que si la señal provenía de allí, la tuvo que causar o bien un acontecimiento astronómico de enorme potencia. ¿O quizá fue una civilización alienígena con un transmisor de gran potencia?
12. Constantes no tan constantes
En 1997 el astrónomo John Webb y su equipo de la Universidad de Sidney analizaban la luz que llegaba a la tierra procedente de quasars muy lejanos. En su viaje de 1.200 millones de años luz, la luz había atravesado nubes interestelares de materiales como hierro, níquel o cromo, y los investigadores descubrieron que la los átomos habían absorbido parte de los fotones de la luz procedente de los quasars, pero no los que habían esperado.
Si las observaciones son correctas, la única explicación vagamente razonable es que una constante de la física, llamada la 'fina estructura constante' o 'alpha' cambia de valor cuando pasa a través de estas nubes interestelares. Los científicos siguen investigando.
13. La fusión fría
En 1989 dos investigadores de la Universidad de Utah (Estados Unidos), Martin Fleischmann y Stanley Pons, desencadenaron la fusión nuclear en una probeta. Sostenían que era posible realizar procesos de "fusión fría" usando como catalizador un bloque metálico de paladio. En los siguientes 10 años, fueron miles los científicos que trataron de volver a lograr los mismos resultados, aunque sin éxito. Todavía hoy sigue la polémica, aunque son muchos los que sostienen que los resultados de Fleischmann y Pons fueron fruto de un error experimental.
http://www.elmundo.es/elmundo/2005/03/2 ... 09888.html
Calibra 2.0i 115cv C20NE año 92 recycled
Por cierto hablando del trasbordador,si alguno es radioaficionado y tiene algun equipo de 2mts Podreis escuchar y/o hablar esta semana en la frecuencia 145.800 (escuchar) 145200fm (transmitir) con los astronautas que se encuentran en la estacion espacial internacional en los pases cercanos a nuestro pais.existen paginas para saber los pases de la estacion espacial.
Hoy he podido escucharles,fue una lastima no pude hablar con ellos porque me di cuanta tarde del pase, en diez horas vuelven a pasar por encima habra que intentarlo de nuevo.si lo consigo cuelgo la grabacion por aqui.
http://www.amsat.org/amsat-new/tools/predict/index.php
http://www.issfanclub.com/
salud
Hoy he podido escucharles,fue una lastima no pude hablar con ellos porque me di cuanta tarde del pase, en diez horas vuelven a pasar por encima habra que intentarlo de nuevo.si lo consigo cuelgo la grabacion por aqui.
http://www.amsat.org/amsat-new/tools/predict/index.php
http://www.issfanclub.com/
salud
Calibra C20NE 8V
Carlos escribió:3. Rayos cósmicos ultra-energéticos
Los rayos cósmicos son partículas que llegan desde el espacio y bombardean constantemente a la Tierra desde todas direcciones. La mayoría de estas partículas son núcleos de átomos o electrones. Algunas de ellas son más energéticas que cualquier otra partícula observada en la naturaleza. El misterio está en su alta energía. La teoría especial de la relatividad de Einstein dice que cualquier rayo cósmico que llegue a la Tierra desde fuera de nuestra galaxia habrá sufrido tantas colisiones que el máximo posible de energía que puede tener es 5 × 1019 eV.
Los rayos detectados desde hace una década por el observatorio japonés de Akeno están muy por encima de ese límite, con lo cual o los datos -tomados en diferentes ocasiones y siempre parecidos- están mal, o Einstein se equivocó.
Hace cosa de un par de años, un router bastante tocho se nos pegó una hostia de órdago. Ese router estaba dedicado a tráfico intercontinental de tipo B (digamos que bastante crítico) y dejó aisladas a Asia/Pacífico y Sudamérica durante más tiempo del que aguanta un manager sin empezar a sudar. Por supuesto hubo una investigación donde se vio implicado el proveedor y tal y después de varias pruebas y análisis de logs, se llegó a la conclusión de que todo fue causado por radiación cósmica.
- Carlos
- Master Calibreitor!
- Mensajes: 15828
- Registrado: Mié, 03 Mar 2004, 02:03
- Ubicación: Caput Castellae
- Contactar:
Hace poco salio publicado este articulo sobre los rayos cosmicos y los ordenadores.
Desarrollan ordenadores resistentes a las radiaciones
Los científicos están desarrollando ordenadores avanzados que pueden pensar mejor incluso cuando son bombardeados por la radiación espacial. Cuando tu ordenador se comporta de forma extraña, perdiendo datos, o incluso cuando se cuelga totalmente, llega a ser frustrante. Pero para un astronauta confiando en su ordenador de abordo, un mal funcionamiento del mismo puede resultar de fatales consecuencias.
19:00 - 01/12/2005 | Fuente: SONDASESPACIALES.COM
Desgraciadamente, la radiación espacial puede producir estos mal funcionamientos. Cuando una partícula de gran velocidad, como los rayos cósmicos, colisiona con un circuito microscópico de un chip de un ordenador, puede provocar que se comporte de manera incorrecta. Si esos errores provocan que la nave espacial se dirija en la dirección incorrecta, podemos imaginarnos las consecuencias, según publica Sondas Espaciales.
Para que esto no ocurra, la mayoría de las misiones espaciales usan chips a prueba de radiaciones. los chips “Rad-had”, son bastante diferentes a los usados en nuestros ordenadores. Por ejemplo, contienen transistores de más, que requieren de mayor energía para conmutarlos, de forma que los rayos cósmicos no pueden activarlos de una forma tan fácil. Los chips Rad-hard continuarían funcionando sin errores al recibir el impacto de un rayo cósmico mientras que los normales producirían señales erróneas e impredecibles.
La NASA utiliza en exclusiva este tipo de chips para hacer que sus ordenadores sean lo más fiable posible en el espacio. Pero estos chips hechos a medida tienen desventajas: son muy caros, consumen mucho, y son extremadamente lentos, unas 10 veces más lentos que las CPU equivalentes en el mercado.
Una de las razones por las que la NASA quiere aumentar la potencia de procesamiento de estos chips son los futuros viajes tripulados que se realizarán a la Luna. Teniendo mayor capacidad de procesamiento, ayudaría a la nave a conservar uno de sus más limitados recursos, el ancho de banda. El ancho de banda para enviar datos a la Tierra es siempre el “cuello de botella” de la información en las misiones espaciales, con una velocidad de transmisión menor que incluso los viejos módems telefónicos. Si los datos directamente medidos por las naves pudiesen ser procesados directamente en la nave, los científicos podrían recibir únicamente los resultados, ahorrando gran cantidad de ancho de banda que requieren los datos en bruto.
En la superficie de la Luna o de Marte, los exploradores podrían usar los ordenadores para analizar los datos recogidos, y rápidamente identificar las áreas de mayor interés científico. Lo mismo pasaría con los robots y los rovers.
Utilizar los potentes procesadores Pentium y PowerPC que encontramos a diario en las tiendas, podrían ayudar tremendamente, pero para hacer eso, el problema de la radiación debería ser resuelto.
La NASA ha desarrollado un proyecto llamado Environment Adaptive Fault-Toleran Computing (EAFTC). Los investigadores trabajando en el proyecto están experimentando con formas de utilizar las CPUs de uso doméstico para las misiones espaciales.
Uno de los miembros del proyecto, Raphael Some, nos explica: “Una forma de usar las modernas CPUs en el espacio es tan simple como tener tres veces más CPUs de las que necesitas: Las tres CPUs realizarían el mismo cálculo y votarían por la solución. Si una de las CPUs ha sido corrompida por un rayo cósmico, las otras dos seguirían de acuerdo, de esta forma obtendríamos el resultado correcto.”
Esto funciona, pero es un derroche de energía, gastando electricidad y poder computacional para realizar cálculos, que la mayoría de las veces no son críticos.
“Para realizar esto de forma más inteligente, estamos desarrollando un software que mide la importancia de los cálculos”, continúa Some. “Si el cálculo es muy importante, como la navegación, las tres CPUs deberán votar. Si es menos importante, como medir los componentes químicos de una roca, solo una o dos CPUs realizarían los cálculos pertinentes.”
Esta es simplemente una de las docenas de técnicas de corrección que la EAFTC ha integrado en un único paquete. El resultado es mucho más eficiente: sin el software EAFTC, un ordenador doméstico necesita una redundancia del 100-200% para protegerse de los errores causados por la radiación. (100% de redundancia significa 2 CPUs, 200% significa 3) Con la EAFTC funcionando en una CPU, solo se necesita una redundancia del 15-20% en la misma escala de protección. Todo ese ahorro en CPU puede ser reencaminado a otras tareas más productivas.
“La EAFTC no va a reemplazar las CPUs rad-hard”, comenta Some. “Algunas tareas, como el soporte de vida, son tan importantes que siempre queremos que sean procesados por chips con protección anti-radiación. “
El primer test del EAFTC será abordo del satélite llamado Space Technology 8 (ST-8). Parte del New Millennium Program. El satélite ST-8 pondrá a prueba nuevas tecnologías espaciales, como el EAFTC, haciendo posible su uso en futuras misiones. El satélite será lanzado en el año 2009, y atravesará el cinturón de Van Allen durante sus órbitas elípticas, comprobando si este sistema funciona en ambientes espaciales de alta radiación.
Desarrollan ordenadores resistentes a las radiaciones
Los científicos están desarrollando ordenadores avanzados que pueden pensar mejor incluso cuando son bombardeados por la radiación espacial. Cuando tu ordenador se comporta de forma extraña, perdiendo datos, o incluso cuando se cuelga totalmente, llega a ser frustrante. Pero para un astronauta confiando en su ordenador de abordo, un mal funcionamiento del mismo puede resultar de fatales consecuencias.
19:00 - 01/12/2005 | Fuente: SONDASESPACIALES.COM
Desgraciadamente, la radiación espacial puede producir estos mal funcionamientos. Cuando una partícula de gran velocidad, como los rayos cósmicos, colisiona con un circuito microscópico de un chip de un ordenador, puede provocar que se comporte de manera incorrecta. Si esos errores provocan que la nave espacial se dirija en la dirección incorrecta, podemos imaginarnos las consecuencias, según publica Sondas Espaciales.
Para que esto no ocurra, la mayoría de las misiones espaciales usan chips a prueba de radiaciones. los chips “Rad-had”, son bastante diferentes a los usados en nuestros ordenadores. Por ejemplo, contienen transistores de más, que requieren de mayor energía para conmutarlos, de forma que los rayos cósmicos no pueden activarlos de una forma tan fácil. Los chips Rad-hard continuarían funcionando sin errores al recibir el impacto de un rayo cósmico mientras que los normales producirían señales erróneas e impredecibles.
La NASA utiliza en exclusiva este tipo de chips para hacer que sus ordenadores sean lo más fiable posible en el espacio. Pero estos chips hechos a medida tienen desventajas: son muy caros, consumen mucho, y son extremadamente lentos, unas 10 veces más lentos que las CPU equivalentes en el mercado.
Una de las razones por las que la NASA quiere aumentar la potencia de procesamiento de estos chips son los futuros viajes tripulados que se realizarán a la Luna. Teniendo mayor capacidad de procesamiento, ayudaría a la nave a conservar uno de sus más limitados recursos, el ancho de banda. El ancho de banda para enviar datos a la Tierra es siempre el “cuello de botella” de la información en las misiones espaciales, con una velocidad de transmisión menor que incluso los viejos módems telefónicos. Si los datos directamente medidos por las naves pudiesen ser procesados directamente en la nave, los científicos podrían recibir únicamente los resultados, ahorrando gran cantidad de ancho de banda que requieren los datos en bruto.
En la superficie de la Luna o de Marte, los exploradores podrían usar los ordenadores para analizar los datos recogidos, y rápidamente identificar las áreas de mayor interés científico. Lo mismo pasaría con los robots y los rovers.
Utilizar los potentes procesadores Pentium y PowerPC que encontramos a diario en las tiendas, podrían ayudar tremendamente, pero para hacer eso, el problema de la radiación debería ser resuelto.
La NASA ha desarrollado un proyecto llamado Environment Adaptive Fault-Toleran Computing (EAFTC). Los investigadores trabajando en el proyecto están experimentando con formas de utilizar las CPUs de uso doméstico para las misiones espaciales.
Uno de los miembros del proyecto, Raphael Some, nos explica: “Una forma de usar las modernas CPUs en el espacio es tan simple como tener tres veces más CPUs de las que necesitas: Las tres CPUs realizarían el mismo cálculo y votarían por la solución. Si una de las CPUs ha sido corrompida por un rayo cósmico, las otras dos seguirían de acuerdo, de esta forma obtendríamos el resultado correcto.”
Esto funciona, pero es un derroche de energía, gastando electricidad y poder computacional para realizar cálculos, que la mayoría de las veces no son críticos.
“Para realizar esto de forma más inteligente, estamos desarrollando un software que mide la importancia de los cálculos”, continúa Some. “Si el cálculo es muy importante, como la navegación, las tres CPUs deberán votar. Si es menos importante, como medir los componentes químicos de una roca, solo una o dos CPUs realizarían los cálculos pertinentes.”
Esta es simplemente una de las docenas de técnicas de corrección que la EAFTC ha integrado en un único paquete. El resultado es mucho más eficiente: sin el software EAFTC, un ordenador doméstico necesita una redundancia del 100-200% para protegerse de los errores causados por la radiación. (100% de redundancia significa 2 CPUs, 200% significa 3) Con la EAFTC funcionando en una CPU, solo se necesita una redundancia del 15-20% en la misma escala de protección. Todo ese ahorro en CPU puede ser reencaminado a otras tareas más productivas.
“La EAFTC no va a reemplazar las CPUs rad-hard”, comenta Some. “Algunas tareas, como el soporte de vida, son tan importantes que siempre queremos que sean procesados por chips con protección anti-radiación. “
El primer test del EAFTC será abordo del satélite llamado Space Technology 8 (ST-8). Parte del New Millennium Program. El satélite ST-8 pondrá a prueba nuevas tecnologías espaciales, como el EAFTC, haciendo posible su uso en futuras misiones. El satélite será lanzado en el año 2009, y atravesará el cinturón de Van Allen durante sus órbitas elípticas, comprobando si este sistema funciona en ambientes espaciales de alta radiación.
Calibra 2.0i 115cv C20NE año 92 recycled
Es una gran putada que los cálculos que realizas no sean fiables.
Un gran avance de las comunicaciones (y también las micro-comunicaciones, lo que implica rapidez de cálculo) es precisamente la posibilidad de eliminar la comprobación/corrección de errores extremo a extremo. Por ejemplo, en fibra óptica, la probabilidad de error es tan pequeña, que ni siquiera se implementan mecanismos de detección de errores. Si los datos son críticos, se confía en la corrección de errores de niveles superiores (layers de transporte y pa arriba).
Eso significa que en caso de error, la secuencia a retransmitir será mayor, pero la práctica totalidad del tiempo se ahorra ancho de banda al evitar transmitir datos de redundancia.
No conozco bien la naturaleza de los rayos cósmicos, pero ¿no se podría blindar las CPUs en una especie de caja de plomo, o algo parecido?
Me llama la atención también lo que cometnas del ancho de banda nave/tierra. ¿Qué portadoras se usan? Me consta que en los submarinos la transmisión de datos es extremadamente difícil porque la naturaleza del agua obliga a utilizar longitudes de onda tremendamente largas (es decir: frecuencias muy bajas), lo que limita la posibilidad de empaquetar la información. Tampoco sé cómo resuelven el problema, así que cualquier dato es bienvenido y apreciado.
Un gran avance de las comunicaciones (y también las micro-comunicaciones, lo que implica rapidez de cálculo) es precisamente la posibilidad de eliminar la comprobación/corrección de errores extremo a extremo. Por ejemplo, en fibra óptica, la probabilidad de error es tan pequeña, que ni siquiera se implementan mecanismos de detección de errores. Si los datos son críticos, se confía en la corrección de errores de niveles superiores (layers de transporte y pa arriba).
Eso significa que en caso de error, la secuencia a retransmitir será mayor, pero la práctica totalidad del tiempo se ahorra ancho de banda al evitar transmitir datos de redundancia.
No conozco bien la naturaleza de los rayos cósmicos, pero ¿no se podría blindar las CPUs en una especie de caja de plomo, o algo parecido?
Me llama la atención también lo que cometnas del ancho de banda nave/tierra. ¿Qué portadoras se usan? Me consta que en los submarinos la transmisión de datos es extremadamente difícil porque la naturaleza del agua obliga a utilizar longitudes de onda tremendamente largas (es decir: frecuencias muy bajas), lo que limita la posibilidad de empaquetar la información. Tampoco sé cómo resuelven el problema, así que cualquier dato es bienvenido y apreciado.
- Pacheking
- Calibrero de pro
- Mensajes: 2850
- Registrado: Mié, 24 Dic 2003, 17:35
- Ubicación: Madrid (San Fermin)
un primo mio es ingeniero de teleco y trabaja en Bazan en cartagena haciendo los radares de los submarinos, asique tiene que ser una eminencia en este sentido, lo que pasa que le veo muy de cuando en cuando y no solemos hablar de estos temas
Opel Astra Coupe Bertone Edition 2.2 16V 147CV "Naranjito"
Miembro Plataforma "Calibrero sin Calibra"
Ciudad calibrera: http://calibra-spain.myminicity.es/
Opel Calibra 2.0i "Rosita" en el recuerdo
Miembro Plataforma "Calibrero sin Calibra"
Ciudad calibrera: http://calibra-spain.myminicity.es/
Opel Calibra 2.0i "Rosita" en el recuerdo
-
- Master Calibreitor!
- Mensajes: 16918
- Registrado: Mar, 23 Dic 2003, 01:03
- Ubicación: Madrid
- Contactar:
@ Herr Farruku: La USN utiliza señales ELF, enviadas desde aviones EC-130Q y E-6A que descuelgan antenas de una milla. Se tardan 15 minutos en transmitir un grupo de 3 letras. Por ejemplo: CVJ = 'Lánzalo todo contra Moscú'; RLK = 'Sube a superficie para recibir instrucciones más extensas'.
Esto es lento pero seguro, el submarino puede captar esas señales a 100+ metros de profundidad, sin necesidad de emerger y delatarse.
@ Pacheking: Convence a tu primo de que apunte al forvm .
Esto es lento pero seguro, el submarino puede captar esas señales a 100+ metros de profundidad, sin necesidad de emerger y delatarse.
@ Pacheking: Convence a tu primo de que apunte al forvm .
"The only true law is that which leads to freedom"
(Jonathan Livingston Seagull)
- Carlos
- Master Calibreitor!
- Mensajes: 15828
- Registrado: Mié, 03 Mar 2004, 02:03
- Ubicación: Caput Castellae
- Contactar:
Uno de los aviones que más halo de misterio misterio a tenido en los tiempos modernos es Lockheed Aurora al cual se a responsabilizado de muchas de las apariciones del fenómeno OVNI.
Hoy en día no se tiene claro siquiera si el aurora existe ni cual es fu forma en caso de existir.
Hay multitud de paginas web al respecto pero ninguna aclara por completo el misterio.
http://www.fas.org/irp/mystery/aurora.htm
http://jpcolliat.free.fr/aurora/aurora-1.htm
http://robocat.users.btopenworld.com/aurora.htm
Hoy en día no se tiene claro siquiera si el aurora existe ni cual es fu forma en caso de existir.
Hay multitud de paginas web al respecto pero ninguna aclara por completo el misterio.
http://www.fas.org/irp/mystery/aurora.htm
http://jpcolliat.free.fr/aurora/aurora-1.htm
http://robocat.users.btopenworld.com/aurora.htm
Calibra 2.0i 115cv C20NE año 92 recycled
- Carlos
- Master Calibreitor!
- Mensajes: 15828
- Registrado: Mié, 03 Mar 2004, 02:03
- Ubicación: Caput Castellae
- Contactar:
Si ha sido todo un logro, teniendo en cuenta el anterior fracaso .
Vaya viajecito de 7 años de duración (sin cambiar ni aceite ni respostar ni nada )
Vaya viajecito de 7 años de duración (sin cambiar ni aceite ni respostar ni nada )
Calibra 2.0i 115cv C20NE año 92 recycled
- La_Machine
- Calibrero Bronze
- Mensajes: 249
- Registrado: Dom, 29 May 2005, 22:11
- Ubicación: Pamplona - Tomiño