Las imagenes estan en el siguiente link:
https://www.flickr.com/photos/129292216@N07/
Fisica y astronomia
viernes, 14 de noviembre de 2014
viernes, 19 de septiembre de 2014
Cosmologia
1) Cosmología, del griego κοσμολογία («cosmologuía», compuesto por κόσμος, /kosmos/, «cosmos, orden», y λογια, /loguía/, «tratado, estudio») es el estudio del universo en su conjunto, en el que se incluyen teorías sobre su origen, su evolución, su estructura a gran escala y su futuro.
t
2) La teoría del Big Bang fue construida a partir de las contribuciones de Einstein y el astrónomo holandés Willem de Sitter (1917), el físico y matemático belga Georges Lemaitre (1948), el matemático ruso Alexander Friedmann (1922), y por el físico ruso George Gamow y sus dos colegas norteamericanos Robert Herman y Ralph Alpher de la universidad de George Washington. Refinamientos posteriores al modelo mostraron que éste es más preciso si se introduce un mecanismo de"inflación" que genera un crecimiento acelerado del radio del universo haciendo que crezca, en una fracción de segundo, de un valor de una diez millonésima parte del radio de un protón al valor de cien millones de años luz.
La hipótesis inflacionaria, propuesta originalmente en 1980 por Alan H. Guth del MIT y por Andrei D. Linde del Instituto Lebedev de Ciencias Físicas de Moscú, ha sido desarrollada hasta el punto de ser aceptada como elemento esencial del Big Bang ya que resuelve sus más graves problemas.
El Big Bang tiene dos problemas serios:
- El problema de la causalidad (o problema del horizonte): El valor promedio de la temperatura de la radiación cósmica de fondo es el mismo en todas las direcciones. ¿Por qué sucede esto? Según el Big Bang, dos puntos de la esfera celeste separados por más de 2 grados jamás pudieron estar en contacto en el pasado (esto debido a que la velocidad de la luz es finita). Para que el fondo de radiación entre en equilibrio a la misma temperatura es necesario que todos sus puntos puedan tener contacto térmico.
- El problema de la planitud: Para entender los argumentos expuestos en esta sección se recomienda ver primero la definición del parámetro de densidad (Omega en el alfabeto griego). La densidad del universo que observamos hoy es muy cercana a la densidad crítica (es decir = 0.2 - 1.0). Las ecuaciones de la teoría de la Relatividad General indican que si el parámetro comenzó con un valor de 1, entonces este valor se mantiene constante a medida que el universo se expande. Pero si al comienzo, es diferente de 1 con la expansión se aleja rápidamente de su valor inicial y por lo tanto se esperaría que el valor de actual sea muy diferente a 1. En resumen, debe ser exactamente 1 o muy lejos de 1. Esto se debe a que las ecuaciones para la evolución de omega dan una solución de equilibrio inestable en torno al valor de 1. Entonces, ¿Cómo es posible que hoy sea tan cercano a 1? La geometría del universo es plana para = 1, de ahí el nombre “Planitud”).
- El problema de la causalidad (o problema del horizonte): El valor promedio de la temperatura de la radiación cósmica de fondo es el mismo en todas las direcciones. ¿Por qué sucede esto? Según el Big Bang, dos puntos de la esfera celeste separados por más de 2 grados jamás pudieron estar en contacto en el pasado (esto debido a que la velocidad de la luz es finita). Para que el fondo de radiación entre en equilibrio a la misma temperatura es necesario que todos sus puntos puedan tener contacto térmico.
- El problema de la planitud: Para entender los argumentos expuestos en esta sección se recomienda ver primero la definición del parámetro de densidad (Omega en el alfabeto griego). La densidad del universo que observamos hoy es muy cercana a la densidad crítica (es decir = 0.2 - 1.0). Las ecuaciones de la teoría de la Relatividad General indican que si el parámetro comenzó con un valor de 1, entonces este valor se mantiene constante a medida que el universo se expande. Pero si al comienzo, es diferente de 1 con la expansión se aleja rápidamente de su valor inicial y por lo tanto se esperaría que el valor de actual sea muy diferente a 1. En resumen, debe ser exactamente 1 o muy lejos de 1. Esto se debe a que las ecuaciones para la evolución de omega dan una solución de equilibrio inestable en torno al valor de 1. Entonces, ¿Cómo es posible que hoy sea tan cercano a 1? La geometría del universo es plana para = 1, de ahí el nombre “Planitud”).
· El universo que observamos es apenas una fracción del universo entero. Con la inflación el espacio se expande aceleradamente, la parte del universo que podemos observar está limitada por la velocidad finita de la luz. Estamos en el centro de una esfera (de radio = edad del universo * velocidad de la luz) más allá de la cual no podemos saber nada. Este límite se llama el horizonte.
· La inflación explica el origen del universo a partir de la nada (vacío). Si consideramos la naturaleza cuántica de la materia y los campos el vacío no es una entidad carente absolutamente de energía. El principio de incertidumbre de Heisemberg permite la aparición repentina de pares partícula-antipartícula que rápidamente desaparecen. La existencia de estos pares virtuales forma una presión negativa (esta posibilidad se llama el efecto Casimir y ha sido verificada experimentalmente).
· En la teoría de la Relatividad General no solamente la densidad de masa es fuente de atracción gravitacional. La gravedad resulta de la suma de la densidad de masa (energía) y la presión. Si esta suma es positiva la gravedad es atractiva (como lo decía Newton), y si la suma es negativa la gravedad es repulsiva.
· En el modelo inflacionario el universo al comienzo del tiempo pasa por una época en la que el vacío provee suficiente presión negativa para provocar una expansión acelerada del espacio. Esta burbuja puede brotar espontáneamente a partir del vacío por un proceso que en mecánica cuántica se llama efecto “túnel”.
· El problema del horizonte desaparece con la inflación ya que toda la región del universo a la que tenemos acceso proviene de una región muy pequeña antes de la inflación dentro de la cual todas sus partes estaban en contacto causal.
· El problema de la planitud también queda resuelto con la inflación. El proceso de la expansión acelerada hace que la curvatura del espacio tienda siempre hacia una geometría plana (W = 1). Este proceso es similar a lo que ocurre cuando inflamos un globo hasta alcanzar un tamaño muy grande, por ejemplo si nos imaginamos que la Tierra es el globo inflado podemos apreciar que a escalas humanas la curvatura de la Tierra es imperceptible (la Tierra parece plana).
· El modelo explica el espectro de perturbaciones primordiales en la distribución de mater
4) El Gran Colisionador de Hadrones, GCH (en inglés Large Hadron Collider, LHC) es un acelerador y colisionador de partículas ubicado en la Organización Europea para la Investigación Nuclear (CERN, sigla que corresponde a su antiguo nombre en francés: Conseil Européen pour la Recherche Nucléaire), cerca de Ginebra, en la frontera franco-suiza. Fue diseñado para colisionar haces de hadrones, más exactamente de protones, de hasta 7 TeV de energía, siendo su propósito principal examinar la validez y límites del Modelo Estándar, el cual es actualmente el marco teórico de la física de partículas, del que se conoce su ruptura a niveles de energía altos.
Dentro del colisionador dos haces de protones son acelerados en sentidos opuestos hasta alcanzar el 99,99% de la velocidad de la luz, y se los hace chocar entre sí produciendo altísimas energías (aunque a escalas subatómicas) que permitirían simular algunos eventos ocurridos inmediatamente después del big bang.
El LHC es el acelerador de partículas más grande y energético del mundo.1Usa el túnel de 27 km de circunferencia creado para el Gran Colisionador de Electrones y Positrones (LEP en inglés)
5) La teoría de cuerdas es un modelo fundamental de la física que básicamente asume que las partículas materiales aparentemente puntuales son en realidad "estados vibracionales" de un objeto extendido más básico llamado "cuerda" o "filamento".
De acuerdo con esta propuesta, un electrón no es un "punto" sin estructura interna y de dimensión cero, sino un amasijo de cuerdas minúsculas que vibran en un espacio-tiempo de más de cuatro dimensiones. Un punto no puede hacer nada más que moverse en un espacio tridimensional. De acuerdo con esta teoría, a nivel "microscópico" se percibiría que el electrón no es en realidad un punto, sino una cuerda en forma de lazo. Una cuerda puede hacer algo además de moverse; puede oscilar de diferentes maneras. Si oscila de cierta manera, entonces, macroscópicamente veríamos un electrón; pero si oscila de otra manera, entonces veríamos un fotón, o un quark, o cualquier otra partícula del modelo estándar. Esta teoría, ampliada con otras como la de las supercuerdas o la Teoría M, pretende alejarse de la concepción del punto-partícula.
Dentro del colisionador dos haces de protones son acelerados en sentidos opuestos hasta alcanzar el 99,99% de la velocidad de la luz, y se los hace chocar entre sí produciendo altísimas energías (aunque a escalas subatómicas) que permitirían simular algunos eventos ocurridos inmediatamente después del big bang.
El LHC es el acelerador de partículas más grande y energético del mundo.1Usa el túnel de 27 km de circunferencia creado para el Gran Colisionador de Electrones y Positrones (LEP en inglés)
5) La teoría de cuerdas es un modelo fundamental de la física que básicamente asume que las partículas materiales aparentemente puntuales son en realidad "estados vibracionales" de un objeto extendido más básico llamado "cuerda" o "filamento".
De acuerdo con esta propuesta, un electrón no es un "punto" sin estructura interna y de dimensión cero, sino un amasijo de cuerdas minúsculas que vibran en un espacio-tiempo de más de cuatro dimensiones. Un punto no puede hacer nada más que moverse en un espacio tridimensional. De acuerdo con esta teoría, a nivel "microscópico" se percibiría que el electrón no es en realidad un punto, sino una cuerda en forma de lazo. Una cuerda puede hacer algo además de moverse; puede oscilar de diferentes maneras. Si oscila de cierta manera, entonces, macroscópicamente veríamos un electrón; pero si oscila de otra manera, entonces veríamos un fotón, o un quark, o cualquier otra partícula del modelo estándar. Esta teoría, ampliada con otras como la de las supercuerdas o la Teoría M, pretende alejarse de la concepción del punto-partícula.
4) El Gran Colisionador de Hadrones, GCH (en inglés Large Hadron Collider, LHC) es un acelerador y colisionador de partículas ubicado en la Organización Europea para la Investigación Nuclear (CERN, sigla que corresponde a su antiguo nombre en francés: Conseil Européen pour la Recherche Nucléaire), cerca de Ginebra, en la frontera franco-suiza. Fue diseñado para colisionar haces de hadrones, más exactamente de protones, de hasta 7 TeV de energía, siendo su propósito principal examinar la validez y límites del Modelo Estándar, el cual es actualmente el marco teórico de la física de partículas, del que se conoce su ruptura a niveles de energía altos.
Dentro del colisionador dos haces de protones son acelerados en sentidos opuestos hasta alcanzar el 99,99% de la velocidad de la luz, y se los hace chocar entre sí produciendo altísimas energías (aunque a escalas subatómicas) que permitirían simular algunos eventos ocurridos inmediatamente después del big bang.
El LHC es el acelerador de partículas más grande y energético del mundo.1Usa el túnel de 27 km de circunferencia creado para el Gran Colisionador de Electrones y Positrones (LEP en inglés)
5) La teoría de cuerdas es un modelo fundamental de la física que básicamente asume que las partículas materiales aparentemente puntuales son en realidad "estados vibracionales" de un objeto extendido más básico llamado "cuerda" o "filamento".
De acuerdo con esta propuesta, un electrón no es un "punto" sin estructura interna y de dimensión cero, sino un amasijo de cuerdas minúsculas que vibran en un espacio-tiempo de más de cuatro dimensiones. Un punto no puede hacer nada más que moverse en un espacio tridimensional. De acuerdo con esta teoría, a nivel "microscópico" se percibiría que el electrón no es en realidad un punto, sino una cuerda en forma de lazo. Una cuerda puede hacer algo además de moverse; puede oscilar de diferentes maneras. Si oscila de cierta manera, entonces, macroscópicamente veríamos un electrón; pero si oscila de otra manera, entonces veríamos un fotón, o un quark, o cualquier otra partícula del modelo estándar. Esta teoría, ampliada con otras como la de las supercuerdas o la Teoría M, pretende alejarse de la concepción del punto-partícula.
Dentro del colisionador dos haces de protones son acelerados en sentidos opuestos hasta alcanzar el 99,99% de la velocidad de la luz, y se los hace chocar entre sí produciendo altísimas energías (aunque a escalas subatómicas) que permitirían simular algunos eventos ocurridos inmediatamente después del big bang.Dentro del colisionador dos haces de protones son acelerados en sentidos opuestos hasta alcanzar el 99,99% de la velocidad de la luz, y se los hace chocar entre sí produciendo altísimas energías (aunque a escalas subatómicas) que permitirían simular algunos eventos ocurridos inmediatamente después del big bang.
El LHC es el acelerador de partículas más grande y energético del mundo.1Usa el túnel de 27 km de circunferencia creado para el Gran Colisionador de Electrones y Positrones (LEP en inglés)
5) La teoría de cuerdas es un modelo fundamental de la física que básicamente asume que las partículas materiales aparentemente puntuales son en realidad "estados vibracionales" de un objeto extendido más básico llamado "cuerda" o "filamento".
De acuerdo con esta propuesta, un electrón no es un "punto" sin estructura interna y de dimensión cero, sino un amasijo de cuerdas minúsculas que vibran en un espacio-tiempo de más de cuatro dimensiones. Un punto no puede hacer nada más que moverse en un espacio tridimensional. De acuerdo con esta teoría, a nivel "microscópico" se percibiría que el electrón no es en realidad un punto, sino una cuerda en forma de lazo. Una cuerda puede hacer algo además de moverse; puede oscilar de diferentes maneras. Si oscila de cierta manera, entonces, macroscópicamente veríamos un electrón; pero si oscila de otra manera, entonces veríamos un fotón, o un quark, o cualquier otra partícula del modelo estándar. Esta teoría, ampliada con otras como la de las supercuerdas o la Teoría M, pretende alejarse de la concepción del punto-partícula.
El LHC es el acelerador de partículas más grande y energético del mundo.1Usa el túnel de 27 km de circunferencia creado para el Gran Colisionador de Electrones y Positrones (LEP en inglés)
5) La teoría de cuerdas es un modelo fundamental de la física que básicamente asume que las partículas materiales aparentemente puntuales son en realidad "estados vibracionales" de un objeto extendido más básico llamado "cuerda" o "filamento".
De acuerdo con esta propuesta, un electrón no es un "punto" sin estructura interna y de dimensión cero, sino un amasijo de cuerdas minúsculas que vibran en un espacio-tiempo de más de cuatro dimensiones. Un punto no puede hacer nada más que moverse en un espacio tridimensional. De acuerdo con esta teoría, a nivel "microscópico" se percibiría que el electrón no es en realidad un punto, sino una cuerda en forma de lazo. Una cuerda puede hacer algo además de moverse; puede oscilar de diferentes maneras. Si oscila de cierta manera, entonces, macroscópicamente veríamos un electrón; pero si oscila de otra manera, entonces veríamos un fotón, o un quark, o cualquier otra partícula del modelo estándar. Esta teoría, ampliada con otras como la de las supercuerdas o la Teoría M, pretende alejarse de la concepción del punto-partícula.
3) A continuación se enumeran los fundamentos y las consecuencias del marco teórico inflacionario desarrollado por Guth, Starobinsky y Linde:
· El universo que observamos es apenas una fracción del universo entero. Con la inflación el espacio se expande aceleradamente, la parte del universo que podemos observar está limitada por la velocidad finita de la luz. Estamos en el centro de una esfera (de radio = edad del universo * velocidad de la luz) más allá de la cual no podemos saber nada. Este límite se llama el horizonte.
· La inflación explica el origen del universo a partir de la nada (vacío). Si consideramos la naturaleza cuántica de la materia y los campos el vacío no es una entidad carente absolutamente de energía. El principio de incertidumbre de Heisemberg permite la aparición repentina de pares partícula-antipartícula que rápidamente desaparecen. La existencia de estos pares virtuales forma una presión negativa (esta posibilidad se llama el efecto Casimir y ha sido verificada experimentalmente).
· En la teoría de la Relatividad General no solamente la densidad de masa es fuente de atracción gravitacional. La gravedad resulta de la suma de la densidad de masa (energía) y la presión. Si esta suma es positiva la gravedad es atractiva (como lo decía Newton), y si la suma es negativa la gravedad es repulsiva.
· En el modelo inflacionario el universo al comienzo del tiempo pasa por una época en la que el vacío provee suficiente presión negativa para provocar una expansión acelerada del espacio. Esta burbuja puede brotar espontáneamente a partir del vacío por un proceso que en mecánica cuántica se llama efecto “túnel”.
· El problema del horizonte desaparece con la inflación ya que toda la región del universo a la que tenemos acceso proviene de una región muy pequeña antes de la inflación dentro de la cual todas sus partes estaban en contacto causal.
· El problema de la planitud también queda resuelto con la inflación. El proceso de la expansión acelerada hace que la curvatura del espacio tienda siempre hacia una geometría plana (W = 1). Este proceso es similar a lo que ocurre cuando inflamos un globo hasta alcanzar un tamaño muy grande, por ejemplo si nos imaginamos que la Tierra es el globo inflado podemos apreciar que a escalas humanas la curvatura de la Tierra es imperceptible (la Tierra parece plana).
· El modelo explica el espectro de perturbaciones primordiales en la distribución de mater
4) El Gran Colisionador de Hadrones, GCH (en inglés Large Hadron Collider, LHC) es un acelerador y colisionador de partículas ubicado en la Organización Europea para la Investigación Nuclear (CERN, sigla que corresponde a su antiguo nombre en francés: Conseil Européen pour la Recherche Nucléaire), cerca de Ginebra, en la frontera franco-suiza. Fue diseñado para colisionar haces de hadrones, más exactamente de protones, de hasta 7 TeV de energía, siendo su propósito principal examinar la validez y límites del Modelo Estándar, el cual es actualmente el marco teórico de la física de partículas, del que se conoce su ruptura a niveles de energía altos.
viernes, 22 de agosto de 2014
Trabajo Práctico: Satélites y Naves Espaciales
SATÉLITES ARTIFICIALES Y NAVES ESPACIALES
1. Los satélites terrestres tiene diferentes aplicaciones, entre las cuales destacamos las siguientes: satélites meteorológicos, satélites geodésicos, satélites de comunicaciones, satélites de navegación, satélites científicos.
SATÉLITES METEOROLÓGICOS
Se tratan de cuerpos provistos de cámaras fotográficas, diseñadas para tomar imágenes de extensas regiones del planeta, lo que facilita el estudio de la distribución de mantos de nubes. Por este procedimiento, es factible por ejemplo, descubrir la formación de un huracán, antes de ser detectado por técnicas convencionales.
Con los mosaicos de fotografías satelitales se pueden trazar con gran precisión las líneas de igual presión (isobaras) y delimitar los centros de alta y baja presión.
Algunos satélites meteorológicos están equipados con sensores para medir la radiación infrarroja de la superficie terrestre. Los equipos que fotografian nubes, están limitados a su funcionamiento durante las horas del día; los sensores, en cambio, pueden trabajar durante la noche. Estos aparatos pueden distinguir la presencia de nubes ya que, como el agua absorbe parte de la radiación infrarroja, la radiación donde se hallan las nubes es menor que en aquellas en donde no hay.
Algunos de los satélites meteorológicos más importantes han sido:
- Misiones TIROS (Television Infrared Obserations Satellites; nueve artefactos lanzados entre 1960 y 1965.
- Misiones TIROS OPERATIONAL (diez artefactos enviados entre 1965 y 1969)
- Misiones IMPROVED TIROS OPERATIONAL (nueve artefactos lanzados entre 1970 y 1976)
- Misiones NIMBUS (siete artefactos puestos en funcionamiento entre 1964 y 1978)
- Misión GEOSTATIONARY OPERATIONAL ENVIROMENTAL SATELLITES (diez artefactos lanzados entre 1974 y 1987)
SATÉLITES GEODÉSICOS
La observación precisa de la posición de los satélites artificiales permite determinar la forma y dimensiones de la tierra, las características del abultamiento ecuatorial y la distribución de las masas del planeta.
Estos satélites están equipados con luces de destello muy intensas, fácilmente observables; los destellos se repiten en grupos cada cierto intervalo preciso de tiempo. Cada grupo de destellos se repite un número dado de veces por dia. Para observar estos satélites y otros más, se han montado telescopios en diversos puntos de la superficie terrestre; con ellos se puede fotografías en el cielo un campo extenso en breves intervalos de exposición.
Con la observación fotográfica de los satélites realizada desde varios lugares, se determinan sus órbitas con gran precisión y, al mismo tiempo, las coordenadas de los puntos donde se encuentran los telescopios.
Algunos de los principales satélites geodésicos puestos en órbita han sido:
- Misión GEOS ( Geodetic Satellite; cuatro artefactos enviados entre 1965 y 1975)
- Misión LAGEOS( Laser Geodynamic Satellites; lanzado en 1976)
- Misión LANDSAT (cinco artefactos lanzados entre 1972 y 1984)
SATÉLITES DE COMUNICACIONES
El primer éxito en las comunicaciones entre puntos distintos de la Tierra a través de satélites se realizó en diciembre de 1958 por medio del satélite SCORE.
Las ondas de radio que se utiliza en las comunicaciones se propagan en línea recta; aquellas llamadas de onda corta, tienen la propiedad de ser reflejadas por ciertas capas ionizadas de la alta atmósfera, reenviándolas hacia la superficie terrestre. Las microondas no sufren reflexión y atraviesan esas capas, perdiéndose en el espacio. De esta manera, las ondas cortas pueden alcanzar grandes distancias; en cambio, las microondas tienen un alcance limitado.
Un satélite que acompañara la rotación de la tierra, para un observador fijo en la superficie terrestre, permanecería estacionario en un punto del cielo, siempre al alcance de las estaciones de comunicación. Con tres satélites en órbita, se asegura una cobertura completa y continua de toda la tierra, con excepción de las regiones polares.
Históricamente, algunos de los satélites de comunicación fueron:
- Misión ECHO (cuatro artefactos lanzados entre 1960 y 1964)
- Misión RELAY(dos artefactos enviados entre 1962 y 1964)
- Misión SIRIO (italiano,1977)
- Misiones GALAXY (tres artefactos enviados entre 1983 y 1984)
- Misiones PALAPA (tres artefactos indonesios lanzados entre 1976 y 1987)
SATÉLITES DE NAVEGACIÓN
Estos aparatos son similares a los satélites geodésicos y se diferencian en que proporcionan información par que una aeronave o un barco pueda calcular su posición con mayor exactitud que por los métodos convencionales relacionados con la posición de las estrellas.
Además de su uso para la navegación, estos satélites son utilizados por el hombre, entre otras aplicaciones, para labores de catastro, exploracion geografica, instalación de industrias, aprovechamiento óptimo de recursos naturales, detección de cuencas acuíferas y seguimiento de animales (de mar, agua y tierra).
SATÉLITES CIENTÍFICOS
Este tipo de satélites fue construido principalmente para obtener información sobre diferentes aspectos vinculados con nuestro planeta, entre los que sobresalen los siguientes:
- características de la ionosfera
- campo magnético en torno a la tierra
- intensidad de la radiación recibida
- densidad y composición de la atmósfera.
Casi simultáneamente con este tipo, se construyeron y enviaron al espacio satélites especialmente adaptados para la investigación astronómica. Se trata de verdaderos observatorios orbitales
Es de destacar los satélites que son utilizados exclusivamente para el estudio del sol; entre los aspectos a estudiar con estos instrumentos, sobresalen:
- tormentas en la fotosfera solar
- evolución de las manchas solares
- viento solar
Sin duda alguna, el campo más importante de utilidad de los satélites científicos astronómicos, es el estudio de las radiaciones. La atmósfera terrestre es un obstáculo para el estudio de las radiaciones del espacio; hasta que comenzaron a utilizarse satélites artificiales, el único medio de conseguir información acerca de ellas era los globos estratosféricos y los cohetes de sondeo equipados con instrumentos registradores.
Desde 1957, los satélites ofrecen grandes ventajas sobre cualquier otro sistema de detección terrestre: mayor altura y más prolongado lapso de permanencia en órbita.
Históricamente, algunos satelites mas importantes puestos en orbita han sido:
- Misiones BEACON (dos artefactos entre 1958 y 1959)
- Misiones OSO (Orbitin Solar Observatories; nueve artefactos lanzados entre 1962 y 1965)
- Misiones ISIS (dos artefactos canadienses, enviados en 1961 y 1971, respectivamente
- Misiones ESA (European Space Agency;seis artefactos enviados entre 1968 y 1978)
2. Se denomina sonda a todo artefacto enviado al espacio por medio de cohetes y provisto de instrumento de medición y radiocomunicación que le permitan la exploración automática de un objeto particular escogido con anterioridad. Algunas sondas son enviadas a circunnavegar un planeta, a posarse sobre su superficie o simplemente a acercarse lo suficiente como para tomar datos que desde la Tierra son inaccesibles.
La utilización de sondas para la investigación de los planetas y otros astros del Sistema Solar, ha hecho que los observatorios terrestres pierdan competencia en estos temas.
Los datos enviados por las sondas han proporcionado un avance muy importante en el conocimiento científico de los astros del Sistema Solar.
3. En el caso del estudio de la Luna, las sondas empleadas pueden agruparse en cuatro tipos diferentes:
-Sondas de vuelo abierto
-Sondas de alunizaje (tanto de impacto como de alunizaje suave)
-Sondas de alunizaje con órbita intermedia alrededor de la Luna
-Satélites artificiales lunares.
4. Las naves espaciales son uno de los símbolos del siglo XX y los astronautas se identifican como una imagen del hombre “moderno”. Esta etapa comienza el 12 de abril de 1961, con los ciento ocho minutos del viaje orbital de Jurij Alekseevich Gagarin; se trata del primer vuelo del programa soviético VOSTOK, que comprendió un total de seis misiones tripuladas. La última, en la que viajó la primera mujer astronauta, se realizó en 1963. Le siguió el programa VOSHOD, con dos naves; en la segunda, el astronauta A. A. Leonov realizó la primera caminata espacial: durante 23 minutos permaneció “flotando” en el vacío, sujeto a la nave por una cable flexible.
Simultáneamente desde los EE.UU comenzaba la serie de lanzamientos de la naves MERCURY, el primero de los tres programas norteamericanos destinados a poner una hombre en la Luna.
El proyecto MERCURY comenzó en 1958 y acabó en 1963, con un total de nueve vuelos tripulados, precedidos por catorce lanzamientos de ensayo. Luego se inició el programa GEMINI, destinado al adiestramiento y ensayo de técnicas destinadas a desembarcar en nuestro satélite; se buscó probar el encuentro y atraques de naves en el espacio, el perfeccionamiento de sistemas de aterrizaje, el estudio de las reacciones de los astronautas tras largos períodos en el espacio y de su capacidad para abandonar la nave en vuelo y efectuar reparaciones; fueron doce naves lanzadas entre 1964 y 1966.
Finalmente, el programa APOLO logró que los astronautas Armstrong y Aldrin lograran alunizar el día 21 de julio de 1969, a las 2h 55m 20s, en el Mar de la Tranquilidad.
Paralelamente al programa APOLO, desde la base de Baikonur, los soviéticos iniciaron el proyecto SOJUZ, que se trataba de naves maniobrables con las cuales lograron montar una estación orbital, mediante el acoplamiento en pleno espacio de dos naves. Con estos vuelos se ensayaron nuevas técnicas de navegación y nuevas formas de trabajo en el espacio. También pusieron en órbita (en 1971) la estación SALJUT, un módulo habitable que podía funcionar tanto automáticamente como con tripulación a bordo.
Cabe destacar el proyecto en conjunto APOLO-SOJUZ de 1975, entre naves de los programas homónimos.
5. Los llamados laboratorios espaciales, fueron puestos en funcionamiento por los programas SKYLAB y MIR. Estos laboratorios son plataformas situadas en órbitas alrededor de la Tierra, con capacidad para albergar a varios tripulantes durante tiempos relativamente largos, y que disponen de los elementos necesarios para el transporte de sucesivos equipos de astronautas en viajes de ida y vuelta.
6. Los grandes observatorios astronómicos puestos en órbita en los últimos años, han permitido a los científicos acceder a un caudal enorme de información acerca de los astros, el cual, desde los observatorios terrestres es inaccesible.
La atmósfera terrestre actúa como un filtro natural que sólo deja pasar las radiaciones de determinada longitud de onda, impidiendo la transmisión del resto. Algunas pequeñas porciones de la región del infrarrojo y algunas frecuencias particulares de las ondas de radio alcanzan la superficie de la Tierra, el resto de las radiaciones que componen el espectro electromagnético son absorbidas a diferentes alturas sobre el suelo terrestre (como por ejemplo, los rayos X, la radiación ultravioleta y los rayos gamma). Así, la atmósfera resulta un obstáculo para el estudio de estas radiaciones del espacio.
Se trató de buscar soluciones intentando obtener información mediante el empleo de globos y cohetes; finalmente, el desarrollo de técnicas satelitales abrió un campo de nuevos conocimientos, actualmente en pleno desarrollo.
7.
1. GRO: Gamma-Ray Observatory
2. AXAF: Advanced X-Ray Astrophysics Facility.
3. HST: Hubble Space Telescope.
4. SIRTF: Space Infrared Telescope Facility
5. ROSAT: ROentgenSATellite
5. ULYSSES
5. HIPPARCOS
5. GALILEO
8. La Comisión Nacional de Actividades Espaciales (CONAE) es una organización estatal argentina creada en 1991 y dependiente del Ministerio de Relaciones Exteriores, Comercio Internacional y Culto de ese país. La CONAE es el organismo competente para entender, diseñar, ejecutar, controlar, gestionar y administrar proyectos, actividades y emprendimientos en materia espacial en todo el ámbito de la República Argentina. Su misión es ejecutar el Plan Espacial Argentino, que culmina en el 2015.
Aquél tiene como principal objetivo la generación desde el espacio de información referida al territorio nacional de la Argentina, que combinada con la de otros orígenes, contribuya a mejorar las áreas de la actividad social y económica del país:
• Actividades agropecuarias, pesqueras y forestales.
• Hidrología, clima, mar y costas.
• Gestión de emergencias naturales.
• Vigilancia del medio ambiente y recursos naturales.
• Cartografía, Geología y producción minera.
Para cumplir con su misión la CONAE cuenta con información espacial generada por satélites construidos y diseñados en la Argentina. En conjunto con la empresa INVAP de Bariloche (Sociedad del Estado) y asociándose principalmente con la estadounidense NASA, provee la plataforma satelital y la mayoría de los instrumentos de dichos satélites. Estos son controlados desde la estación terrena Teófilo Tabanera situada en la provincia de Córdoba (está prevista para antes del 2015 la creación de dos estaciones satelitales más, posiblemente en Tierra del Fuego y en la Antártida). Tal es el caso de los denominados Satélites de Aplicaciones Científicas (SAC). Más de 80 universidades, entes, organismos y empresas nacionales participan en los proyectos y actividades de este Plan Espacial.
9. Argentina tiene un desarrollo importante en el área espacial. La CONAE ha puesto en órbita tres satélites de aplicación científica (SAC), con diferentes funciones: SAC-B; SAC-A y SAC-C. Todos fueron construidos en Argentina, por científicos argentinos.
El SAC-B fue lanzado el 4 de Noviembre de 1996. A partir de este satélite se logró el entrenamiento de un grupo de profesionales en ingeniería satelital y el desarrollo de centros de control de los satélites (hardware y software).
El SAC-A fue lanzado el 3 de Diciembre de 1998. La misión de este satélite fue un modelo tecnológico para la que luego fue la Misión del SAC-C. Puso a prueba instrumental desarrollado en el país, potencialmente aplicables para posteriores misiones. Experimentó la infraestructura de equipos de telemetría, telecomando y control.
El SAC-C fue lanzado el 21 de Noviembre de 2000. Es el primer satélite argentino de Teleobservación diseñado por la CONAE y construido por completo en la Argentina. Desde su puesta en órbita cumple exitosamente su misión de monitorear y generar información desde el espacio que se usa en estudios de los oceános, agricultura, minería, geología, cartografía, y educación, entre otros temas.
El SAC-C lleva entre su instrumental tres cámaras especiales que son las que generan las imágenes satelitales utilizadas en las aplicaciones científicas. También tiene otras importantes herramientas, aportadas por otras agencias espaciales.
La NASA, que se asoció en esta misión ofreciendo los servicios de lanzamiento y dos instrumentos para mediciones científicas. También las Agencias Espaciales de Italia, Francia y Dinamarca participaron con más tecnología. En instalaciones de la Agencia Espacial de Brasil se realizaron las pruebas de lanzamiento.
CONAE sigue desarrollando nuevos satélites: SAC-D que estudiará los océanos, y el SAOCOM, utilizará tecnología de última generación para determinar la humedad de los suelos, información vital para la generación de modelos hidrológicos, productividad agrícola y control de inundaciones, entre otras utilidades que involucran el cuidado ambiental.
10. SAC-C: De observación de la Tierra
Lanzado 2000, se mantiene en buen funcionamiento, a pesar de que se le estimaba un tiempo de vida de tan sólo 4 años. Se trata de un satélite mediano de 485 kg de peso, de órbita baja, para la observación de la superficie terrestre por medio de 3 cámaras. Tiene como misión el monitoreo del ambiente y de catástrofes naturales. Obtiene imágenes de todo el territorio nacional, y de países limítrofes, en tiempo real; y produce imágenes del resto del mundo en modo almacenado. Los países asociados a esta misión son: EE.UU, Italia, Dinamarca, Francia y Brasil.
Reúne diez cargas útiles pertenecientes a cinco de los seis países mencionados. De estas cargas, las más importantes para la Argentina son sus tres potentes cámaras ópticas de observación de la superficie terrestre. Fueron desarrolladas por INVAP con una combinación de "bandas", resoluciones y sensibilidades que resulta ideal para el monitoreo del ambiente terrestre y marítimo de la Argentina.
10. SAC-C: De observación de la Tierra
Lanzado 2000, se mantiene en buen funcionamiento, a pesar de que se le estimaba un tiempo de vida de tan sólo 4 años. Se trata de un satélite mediano de 485 kg de peso, de órbita baja, para la observación de la superficie terrestre por medio de 3 cámaras. Tiene como misión el monitoreo del ambiente y de catástrofes naturales. Obtiene imágenes de todo el territorio nacional, y de países limítrofes, en tiempo real; y produce imágenes del resto del mundo en modo almacenado. Los países asociados a esta misión son: EE.UU, Italia, Dinamarca, Francia y Brasil.
Reúne diez cargas útiles pertenecientes a cinco de los seis países mencionados. De estas cargas, las más importantes para la Argentina son sus tres potentes cámaras ópticas de observación de la superficie terrestre. Fueron desarrolladas por INVAP con una combinación de "bandas", resoluciones y sensibilidades que resulta ideal para el monitoreo del ambiente terrestre y marítimo de la Argentina.
11. Una imagen satelital se puede definir como la representación visual de la información capturada por un sensor montado en un satélite artificial. Estos sensores recogen información reflejada por la superficie de la tierra que luego es enviada a la Tierra y que procesada convenientemente entrega valiosa información sobre las características de la zona representada.
Ampliando lo suficiente una imagen digital (zoom) en la pantalla de una computadora, pueden observarse los píxeles que componen la imagen. Los píxeles son los puntos de color (siendo la escala de grises una gama de color monocromática). Las imágenes se forman como una sucesión de píxeles. La sucesión marca la coherencia de la información presentada, siendo su conjunto una matriz coherente de información para el uso digital. El área donde se proyectan estas matrices suele ser rectangular. La representación del píxel en pantalla, al punto de ser accesible a la vista por unidad, forma un área homogénea en cuanto a la variación del color y densidad por pulgada, siendo esta variación nula, y definiendo cada punto en base a la densidad, en lo referente al área.
12. Las imágenes satelitales permiten en la actualidad obtener información importante para una serie de instituciones y disciplinas que centran su estudio en el territorio y sus componentes. Su uso abarca desde las relaciones internacionales hasta la prevención de desastres naturales y, aun cuando nuestro país está iniciándose en esta tecnología espacial, los objetivos apuntan a diversificar las aplicaciones y aportes en la materia.Con motivo de su lanzamiento, se llevó a cabo el pasado martes 16 de abril el Seminario titulado “Aplicación de las imágenes del satélite chileno para el desarrollo del país”, el cual apuntó a describir las posibilidades existentes para el mundo académico y social en el uso de imágenes satelitales de alta definición.La actividad, desarrollada en el Salón de Honor de la Pontificia Universidad Católica de Valparaíso, contó con la participación del Servicio Aerofotogramétrico (SAF) dependiente de la Fuerza Aérea de Chile. Este organismo es el ente técnico y oficial del Estado destinado a la obtención y procesamiento de imágenes, sean estas aéreas o espaciales.
lunes, 28 de julio de 2014
Suscribirse a:
Entradas (Atom)