martes, 30 de diciembre de 2008

La loca inclinación navideña de Saturno

Si está acostumbrado a ver a Saturno con sus brillantes y amplios anillos, obsérvelo ahora. La inclicación lo ha transformado en una solitaria, e irreconocible, bola de gas. Permanecerá así hasta enero de 2009.
Usted mira a través del telescopio. Parpadea. Sacude su cabeza y mira otra vez. El planeta que esperaba ver por el ocular no es el que verdaderamente esta allí. ¿Demasiado ponche de huevo?

No, es sólo la loca inclinación navideña de Saturno.

Durante todo el año, los anillos de Saturno han estado inclinándose hacia la Tierra y ahora se encuentran casi perfectamente horizontales. El ángulo de apertura es tan fino como una hoja de papel, apenas 0,8o. Vistos de costado, los anillos, que normalmente lucen anchos y brillantes, se han convertido en una línea de sombras que divide los dos hemisferios de Saturno --una escena de peculiar belleza.

El astrónomo aficionado Efraín Morales Rivera, de Aguadilla, Puerto Rico, ha estado monitoreando a Saturno y ha creado la siguiente imagen compuesta para mostrar cómo ha cambiado su geometría:

Los astrónomos llaman a este fenómeno "cruce de planos anulares". A medida que Saturno da vueltas alrededor del Sol, periódicamente (una vez cada 14 o 15 años) va inclinando sus anillos hacia la Tierra. Como los anillos son tan delgados, pueden desaparecer del campo visual de un telescopio casero. Justo en el momento del cruce, Saturno experimenta una asombrosa metamorfosis. El anillado planeta se transforma en una solitaria bola de gas, casi irreconocible: fotografía tomada por el telescopio Hubble.

(Apunte histórico: Poco después de que Galileo descubriera los anillos de Saturno, en 1610, éstos desaparecieron precisamente de esa manera. Galileo no comprendió la naturaleza de los anillos y el acto de desaparición lo confundió enormemente. No obstante, su intuición relacionada con la física triunfó. "Ya volverán", predijo, y sin haber sabido nunca por qué, tuvo razón.)
Sin embargo, todavía no estamos en ese punto. El ángulo de apertura no será exactamente 0o hasta el 4 de septiembre de 2009. Pero no se moleste en marcar su calendario. Saturno estará tan cerca del Sol que nadie podrá ver cómo se desvanecen sus anillos en un abrir y cerrar de ojos.

El mejor momento para observarlos es ahora.

El ángulo de apertura de 0,8o, en la Navidad de 2008, continuará siendo el ángulo mínimo durante cierto tiempo. En enero de 2009, los anillos comenzarán a abrirse de nuevo, una inversión pasajera causada por los movimientos orbitales de la Tierra y de Saturno. Ya cuando empiecen a desaparecer otra vez, en el verano de 2009, Saturno estará acercándose al Sol; mirar a través de un telescopio entonces será peligroso. El próximo cruce de planos anulares que se pueda observar fácilmente no ocurrirá sino hasta el año 2038.

De modo que despierte antes del amanecer del 25 de diciembre, apunte su telescopio hacia la "estrella" dorada en Leo, y contemple la loca inclinación navideña de Saturno: mapa del cielo.

El increíble viaje del telescopio espacial James Webb

Desde sus humildes inicios en una mina de berilio de Utah hasta los laboratorios más avanzados del mundo, los espejos del próximo gran observatorio de la NASA están realizando un increíble viaje hacia el espacio.



Dic. 10, 2008: El telescopio espacial James Webb (JWST, por su sigla en idioma inglés), cuyo lanzamiento está previsto para 2013, ya se encuentra realizando un increíble viaje aquí en la Tierra. Está zigzagueando hacia arriba, hacia abajo y a lo ancho de Estados Unidos. Estas maniobras se realizan con el fin de pulirlo a la perfección para su majestuosa misión espacial.
"Para hallar las primeras estrellas y galaxias que se formaron en el inicio del universo, las cuales se encuentran a millones, y hasta a miles de millones de años luz de distancia, el espejo del telescopio Webb tiene que ser absolutamente liso", dice Jeff Kegley, del Centro Marshall para Vuelos Espaciales, de la NASA.
segmentos que finalmente formarán el enorme espejo primario del telescopio Webb son transportados en camiones, uno tras otro y de parada en parada a lo largo del país, con el fin de someterlos a un cuidadoso procesamiento y pulido. Los segmentos visitarán siete estados y, algunos de ellos, lo harán varias veces.

Durante la larga odisea, se toman todas las precauciones para asegurar su protección. ¿Cuántos años de mala suerte tendría una persona si rompiese uno de estos espejos?

"Eso es algo que ni mencionamos", ríe Helen Cole, también del Centro Marshall. "Pero, ya hablando en serio, el JWST tiene 3 segmentos de espejos de reserva en caso de que se los necesite como repuesto".

Tracemos el viaje que realiza por tierra un segmento del espejo, desde su áspero comienzo, pasando por el "alisado absoluto", hasta finalmente llegar a la unión con sus 17 hermanos para formar una pieza de 6,5 metros (21 ½ pies) de ancho, con un área total de 25 metros cuadrados (casi 30 yardas cuadradas).

La historia comienza en una mina de berilio del estado de Utah. El berilio es uno de los metales más livianos y será el "relleno" de los espejos del telescopio.
Los técnicos en Ohio tamizan y purifican el polvo granulado de berilio de Utah hasta alcanzar una calidad óptica extremadamente uniforme para el espejo del telescopio Webb. Luego, vierten el polvo en un recipiente grande y plano, aplican calor y presión y extraen el gas residual para crear un enorme bloque llamado: chapa de espejo. Posteriormente, bañan la chapa con ácido para evaporar cualquier partícula de acero inoxidable que pudiera haber quedado pegada a la chapa cuando fue extraída del recipiente. Después, parten la chapa por la mitad, como si fuera una galleta Oreo, y forman dos placas (¡pero no hay crema en el medio!). Estas dos placas de espejo son las más grandes que jamás se hayan hecho de berilio.

En Alabama, los tabajadores utilizan una máquina para formar una estructura con forma de panal de abejas en la parte trasera de las placas y hacerlas más livianas sin reducir su rigidez. Los bordes moldeados por la máquina miden menos de 1 milímetro de espesor --¡prácticamente son delgados como el papel!

"Este proceso de trabajo a máquina/grabado remueve el 92 por ciento de la masa de las placas", dice Lee Feinberg, del Centro Goddard para Vuelos Espaciales. "La masa es crucial al lanzar misiones espaciales".

Posteriormente, una compañía de California desgasta y pule los segmentos hasta alcanzar una forma exacta y muy lisa; después, les hacen pruebas ópticas a temperatura ambiente.
Pero el telescopio Webb no operará a temperatura ambiente. El espejo de este telescopio no sólo deberá pasar por un proceso de "alisado absoluto", sino que se someterá al frío absoluto en el espacio. Dado que es un telescopio infrarrojo, el JWST está diseñado para recoger el calor de tenues, e increíblemente lejanas, estrellas y galaxias. Para hacerlo, se lo debe mantener extremadamente frío. El telescopio operará en el espacio a aproximadamente -238 grados Celsius (-396 grados Fahrenheit, 35K).

"El frío extremo puede provocar que las estructuras del telescopio y los espejos cambien de forma, de manera que las pruebas tienen que hacerce aquí en la Tierra bajo condiciones similares de hiper-frío", relata Cole.

Estas pruebas en condiciones super frías se hacen en Alabama. Las Instalaciones Criogénicas y de Rayos X, del Centro Marshall para Vuelos Espaciales, cuentan con una cámara de vacío que puede simular las condiciones increíblemente frías del espacio. Las pruebas en esta cámara revelan incluso las más pequeñas distorsiones que los segmentos del espejo sufren en el frío. Las pruebas proporcionan datos precisos que especifican exactamente cuánto más se debe pulir para compensar con anticipación las posibles distorsiones que puedan ocurrir en el espacio.

lunes, 29 de diciembre de 2008

VIRUS

ES UN MALWARE. QUE SIN PERMISO DEL USUARIO DEL ORDENADOR QUE TIENE COMO FINALIDAD:
QUE EL ORDENADOR TRABAJE ANORMALMENTE.
RECUERDE QUE LOS VIRUS PUEDEN SER EJECUTABLE O EN OCASIONES PUEDEN SUSTITUIR CODIGO.
ESTOS PUEDEN DESTRUIRLE ARCHIVOS, HASTA DISCOS DUROS (ESO PORQUE VI UNA MAQUINA). ESTOS SE LE PROPAGARAN POR SU ORDENADOR, PERO NO SE LE DUPLICARA COMO EL GUSANO INFORMATICO. ESTE PARA GENERAR UNA INFECCION AL ORDENADOR EL USUARIO DESCONOCIDO DE LO QUE REALIZA, ABRE EL DOCUMENTO O PROGRAMA INFESTADO Y ESTE AUTOMATICAMENTE YA ESTA ALEJADO EN LA RAM, TODO ESTO AUNQUE EL PROGRAMA YA NO ESTE EN FUNCIONAMIENTO. Y ALLI ESTARA ESPERANDO CUANDO SE EJECUTEN OTROS PROGRAMAS PARA INFESTARLOS, EL CUAL SE GRABA SU CODIGO EL CUAL SE COMPLETA EL PROCESO.

martes, 23 de diciembre de 2008

FORMATEAR UNA PC

* CONFIGURAR LA BIOS PARA ARRANQUE DESDE EL CDROM

Se deben seguir los siguientes pasos:

1.- Reiniciamos el PC y entramos en la BIOS, en la mayoría de los casos pulsando la tecla "DEL" o "SUPR" sin embargo puede haber casos que por las características especiales del PC sea necesario usar otra secuencia de teclas para acceder a la Bios, como por ejemplo:

CTRL + S
CTRL + ALT + ESC
CTRL + ESC
CTRL + F2
CTRL + ALT + S
CTRL + ALT + Z
F1
F2
F10

En todo caso la manera correcta de acceder a la Bios la puedes encontrar en el manual
De la placa madre.

2.- Entramos en la BIOS

Una vez dentro de la BIOS, debemos buscar la opción similar a:

Advance BIOS Features (En el caso de una BIOS Award, quizás la más extendida hoy en día).

Una vez seleccionada con el cursor pulsamos ENTER y localizamos las opciones:

First Boot Device
Second Boot Device
Third Boot Device

Seleccionamos cada una de ellas por separado y pulsando ENTER dejamos las opciones como sigue:

First Boot Device: CDROM
Second Boot Device: Floppy
Third Boot Device: HDD-0

Una vez hecho el cambio, guardamos la configuración, para ello iremos a la opción:

Save & Exit

Pulsamos ENTER y la tecla de la letra "y" dos veces, en este momento el Pc se reiniciará.

Hasta aquí hemos aprendido como configurar la BIOS para que arranque desde el CDROM, ahora sólo queda instalar XP.

* INSTALACION DE WINDOWS XP

* Insertar el CD de XP en la bandeja del CDROM antes del reinicio comentado arriba

La instalación previa de Windows XP comenzará:

Fíjate en el mensaje de la parte inferior o superior (según tu BIOS) de la pantalla:

"Presione cualquier tecla para iniciar desde CD"

Pulsamos cualquier tecla
A continuación se ve el mensaje:

"El programa de instalación está inspeccionando la configuración de hardware de su equipo..."

- Nos aparecerá una pantalla azul

"Programa de instalación de Windows XP"

-Esperamos, se están cargando archivos
Esta parte del programa de instalación prepara Windows XP para que se utilice en este equipo:

* Para instalar XP ahora, presione ENTER
* Para recuperar una instalación de XP usando consola de recuperación,presione la tecla "R"
* Para salir del programa sin instalar XP, presione F3

- Pulsamos ENTER
-Contrato de licencia de Windows XP (Aceptas con F8)

- Windows XP detectará la copia ya instalada y presentará las siguientes opciones:

* Para reparar la instalación seleccionada de Windows XP, presione "R"
* Para continuar la instalación de una copia nueva de Windows XP, sin reparar, presione ESC

-Pulsamos ESC
A continuación se presentan las particiones que tengamos en el equipo, con las siguientes opciones:
* Instalar Windows XP en la partición seleccionada, presionar ENTER
* Crear partición en espacio no particionado, presionar C
* Eliminar partición seleccionada, presionar D

Seleccionamos la partición a eliminar y pulsamos D

- Aparece una nueva pantalla

Ha pedido al programa de instalación que elimine la partición

X: Particion1 [NTFS] MB ( MB libres)

En disco MB 0 en Id. 0 en bus 0 en atapi [MBR]

-Para eliminar la partición, presione L
-Advertencia: Se perderán todos los datos de la partición-Presione ESC para regresar a la pantalla anterior sin eliminar la partición

Presionamos L

- Nueva Pantalla

* Para Instalar Windows XP en la partición seleccionada, presione ENTER
* Para crear una partición en el espacio no particionado, presione C
* Para eliminar la partición seleccionada, presione D

Selecciona la partición que acabas de eliminar y que aparecerá como "espacio no particionado" (OJO NO la confundas con el espacio no particionado del sistema que ocupa 8mb)
- Pulsamos ENTER

- Nueva Pantalla

Ha pedido que el programa de instalación cree una partición nueva en disco MB 0 en Id. 0 en bus 0 en atapi [MBR]

* Para crear una partición nueva escriba una tamaño abajo y presione ENTRAR
* Para volver a la pantalla anterior sin crear la partición, presione ESC

- Pulsamos ENTER

- Nueva Pantalla

Estamos ahora de nuevo en la pantalla que muestra la lista de particiones y que vuelve a darnos las opciones:

* Para Instalar Windows XP en la partición seleccionada, presione ENTER
* Para crear una partición en el espacio no particionado, presione C
* Para eliminar la partición seleccionada, presione D

- Nos aseguramos de que está seleccionada la nueva partición y no el espacio no particionado de 8 MB (en caso contrario la seleccionamos con las flechas de cursor) y pulsamos ENTER

- Nueva Pantalla

-Entramos ahora en las opciones de formateo con las siguientes opciones:
* Formatear la partición utilizando el sistema de archivos NTFS rápido
* Formatear la partición utilizando el sistema de archivos FAT rápido
* Formatear la partición utilizando el sistema de archivos NTFS
* Formatear la partición utilizando el sistema de archivos FAT

-Seleccionamos tipo de formato y presionamos ENTER

Se recomienda siempre NTFS rápido para Discos ya formateados y NTFS para discos nuevos sin formatear.

NOTA: El espacio no particionado de 8 megas, está reservado para la información de partición de Windows XP.

-La nueva partición se formateará

Una vez formateada la partición, comienza la copia de archivos que se produce como último paso de la fase de instalación en modo texto.
Terminada la copia de archivos el equipo se reinicia solo (NO PULSAR NINGUNA TECLA)

AQUÍ COMIENZA LA INSTALACIÓN PROPIAMENTE TAL (INSTALACIÓN EN MODO GUI)

-Instalando dispositivos (la barra verde te indicará el porcentaje de evolución del proceso)

-Opciones regionales de idioma, escoge la que sale por defecto (Alfabetización internacional)

Pulsa SIGUIENTE:
-Nombre:
-Organización:

Rellena tus datos y pulsa SIGUIENTE:

-Clave del producto
Escribimos el número de serie de tu XP y pulsamos SIGUIENTE

Nombre del equipo:
Contraseña:

Puedes poner el nombre que quieras al equipo, escribimos la contraseña que tendrá el administrador, la confirmamos y pulsamos SIGUIENTE

Fecha y Hora

Revisamos que tengamos bien la zona horaria, cambiamos a la nuestra en caso de ser necesario, y pulsamos SIGUIENTE

-Instalando la red

Seleccionamos configuración típica y pulsamos SIGUIENTE:

Grupo de trabajo o Dominio, dejar por defecto "este equipo no está en una red..."

Poner el nombre del grupo de trabajo que quieras, o dejar el predeterminado, y pulsar SIGUIENTE

La instalación continua con los siguientes procesos:

-Copia de archivos
-Completando instalación
-Instalando elementos del menú de inicio
-Registrando componentes
-Guardando configuración

El equipo se reinicia (NO PULSAR NINGUNA TECLA)

Continúa la instalación

Configuración de pantalla (pulsamos ACEPTAR dos veces)

Nos sale la primera pantalla de término de instalación

Pulsamos SIGUIENTE

Ahora comprobará la conexión a Internet

Pulsamos OMITIR

Ahora nos preguntará acerca de la activación, seleccionamos:

"Recordármelo dentro de unos días"

Pulsamos SIGUIENTE

¿Quién usará este equipo?

Escribimos el nombre del usuario principal, el resto de usuarios si fuese el caso se podrán crear posteriormente.

Pulsamos SIGUIENTE

Pulsamos FINALIZAR

Nos aparecerá la Pantalla de Bienvenida
Ya tenemos XP instalado. Cabe señalar que estos últimos pasos son de la preferencia de cada uno.

sábado, 13 de diciembre de 2008

¿Qué tan redondo es el Sol?

Utilizando el satélite RHESSI, de la NASA, científicos midieron la redondez del Sol con una precisión sin precedentes.
Usando la nave espacial RHESSI, de la NASA, científicos midieron la redondez del Sol con una precisión sin precedentes. Ellos descubrieron que no es una esfera perfecta. Durante los años de alta actividad, el Sol desarrolla una delgada "piel de melón" que aumenta significativamente su aparente achatamiento. Los resultados de esta investigación se publicaron en la edición del 2 de octubre de Science Express.

"El Sol es el objeto natural más grande y más liso del sistema solar, con una perfección del 0,001% debido a su gravedad extremadamente fuerte", dice el co-autor del estudio Hugh Hudson, de la Universidad de California, en Berkeley. "Medir su forma exacta no es una tarea fácil".

El equipo lo hizo analizando los datos del Generador de Imágenes Espectroscópicas de Alta Energía Solar Reuven Ramaty (RHESSI, por su sigla en idioma inglés), un telescopio espacial de rayos x y rayos gamma, el cual fue lanzado en 2002 en una misión para estudiar las ráfagas solares. Aunque RHESSI no fue planeado para medir la redondez del Sol, se ha convertido en el instrumento ideal para este propósito. El telescopio RHESSI observa el disco solar a través de una rendija estrecha y gira a 15 rpm. La rápida rotación de la nave espacial y la alta tasa de muestreo de datos (necesaria para atrapar las rápidas ráfagas solares) hacen posible que los investigadores tracen la forma del Sol con errores sistemáticos mucho menores que en cualquier estudio previo. Su técnica es particularmente sensible a pequeñas diferencias entre el diámetro polar y el diámetro ecuatorial o "achatamiento".
"Hemos descubierto que la superficie del Sol tiene una estructura áspera: protuberancias brillantes organizadas en un patrón con forma de red, como la superficie de un melón pero mucho más sutil", describe Hudson. Durante las fases activas del ciclo solar, estas protuberancias emergen alrededor del ecuador del Sol, haciendo brillar la "cintura estelar" y "engordándola". Al momento de las mediciones del RHESSI, en 2004, las protuberancias incrementaron el radio ecuatorial aparente del Sol en un ángulo de 10,77 +- 0,44 milisegundos de arco, o aproximadamente el mismo ancho de un cabello humano visto desde 1,6 kilómetros de distancia.
"Eso puede parecer un ángulo muy pequeño, pero en verdad es significativo", dice Alexei Pevtsov, científico del Programa RHESSI en las oficinas centrales de la NASA. Diminutas desviaciones de la redondez perfecta pueden, por ejemplo, afectar el tirón gravitacional que ejerce el Sol sobre Mercurio y provocar cierta modificación en las pruebas de la teoría de la relatividad de Einstein, las cuales dependen de mediciones cuidadosas de la órbita interior del planeta. Pequeñas protuberancias también son señales de movimientos ocultos dentro del Sol. Por ejemplo, si el Sol tuviera un remanente de una rotación rápida del núcleo de las etapas tempranas de formación estelar, y si ese núcleo estuviera inclinado respecto de sus capas exteriores, el resultado sería una superficie con protuberancias. "La precisión de las mediciones del RHESSI impone muchas restricciones a cualquiera de los modelos".

Las "protuberancias de piel de melón" son de naturaleza magnética y trazan gigantes celdas de convección burbujeantes en la superficie del Sol llamadas "supergránulos". Los supergránulos son como burbujas en una olla de agua hirviendo amplificadas a la escala de una estrella; en el Sol, miden alrededor de 30.000 km de un extremo a otro (el doble del ancho de la Tierra) y están formados por plasma magnetizado caliente que bulle. Los campos magnéticos del centro de estas burbujas son barridos hacia el borde donde forman protuberancias o crestas de magnetismo. Las protuberancias son más prominentes durante los años próximos al Máximo Solar cuando la dínamo interior del Sol se "acelera" para producir los campos magnéticos más fuertes. Hace muchos años que los físicos solares saben de los supergránulos y de la red magnética que éstos producen, pero recién ahora el RHESSI reveló su inesperada conexión con el achatamiento del Sol.
"Cuando restamos el efecto de la red magnética, obtenemos una medición 'real' de la forma del Sol, que se produce únicamente por las fuerzas gravitacionales y los movimientos", dice Hudson. "El achatamiento corregido del Sol no magnético es 8,01 +- 0,14 milisegundos de arco, cerca del valor esperado para una rotación simple".

"Estos resultados tienen implicancias de largo alcance para los físicos solares y para las teorías de la gravedad", comenta David Hathaway, físico solar del Centro Marshall para Vuelos Espaciales, de la NASA. "Indican que el núcleo del Sol no puede estar rotando mucho más rápido que la superficie y que el achatamiento del Sol es demasiado pequeño como para cambiar la órbita de Mercurio y enmarcarla fuera de los límites de la Teoría de la Relatividad General de Einstein".

Un análisis posterior de los datos del achatamiento del Sol obtenidos por medio del RHESSI podría también ayudar a los investigadores a detectar un tipo de ondas sísmicas, buscadas durante mucho tiempo, las cuales hacen eco en el interior del Sol: oscilaciones gravitacionales o "modos g". La capacidad para monitorear los "modos g" abriría una nueva frontera en la física solar —el estudio del núcleo interno del Sol.

"Todo esto", se maravilla Hathaway, "proviene de un uso ingenioso de los datos proporcionados por un satélite que fue diseñado para algo completamente diferente. ¡Felicitaciones al equipo del RHESSI!"

El documento que informa sobre estos resultados: "Gran exceso en el achatamiento aparente del Sol producido por el magnetismo de la superficie" ("A large excess in apparent solar oblateness due to surface magnetism"), de Martin Fivian, Hugh Hudson, Robert Lin y Jabran Zahid, se publicó en la edición del 2 de octubre de Science Express.

La Luna llena más grande del año

La Luna llena del próximo viernes es la Luna llena más grande del año. Es una 'Luna de Perigeo' que será hasta un 14% más grande y un 30% más brillante que otras lunas llenas que hemos visto este año.
No, usted no podrá distinguir la huella de la pisada de Neil Armstrong. Pero salga y observe: La Luna llena del 12 de diciembre es la más grande y brillante de las lunas llenas del año.

No se trata de una ilusión. Algunas lunas llenas son genuinamente más grandes que otras y la de este viernes es realmente una Luna gigante. ¿Por qué? La órbita lunar es una elipse y tiene un lado ubicado 50.000 km más cerca de la Tierra que el otro: diagrama. En lenguaje astronómico, estos dos extremos se denominan "apogeo" (más lejos) y "perigeo" (más cerca). El 12 de diciembre, la Luna se volverá llena a escasas 4 horas de alcanzar su perigeo, lo cual la hace un 14% más grande y un 30% más brillante que las lunas llenas que hemos visto antes en 2008.
Según la Administración Nacional Atmosférica y del Océano (NOOA, por su sigla en idioma inglés), la Luna en perigeo trae "mareas de perigeo" extremadamente altas; pero esto no es para preocuparse. En la mayoría de las regiones, la gravedad Lunar en perigeo provoca un aumento de pocos centímetros en las mareas (alrededor de una pulgada) respecto de los niveles usuales. La geografía local puede amplificar este efecto a aproximadamente 15 cm. (seis pulgadas) —lo cual no es exactamente una gran inundación.

De acuerdo, la Luna está un 14% más grande, pero ¿realmente se nota esta diferencia? Es algo tramposo. No existen reglas que flotan en el cielo para medir diámetros lunares. Por encima de nuestras cabezas, sin puntos de referencia que proporcionen un sentido de escala, una luna llena se ve prácticamente igual que cualquier otra.
La mejor ocasión para observar se da cuando la Luna se encuentra cerca del horizonte. Ese es el momento en el cual la ilusión se mezcla con la realidad para producir un vista realmente espectacular. Por razones que los astrónomos o psicólogos no terminan de comprender, las lunas cercanas al horizonte se ven anormalmente grandes cuando se asoman entre los árboles, edificios y otros objetos sobre la superficie. Este viernes, ¿por qué no dejar que la "Ilusión Lunar" amplifique una Luna Llena extraordinariamente grande? El orbe "hinchado", que nace al atardecer por el Este, puede parecer tan cercano que usted casi podrá alcanzarlo y tocarlo.
Aún así, no le será posible ver la huella de la pisada de Armstrong. Ni siquiera el Hubble puede hacerlo. La Luna está a 384.400 km (en promedio). A esta distancia, los objetos más pequeños que el Hubble puede distinguir miden aproximadamente 60 metros. Las piezas de equipo más grandes que dejó la tripulación del Apollo miden apenas 9 metros y se ven más pequeñas que un sólo pixel en una imagen del Hubble.

Lo que sí usted podrá observar es el mundo que lo rodea. Esta es la Luna llena más brillante y la más alta (en el hemisferio norte) del año. Si usted sale alrededor de la media noche, la encontrará por encima de su cabeza, actuando como si fuese una lámpara cósmica, tornando el terreno absolutamente brillante, en particular si hay nieve. Las Lunas llenas son siempre altas durante el invierno y, en efecto, el solsticio se encuentra ya a la vuelta de la esquina, el 21 de diciembre, en el hemisferio norte.


Un experimento divertido: El viernes por la noche, invite a un amigo a observar el cielo y pregúntele si nota algo fuera de lo común. ¿La Luna es lo suficientemente grande y brillante como para impresionar a los distraídos? Explíquele luego sobre el perigeo...

viernes, 28 de noviembre de 2008

El día que no se acabó el mundo

Esto es lo que no sucedió el 10 de septiembre:

El mundo no se acabó. La puesta en marcha del más grande y poderoso acelerador de partículas del mundo, cerca de Ginebra, Suiza, no desató la creación de un agujero negro microscópico. Y ese agujero negro no comenzó a succionar rápidamente la materia a su alrededor cada vez más velozmente hasta devorar por completo al planeta Tierra, como las noticias sensacionalistas sugirieron que sucedería.

Desde luego, dado que usted está vivo y leyendo este artículo hoy, ya lo sabía. Actualmente, el acelerador, un anillo subterráneo de 8 kilómetros (5 millas) de diámetro, llamado Gran Colisionador de Hadrones (Large Hadron Collider o LHC, en idioma inglés), se encuentra apagado por reparaciones. Pero una vez que la inmensamente poderosa máquina se encienda de nuevo, ¿existe alguna posibilidad de que el escenario apocalíptico descripto anteriormente pudiese ocurrir?
"En realidad, nunca hubo peligro alguno por el acelerador, pero ¡es claro que eso no logró que la gente dejara de especular sobre lo que hubiera pasado!", dice Robert Johnson, un físico del Instituto de Física de Partículas de Santa Cruz (Santa Cruz Particle Physics Institute, en idioma inglés) y miembro del equipo científico del Telescopio Fermi de Rayos Gamma de la NASA, el cual fue lanzado al espacio en junio para estudiar la radiación gamma de varios fenómenos, incluyendo posibles agujeros negros en evaporación.

Hay varias razones que pueden explicar por qué el mundo no se acabó el 10 de septiembre y por qué el Gran Colisionador de Hadrones no es capaz de causar tal calamidad.

En primer lugar, sí, es cierto que el LHC podría crear agujeros negros microscópicos. Pero, en verdad, no pudo haber creado uno en su primer día de funcionamiento. Esto se debe a que los físicos de la CERN no comenzaron a lanzar haces de protones unos contra otros para crear colisiones de alta energía. El 10 de septiembre fue solamente un operativo de calentamiento. Hasta la fecha, el colisionador todavía no ha producido ningún choque de partículas y, en realidad, no son las partículas sino la extrema energía de las colisiones —hasta 14 teraelectronvoltios— la que podría crear un agujero negro microscópico.
De hecho, una vez que el LHC comience a funcionar de nuevo y a producir colisiones, los físicos estarían fascinados si dicho instrumento creara un agujero negro en miniatura. Esta sería la primera evidencia experimental que apoyaría una teoría elegante pero que aún no ha sido probada y que, hasta la fecha, sigue causando algunas controversias. Es la llamada "teoría del todo", más conocida como Teoría de Cuerdas.

En la teoría de cuerdas, los electrones, los protones, los quarks y todas las demás partículas fundamentales son representadas como diferentes vibraciones de cuerdas infinitesimales que existen en 10 dimensiones: 9 dimensiones espaciales y una dimensión temporal. (Las otras seis dimensiones espaciales están escondidas por una u otra razón, por ejemplo porque se "enrollan" a una escala extremadamente pequeña). Algunos físicos promocionan la elegancia matemática de la teoría de cuerdas y su capacidad de integrar la gravedad con las otras fuerzas de la naturaleza. El ampliamente aceptado Modelo Estándar de la física de partículas no incluye a la gravedad, razón por la cual no predice que el LHC pueda crear un punto gravitacionalmente colapsado —un agujero negro— mientras que la teoría de cuerdas sí lo hace.

Muchos físicos han comenzado a cuestionar la veracidad de la teoría de cuerdas. Pero suponiendo por un momento que es verdadera, ¿qué sucedería cuando nazca un agujero negro en el interior del LHC? La sorprendente respuesta es: "no sucedería demasiado". Aun cuando el agujero negro sobreviviera por más de una fracción de segundo (lo cual muy probablemente no sucedería), es casi seguro que saldría disparado hacia el espacio. "Tendría apenas la masa de aproximadamente cien protones y se movería a una velocidad cercana a la de la luz; de modo que alcanzaría la velocidad de escape con facilidad", explica Johnson. Debido a que el agujero negro en miniatura tendría un tamaño menor que una milésima parte de un protón, su atracción gravitacional sería extremadamente débil, lo que lo haría capaz de filtrarse fácilmente a través de la roca sólida sin que siquiera pudiese llegar a tocar —o a succionar— materia alguna. Desde la perspectiva de algo tan pequeño, los átomos que conforman la roca "sólida" son casi enteramente espacio vacío: el vasto espacio entre los núcleos atómicos y los electrones que los orbitan. De modo que un agujero negro microscópico podría atravesar el centro de la Tierra y salir por el otro lado sin causar daño alguno, con la misma facilidad que podría atravesar algo más de 90 metros (300 pies) de terreno suizo. De cualquier modo, acabaría en el vacío casi absoluto del espacio, donde las probabilidades de tocar y succionar materia que lo hiciera crecer hasta convertirlo en una amenaza son todavía más pequeñas.
En consecuencia, la primera cosa que haría un agujero negro diminuto sería abandonar de manera segura el planeta. Pero hay otras razones, aún más poderosas, por las cuales los científicos creen que el LHC no representa ninguna amenaza para la Tierra. En primer lugar, la mayoría de los científicos considera que un agujero negro creado en el LHC se evaporaría casi con seguridad antes de llegar muy lejos. Stephen Hawking, el físico que escribió Una Breve Historia del Tiempo (A Brief History of Time), predijo que los agujeros negros producen radiación, un fenómeno conocido como Radiación de Hawking. Debido a esta pérdida constante de energía, los agujeros negros finalmente se evaporan. Cuanto más pequeño es el agujero negro, más intensa es la radiación de Hawking, y más rápidamente desaparecerá el agujero negro. Así que un agujero negro mil veces más pequeño que un protón debería desaparecer casi instantáneamente en un rápido estallido de radiación.

"La predicción de Hawking no está basada en la especulativa teoría de cuerdas, sino en principios bien entendidos de la mecánica cuántica y de la física de partículas", dice Johnson.

A pesar de sus fuertes fundamentos teóricos, la radiación de Hawking nunca ha sido observada directamente. Sin embargo, los científicos confían en que un agujero negro creado por el LHC no representaría ninguna amenaza. ¿Cómo pueden estar tan seguros? Gracias a los rayos cósmicos. Miles de veces por día, rayos cósmicos de alta energía colisionan contra las moléculas del aire de la atmósfera terrestre con una energía, al menos, 20 veces mayor que las colisiones más poderosas que pueda producir el LHC. En consecuencia, si este nuevo acelerador pudiese crear agujeros negros que devoraran la Tierra, los rayos cósmicos ya lo hubieran hecho miles de millones de veces a lo largo de la historia de la Tierra.

Y, sin embargo, aquí estamos. ¡Que comiencen las colisiones!

Se descubrieron rayos cósmicos de un misterioso objeto cercano

Un equipo internacional de investigadores ha descubierto un enigmático exceso de electrones que bombardean la Tierra desde el espacio. Se desconoce cuál es la fuente de estos rayos cósmicos, pero debe de estar cerca del sistema solar y podría estar hecha de materia oscura. Los resultados del descubrimiento se informan en el ejemplar del 20 de noviembre de la revista Nature.

"Este es un gran descubrimiento", dice el coautor del informe John Wefel, de la Universidad Estatal de Louisiana. "Es la primera vez que vemos una fuente discreta de rayos cósmicos acelerados que se destacan sobre el fondo galáctico".

Los rayos cósmicos galácticos son partículas subatómicas aceleradas a casi la velocidad de la luz por explosiones de supernovas distantes y por otros sucesos violentos. Dichos rayos viajan por toda la Vía Láctea, formando una nube de partículas de alta energía que ingresa al sistema solar desde todas direcciones. Los rayos cósmicos están compuestos principalmente por protones y núcleos atómicos más pesados con una "pizca" de electrones y fotones que "condimentan" la mezcla.

Para estudiar los rayos cósmicos más poderosos e interesantes, Wefel y algunos colegas han pasado los últimos ocho años haciendo volar una serie de globos a través de la estratosfera, sobre la Antártida. En todas esas oportunidades, la carga útil fue un detector de rayos cósmicos financiado por la NASA, llamado ATIC (sigla que en idioma inglés significa: Advanced Thin Ionization Calorimeter o Calorímetro Avanzado de Baja Ionización, en idioma español). El equipo esperaba que el ATIC llevará la cuenta de la mezcla usual de partículas, principalmente de protones e iones, pero el calorímetro descubrió algo extra: abundancia de electrones de alta energía.

Wefel compara esto con conducir por una carretera entre sedanes, furgonetas y camiones, cuando de repente una gran cantidad de Lamborghini irrumpen en el tránsito normal. "Uno no espera ver tantos automóviles de carrera en el camino, o tantos electrones de alta energía en la mezcla de rayos cósmicos". Durante cinco semanas, en las cuales se lanzaron globos, en 2000 y 2003, el ATIC contó 70 electrones en exceso en el rango de energía de 300-800 GeV. ("Exceso" significa sobre y por arriba de la cantidad usual esperada del fondo galáctico.) Setenta electrones puede no sonar como una gran cantidad pero, al igual que setenta Lamborghini en la carretera, es un exceso significativo.


"La fuente de estos exóticos electrones debe de estar relativamente cerca del sistema solar —a no más de un kiloparsec de distancia", dice el coautor de la investigación, Jim Adams, del Centro Marshall para Vuelos Espaciales (Marshall Space Flight Center, en idioma inglés), de la NASA.

¿Por qué debe de estar cerca la fuente? Adams explica: "Los electrones de alta energía pierden energía rápidamente conforme vuelan a través de la galaxia. Se desprenden de la energía principalmente de dos maneras: (1) cuando colisionan con protones de menor energía, en un proceso llamado dispersión inversa de Compton y (2) cuando irradian parte de su energía moviéndose en forma de espiral a través del campo magnético de la galaxia". Para cuando un electrón ha viajado un kiloparsec completo, ya no es de tan 'alta energía'.

Por lo tanto, los electrones de alta energía son locales. Algunos miembros del equipo de investigación creen que la fuente podría estar a menos de unos cientos de parsecs de distancia. A modo de comparación, el disco de la galaxia espiral denominada Vía Láctea mide cerca de treinta mil parsecs de ancho. (Un parsec es equivale a aproximadamente tres años luz.)

"Lamentablemente", dice Wefel, "no podemos ubicar la fuente en el cielo". Aunque el ATIC mide la dirección de las partículas que ingresan, es difícil traducir esos ángulos de ingreso a coordenadas celestes. En primer lugar, el detector estaba alojado en una canasta de un globo que se balanceaba alrededor del Polo Sur en un vórtice turbulento de vientos de gran altitud; eso hace que sea difícil ubicar la fuente. Además, las direcciones de los electrones que ingresan han sido revueltas hasta cierto punto por los campos magnéticos galáticos. "Lo mejor que el ATIC podría esperar es medir una anisotropía general —un lado del cielo respecto del otro ".


Esta inexactitud da rienda suelta a la imaginación. Las posibilidades menos exóticas incluyen, por ejemplo, un pulsar cercano, un 'microcuasar' o un agujero negro de masa estelar (todos ellos son capaces de acelerar electrones a estas energías). Es posible que una fuente de este tipo merodee no muy lejos sin ser detectada. El recientemente lanzado Telescopio Espacial de Rayos Gamma Fermi, de la NASA, está apenas comenzando a examinar el cielo con suficiente sensibilidad como para revelar algunos de estos objetos.

Una posibilidad aún más tentadora es la materia oscura.

Existe una clase de teorías físicas llamadas "teorías de Kaluza-Klein" que busca conciliar la gravedad con otras fuerzas fundamentales, y lo hace proponiendo dimensiones extra. Además de la familiar tridimensión de la experiencia humana, podría haber hasta ocho dimensiones más tejidas en el espacio que nos rodea. Una explicación popular sobre la materia oscura, que todavía no ha sido demostrada, es que las partículas que la forman habitan las dimensiones extra. Nosotros sentimos su presencia mediante la fuerza de gravedad, pero no las detectamos de ninguna otra manera.

¿Cómo es que esto produce rayos cósmicos en exceso? Las partículas de Kaluza-Klein tienen la curiosa propiedad (una de muchas) de ser sus propias antipartículas. Cuando dos de ellas colisionan, se aniquilan mutuamente, produciendo de este modo un rocío de fotones y electrones de alta energía. Sin embargo, los electrones no se pierden en dimensiones escondidas sino que se materializan en las 3 dimensiones del mundo real donde el ATIC puede detectarlas como "rayos cósmicos".

"Nuestros datos podrían ser explicados por una nube o grumo de materia oscura en los alrededores del sistema solar", dice Wefel. "En particular, existe una hipotética partícula Kaluza-Klein con una masa cercana a los 620 GeV que, al ser aniquilada, debería producir electrones con el mismo espectro de las energías que observamos".

El hecho de poner a prueba esta posibilidad no es menor porque la materia oscura es muy, bueno, oscura. Pero puede ser posible encontrar la nube buscando otros productos de la aniquilación, tales como los rayos gamma. De nuevo, el Telescopio Espacial Fermi puede tener la mejor oportunidad de ubicar la fuente.

"Sea lo que sea", dice Adams, "va a ser increíble".

Para obtener más información acerca de esta investigación, consultar "Un exceso de electrones de rayos cósmicos a energías de 300-800 GeV" ("An excess of cosmic ray electrons at energies of 300-800 Gev"), por J. Chang y colaboradores, en el ejemplar del 20 de noviembre de 2008, de Nature.

viernes, 14 de noviembre de 2008

SEGMENTO DE RECTA

Un segmento, en geometría, es un fragmento de recta que está comprendido entre dos puntos.

Así, dados dos puntos A y B, se le llama segmento AB a la intersección de la semirrecta de origen A que contiene al punto B, y la semirrecta de origen B que contiene al punto A. Luego, los puntos A y B se denominan extremos del segmento, y los puntos de la recta a la que pertenece el segmento (recta sostén), serán interiores o exteriores al segmento según pertenezcan o no a este.
Dos segmentos son consecutivos cuando tienen en común solamente un extremo. Según pertenezcan o no a la misma recta, se clasifican en:

* colineales
* no colineales

Los segmentos consecutivos no colineales, llamados 'quebrada' o 'poligonal' pueden ser abiertos o cerrados según tengan o no extremos comunes, el primer y el último segmento que lo forman.

BONO

El Bono es un título de deuda, de renta fija o variable, emitido por un Estado, por un gobierno regional, por un municipio o por una empresa industrial, comercial o de servicios. También puede ser emitido por una institución supranacional (Banco Mundial, Banco Europeo de Inversiones, Corporación Andina de Fomento...), con el objetivo de obtener fondos directamente de los mercados financieros. El emisor se compromete a devolver el capital principal junto con los intereses.

Los principales tipos de bonos son:

* Bono canjeable: Bono que puede ser canjeado por acciones ya existentes. No provoca ni la elevación del capital ni la reducción del valor de las acciones.

* Bono Convertible: Bono que concede a su poseedor la opción de canjearlo por acciones de nueva emisión a un precio prefijado. Ofrece a cambio un cupón (una rentabilidad) inferior al que tendría sin la opción de conversión.

* Bono cero cupón: Título que no paga intereses durante su vida, sino que lo hace íntegramente en el momento en el que se amortiza, es decir cuando el importe del bono es devuelto. En compensación, su precio es inferior a su valor nominal.

* Bonos del estado (España): Títulos del Tesoro público a medio plazo (2-5 años). Su nominal es de 1.000 euros y el pago de los intereses se realiza anualmente. Además de los Bonos, el Estado Español emite otros valores parecidos (véase Deuda pública).

* Strips: Algunos bonos del Estado son "strippables", esto es, que puede segregarse cada uno de los pagos que realiza ese bono, esto es distinguiendo entre principal e intereses (cupón), y negociarlos por separado.

* Bonos de deuda perpetua: Son aquellos que nunca devuelven el principal, (esto es, el nominal del bono, que generalmente coincide con la inversión inicial), sino que pagan intereses (cupones) regularmente de forma indefinida. Son los más sensibles a variaciones en el tipo de interés.

Otro caso es el de los bonos basura, que se definen como títulos de alto riesgo y baja calificación, que ofrece, en contrapartida, un alto rendimiento.

A los propietarios de bonos se les conoce con el nombre de "tenedores" o "bonistas". Algunas emisiones de bonos llevan incorporadas opciones o warrants que permiten amortizaciones anticipadas, conversión en acciones o en otros activos financieros, etc.

viernes, 17 de octubre de 2008

TEOREMA DE LOS NUMEROS PRIMOS

Entre las muchas cuestiones en las que están implicados los números primos, una de las más interesantes concierne a su distribución entre los números enteros. ¿Se distinguen de sus parientes no primos de una manera puramente al azar? ¿O existe alguna regla, algún patrón discernible con el que ocurren los números primos? La respuesta a la última pregunta es "una especie de". Si ésta parece una especie de respuesta evasiva e insatisfactoria, en el presente trabajo esperamos demostrar que realmente es una respuesta muy atrevida que parafrasea uno de los resultados más espectaculares de todas las matemáticas: el teorema de los números primos.

Quien investigue la distribución de los números primos debería empezar con una lista. A continuación, se escriben los primeros 25 números primos menores que 100:

2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41,

43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89, 97

Si hay aquí un patrón, no es nada claro. Por supuesto, todos los números primos mayores que 2 son impares, pero esto no es de mucha ayuda. Advertimos unas cuantas lagunas en los números primos: no hay ninguno del 24 al 28 ni del 90 al 96, siendo este último número una serie de siete números compuestos consecutivos. Por otra parte, vemos que algunos números primos ocurren solamente separados dos unidades -por ejemplo, 5 y 7 ó 59 y 61-. Estos números primos contiguos, que tienen la forma de p y p+2, se llaman números primos gemelos.

Para aumentar el número de datos, reunimos todos los números primos desde el 101 al 200:

101, 103, 107, 109, 113, 127, 131, 139, 149,151,

157, 163, 167, 173, 179, 181, 193, 197, 199

Esta vez hay 21 números de esta clase. Una vez más observamos lagunas, como los nueve números compuestos seguidos del 182 al 190, aunque los números primos gemelos persisten a lo largo de esos números hasta el 197 y 199.

En un estudio de la distribución total de números primos, parecía que las lagunas (en las que los números primos consecutivos están muy separados) y los números primos gemelos (en los que los números primos consecutivos están muy juntos) deberían jugar un importante papel. ¿Existen lagunas más largas entre los números primos? ¿Son las existencias de números primos gemelos infinitos? Interesantemente la primera pregunta se responde fácilmente, pero la segunda es uno de los misterios irresueltos de la teoría de números.

Comencemos con la respuesta fácil. Supongamos que se nos pide una ristra de cinco números compuestos consecutivos. Consideremos los números:

6!+2 = 722, 6!+3 = 723, 6!+4 = 724, 6!+5 = 725, 6!+6 = 726

Es fácil ver que ninguno de estos números es primo, pero es más instructivo preguntar por qué esto es así. El primer número es 6!+2 = 6·5·4·3·2·1+2. Puesto que 2 es un factor de 6! y de sí mismo, 2 es un factor de la suma 6!+2. De ahí que 6!+2 no sea un número primo. Pero tampoco lo es 6!+3 = 6·5·4·3·2·1+3, ya que 3 divide igualmente a ambos términos y por consiguiente a la suma de los dos. Asimismo, 4 es un factor de 6! y de 4, y, por tanto de su suma, igualmente 5 es un factor de 6!+5, y 6 es un factor de 6!+6. Puesto que cada uno de estos números tiene un factor, ninguno es primo. Hemos generado, por tanto, cinco números consecutivos que no son primos.

Se puede argüir convincentemente que hemos realizado una búsqueda demasiado complicada. Después de todo, los cinco números compuestos seguidos 24, 25, 26, 27, 28 servirían exactamente igual. ¿Por qué introducir factoriales que nos llevan hasta el 700?

La respuesta es que necesitamos un procedimiento general. Si nos piden una serie de 500 números compuestos seguidos, el examen de una lista de números primos no sería realista, pero el razonamiento utilizado anteriormente suministrará una serie de esta clase exactamente de la misma manera.

Esto es, comenzamos con el número 501!+2 y tomamos los números enteros desde un número hasta el 501!+501. Es evidente que esto nos da 500 números enteros consecutivos. Casi tan evidente es el hecho de que todos estos números son compuestos, ya que 2 divide exactamente a 501!+2, 3 divide exactamente a 501!+3, y así sucesivamente hasta 501, que divide exactamente a 501!+501. Aquí hay 500 números compuestos consecutivos.

Exactamente el mismo procedimiento comenzando con 5.000.001!+2 produciría cinco millones de números consecutivos con ningún número primo entre ellos, y podríamos exactamente producir con la misma facilidad cinco mil millones o cinco billones consecutivos de números compuestos. Esta argumentación tiene una pasmosa consecuencia: existen lagunas arbitrariamente largas entre los números primos.

Esto significa que si continuáramos como antes contando los números primos entre cada centena de números enteros, alcanzaríamos un punto en el que no habría ningún número primo en absoluto -una centena de números seguidos desprovista de números primos-. Pero la situación es aún más extraña. Cuando se trata de una ristra de cinco millones de números compuestos consecutivos, examinaríamos 50.000 grupos consecutivos de cien números enteros cada uno y ¡nunca encontraríamos un número primo entre ellos! En este punto parecería practicamente cierto que se nos han agotado del todo los múmeros primos.

A quien crea esto lo remitimos a la demostración de la infinidad de los números primos. Deben existir enormes lagunas, lagunas tan grandes que ningún humano podría contarlos durante toda la vida; sin embargo, más allá de estas lagunas, en alguna parte deben existir más números primos, siempre más números primos. Literalmente son inagotables.

¿Qué hay sobre el otro tema? ¿Son las existencias de los números primos gemelos similarmente inagotables? Los especialistas en teoría de números han luchado con este problema durante siglos. Incluso entre los números muy grandes, los números primos gemelos saltan aquí y allá. Los números primos 1.000.000.000.061 y 1.000.000.000.063 son un ejemplo. Pero hasta el día de hoy nadie puede demostrar que existe un número infinito de números primos gemelos. La cuestión permanece irresuelta. Aunque este problema continúa desconcertando a las mejores mentes matemáticas, la cuestión de la infinidad de los tripletes de números primos es fácil de establecer. Decimos que tres números primos forman un triplete si adoptan la forma p, p+2 y p+4. Por ejemplo, los números 3, 5 y 7 son un triplete. ¿Existen conjuntos infinitamente numerosos de éstos?

Para responder a esta cuestión, observamos en primer lugar que cuando un número cualquiera se divide por 3, el resto debe ser 0, 1 ó 2. Así si tenemos el triplete de números primos p, p+2 y p+4 y dividimos por 3, existen tres posibles resultados. Quizá el resto es 0. Esto es, podría ser múltiplo de 3, es decir, p=3k para cualquier número entero k. Si k=1, entonces p=3, y nos encontramos con el triplete 3, 5 y 7 otra vez. Pero si k ³ 2, entonces p=3k no es un número primo, porque habría dos factores propios, 3 y k. Se sigue que 3, 5 y 7 son el único triplete posible para este caso. Alternativamente, el resto de dividir p por 3 podría ser 1, de modo que p=3k + 1 para cualquier número entero k ³ 1. (Nótese que podemos eliminar k=0 ya que p = 3 · 0 + 1 = 1 no es un número primo). Para este caso el segundo miembro del triplete es p+2 = (3k + 1) + 2 = 3k + 3 = 3(k + 1). Obviamente, p+2, al tener los factores 3 y k+1, no puede ser un número primo. Concluimos que no hay tripleta en este caso. Finalmente, supongamos que p dividido por 3 nos da un resto de 2. Entonces, p=3k +2 para cualquier entero k ³ 0. Por tanto, el tercer número del triplete es p+4=(3k + 2) + 4 = 3k + 6 = 3(k + 2). Pero entonces p+4 no es un número primo, ya que tiene un factor de 3. Ningún triplete de números primos encaja tampoco en esta categoría.

Reuniendo nuestros resultados, vemos que el único conjunto de tripletes de números primos es el triplete sencillo: 3, 5, 7. La respuesta a la pregunta "¿Existe un número infinito de tripletes de números primos?" es un sonoro "no". Sólo hay uno. Sin embargo sustituyendo la palabra tripletes por gemelos convierte esto en un problema ingente.

¿Que se puede decir acerca de la distribución global de los números primos entre los números enteros? Una opción es acercarse al problema reuniendo datos, examinándolos y buscando pruebas de una posible regla.

Introducimos el símbolo p(x) para representar el número de primos menores o iguales que el número entero x. Por ejemplo, p(8) = 4, ya que 2, 3, 5 y 7 son los cuatro números primos menores o iguales que 8. Asimismo, p(9) = p(10) = 4 también. Pero p(13) = 6, ya que 2, 3, 5, 7, 11, y 13 son los seis números primos menores o iguales a 13.

Ahora reunimos datos. Esto supone contar números primos y construir una tabla para p(x). Vamos a dar una lista de los valores de p(x) para potencias de 10 desde 10 a 10.000 millones. Las dos columnas de la derecha de la tabla requieren una explicación. Una da los valores de

p(x)
x

que es la proporción de los números menores o iguales a x que son primos. Por ejemplo, hay exactamente 78.498 números primos menores o iguales que un millón, de manera que

p(1.000.000) = 78.498 = 0,078498
1.000.000 1.000.000

Esto significa que el 7.85 por ciento de todos los números por debajo de un millón son primos, y el 92.15 por ciento son números compuestos.

RECUPERACION DEL GRUB

Consiste en usar una distribución en modo LiveCD para instalar nuevamente el GRUB. Usaremos el LiveCD de Ubuntu (debe ser la versión Live o Desktop), aunque puede ser cualquier otra distribución que use GRUB como gestor de arranque y no LILO.

En modo de resumen, los pasos que hay que seguir son los siguientes:

1. Arrancar una distribución LiveCD
2. Montar la partición donde se encuentra instalado Ubuntu
3. Instalar el GRUB en esa partición

A continuación se explica, en unos sencillos pasos, cómo hacerlo:

1. Iniciamos el ordenador y arrancamos desde el CD
2. Arrancamos Ubuntu (o la distribución escogida) en modo LiveCD
3. Abrimos una terminal o consola (no es necesario si tenemos una interfaz de línea de comandos, es decir, en modo texto)
4. Creamos una carpeta donde montar la partición de Ubuntu (la podemos crear en /media, por ejemplo: /media/ubuntu/)
5. Montamos la partición donde se encuentra instalado Ubuntu, usando el comando mount.
6. Aquí hay dos soluciones posibles:


Mediante el intérprete de comandos GRUB
Opción 1

1. Ejecutamos los siguientes comandos:

$ sudo grub --> ejecutamos el intérprete de comandos del GRUB
> root (hdX,Y) --> indicamos dónde está ubicada la partición de Ubuntu
> setup (hdX) --> instalamos el GRUB en ese disco
> quit --> salimos del intérprete de comandos del GRUB

Donde X es el número de disco rígido, y Y es el número de partición. Este sistema difiere un poco del usado para montar las particiones en GNU/Linux; ambos son un único número decimal y comienzan en 0; por ejemplo:

* hd0: es el primero disco duro completo, al igual que hda o sda
* hd0,0: es la primera partición del primer disco duro, al igual que hda1 o sda1
* hd0,1: es la segunda partición del primer disco duro, al igual que hda2 o sda2
* hd1,2: es la tercera partición del segundo disco duro, al igual que hdb3 o sdb3

El primer disco duro del GRUB es el primer disco duro maestro, el segundo es el primer disco duro esclavo, el tercero es el segundo disco duro maestro, y así sucesivamente.

Opción 2

1. Desde una consola ejecutamos los siguientes comandos:

$ sudo grub --> ejecutamos el interprete de comando de grub
> find /boot/grub/stage1 --> busca donde esta la partición de ubuntu
> root (hdX,Y) --> poner el valor devuelto anterior
> setup (hd0) --> instala grub en nuestro primer disco duro (hd0),
que es con el que inicia la computadora
> quit --> salimos del interprete de comando de grub


Cambiando el origen de la carpeta raíz

Cambiamos el origen de la carpeta raíz de nuestro sistema de archivos al directorio en el que hemos montado la partición de Ubuntu, para que al instalar GRUB interprete que la raíz del sistema está ahí.

1. Antes que nada, crear un directorio y montar allí la partición de Ubuntu:

$ sudo mkdir /media/ubuntu
$ sudo mount /dev/hda1 /media/ubuntu

2. Luego conectar el directorio dev del livecd con el de la partición Ubuntu:

$ sudo mount --bind /dev /media/ubuntu/dev

3. El comando necesario para cambiar el origen del directorio raiz es:

$ sudo chroot /media/ubuntu/

4. Ahora instalamos el GRUB en el MBR del primer disco duro, que normalmente estará configurado como Primary Master (hda):

# grub-install /dev/hda

domingo, 5 de octubre de 2008

RENTABILIDAD FINANCIERA

En economía, la rentabilidad financiera o "ROE" (en inglés, Return on equity) relaciona el beneficio económico con los recursos necesarios para obtener ese lucro. A nivel empresa, muestra el retorno para los accionistas de la misma, que son los únicos proveedores de capital que no tienen ingresos fijos.

La rentabilidad puede verse como una medida de cómo una compañía invierte fondos para generar ingresos. Se suele expresar como porcentaje.

ROE=\frac{Beneficio\ Neto}{Patrimonio\ Neto}


Por ejemplo si se coloca en una cuenta un millón y los intereses generados son 100 mil, la rentabilidad es del 10%. La rentabilidad de la cuenta se calcula dividiendo la cantidad generada y la cantidad que se ha necesitado para generarla.

NORMALIZACION EN UNA BASE DE DATOS

Para otros usos de este término, véase Normalización (desambiguación).

El proceso de normalización de bases de datos consiste en aplicar una serie de reglas a las relaciones obtenidas tras el paso del modelo entidad-relación al modelo relacional.

Las bases de datos relacionales se normalizan para:

* Evitar la redundancia de los datos.
* Evitar problemas de actualización de los datos en las tablas.
* Proteger la integridad de los datos.

En el modelo relacional es frecuente llamar tabla a una relación, aunque para que una tabla sea considerada como una relación tiene que cumplir con algunas restricciones:

* Cada columna debe tener su nombre único.
* No puede haber dos filas iguales. No se permiten los duplicados.
* Todos los datos en una columna deben ser del mismo tipo.
TERMINOLOGIA
* Relación = tabla o archivo
* Tupla = registro, fila o renglón
* Atributo = campo o columna
* Clave = llave o código de identificación
* Clave Candidata = superclave mínima
* Clave Primaria = clave candidata elegida
* Clave Ajena = clave externa o clave foránea
* Clave Alternativa = clave secundaria
* Dependencia Multivaluada = dependencia multivalor
* RDBMS = Del inglés Relational Data Base Manager System que significa, Sistema Gestor de Bases de Datos Relacionales.
* 1FN = Significa, Primera Forma Normal o 1NF del ingles First Normal Form.

Los términos Relación, Tupla y Atributo derivan de las matemáticas relacionales, que constituyen la fuente teórica del modelo de base de datos relacional.

Todo atributo en una tabla tiene un dominio, el cual representa el conjunto de valores que el mismo puede tomar. Una instancia de una tabla puede verse entonces como un subconjunto del producto cartesiano entre los dominios de los atributos. Sin embargo, suele haber algunas diferencias con la analogía matemática, dado que algunos RDBMS permiten filas duplicadas, entre otras cosas. Finalmente, una tupla puede razonarse matemáticamente como un elemento del producto cartesiano entre los dominios.
PRIMERA FORMA NORMAL
Una tabla está en Primera Forma Normal sólo si

* Todos los atributos son atómicos. Un atributo es atómico si los elementos del dominio son indivisibles, mínimos.
* La tabla contiene una clave primaria
* La tabla no contiene atributos nulos
* Si no posee ciclos repetitivos

Una columna no puede tener múltiples valores. Los datos son atómicos. (Si a cada valor de X le pertenece un valor de Y, entonces a cada valor de Y le pertenece un valor de X)....
SEGUNDA FORMA NORMAL
Dependencia Funcional. Una relación está en 2FN si está en 1FN y si los atributos que no forman parte de ninguna clave dependen de forma completa de la clave principal. Es decir que no existen dependencias parciales.

En otras palabras podríamos decir que la segunda forma normal está basada en el concepto de dependencia completamente funcional. Una dependencia funcional X -> Y es completamente funcional si al eliminar los atributos A de X significa que la dependencia no es mantenida, esto es que A Є X, (X – {A}) -x-> Y. Una dependencia funcional X-> Y es una dependencia parcial si hay algunos atributos A Є X que pueden ser removidos de X y la dependencia todavía se mantiene, esto es A Є X, (X – {A}) -> Y . Por ejemplo {SSN,PNUMBER} -> HOURS es completamente dependencia dado que ni SSN -> HOURS ni PNUMBER -> HOURS mantienen la dependencia. Sin embargo {SSN,PNUMBER} -> ENAME es parcialmente dependiente dado que SSN->ENAME mantiene la dependencia
TERCERA FORMA
La tabla se encuentra en 3FN si es 2FN y cada atributo que no forma parte de ninguna clave, depende directamente y no transitivamente, de la clave primaria.

Un ejemplo de este concepto sería que, una dependencia funcional X->Y en un esquema de relación R es una dependencia transitiva si hay un conjunto de atributos Z que no es un subconjunto de alguna clave de R, donde se mantiene X->Z y Z->Y.. Por ejemplo, la dependencia SSN->DMGRSSN es una dependencia transitiva en EMP_DEPT de la siguiente figura. Decimos que la dependencia de DMGRSSN el atributo clave SSN es transitiva via DNUMBER porque las dependencias SSN->DNUMBER y DNUMBER->DMGRSSN son mantenidas, y DNUMBER no es un subconjunto de la clave de EMP_DEPT. Intuitivamente, podemos ver que la dependencia de DMGRSSN sobre DNUMBER es indeseable en EMP_DEPT dado que DNUMBER no es una clave de EMP_DEPT.

miércoles, 1 de octubre de 2008

rectas paralelas

Paralelismo es la cualidad de paralelo y, en geometría, puede referir a rectas o planos.

Así, dos rectas, contenidas en un plano, son paralelas cuando no se cortan y, por tanto, las parejas de puntos más próximos de ambas guardan siempre la misma distancia.

Dos planos son paralelos cuando no se cortan y, también, los puntos más próximos de ambos guardan siempre la misma distancia.
* Reflexiva: Toda recta es paralela a sí misma:

a || a

* Simétrica: Si una recta es paralela a otra, aquella es paralela a la primera:

Si a || b \Rightarrow b || a

* Transitiva: Si una recta es paralela a otra, y esta a su vez paralela a una tercera, la primera es paralela a la tercera:

Si a || b \wedge b || c \Rightarrow a || c

* Corolario de la propiedad transitiva: Dos rectas paralelas a una tercera, son paralelas entre sí.

* Corolario: Todas las rectas paralelas tienen la misma dirección

viernes, 26 de septiembre de 2008

informacion de Mauricio Funes

visiten dicha dicreccion paa que se informen
http://www.mauriciofunestv.com/

Internet Movie Database

La Internet Movie Database (IMDb) (en español: Base de Datos de Películas en Internet) es una base de datos en línea con información sobre directores, productores, actores, películas, programas de televisión, videojuegos y casi todo lo relacionado con la industria fílmica privada e independiente. Propiedad de Amazon desde 1998, IMDb celebró su decimoséptimo aniversario el 17 de octubre de 2007.
La IMDb contiene una exhaustiva lista de películas, cortos, documentales, videojuegos y programas de televisión de todo el mundo, incluyendo resúmenes, cuestionarios, errores y datos comerciales.

Los foros de la IMDb son comentarios del público y preguntas sobre películas, sus gustos o desagrados. Por políticas explícitas de contenido los moderadores eliminan los mensajes que se consideran ofensivos. Desde abril de 2005, el uso del foro está restringido a los usuarios registrados.

Aproximadamente el día 20 de febrero de 2007 se cambia el diseño de portadas para las películas. [1]

La IMDb tiene una página hermana llamada IMDb Pro, una base de datos más compleja que la básica que necesita una suscripción de pago. IMDb Pro se diferencia en que dispone de miles de contactos de personas y empresas ligadas a la industria cinematográfica norteamericana, así como información de casting. A diferencia de la IMDb tradicional, en IMDb Pro las películas de habla no-inglesa aparecen con sus respectivos títulos traducidos.

lunes, 22 de septiembre de 2008

PARABOLA

En matemáticas, la parábola (del griego παραβολή) es una sección cónica generada al cortar un cono recto con un plano paralelo a la directriz. Se puede caracterizar también como el lugar geométrico de los puntos que equidistan de una recta (eje) y un punto fijo (foco) dados.

La parábola aparece en muchas ramas de las ciencias aplicadas, debido a que las gráficas de ecuaciones cuadráticas son parábolas. Por ejemplo, la trayectoria de caída de cuerpos bajo la influencia de la gravedad.
Una parábola es el lugar geométrico de los puntos equidistantes de una recta dada, llamada eje, y un punto fijo que se denomina foco.
La longitud del lado recto es siempre 4 veces la distancia focal.

ADO.NET

El ADO.NET es un conjunto de componentes del software que pueden ser usados por los programadores para acceder a datos y a servicios de datos. Es una parte de la biblioteca de clases base que están incluidas en el Microsoft .NET Framework. Es comúnmente usado por los programadores para acceder y para modificar los datos almacenados en un Sistema Gestor de Bases de Datos Relacionales, aunque también puede ser usado para acceder a datos en fuentes no relacionales. ADO.NET es a veces considerado como una evolución de la tecnología ActiveX Data Objects (ADO), pero fue cambiado tan extensivamente que puede ser concebido como un producto enteramente nuevo.
ADO.NET consiste en dos partes primarias:

Data provider
Estas clases proporcionan el acceso a una fuente de datos, como Microsoft SQL Server y Oracle. Cada fuente de datos tiene su propio conjunto de objetos del proveedor, pero cada uno tienen un conjunto común de clases de utilidad:

* Connection: Proporciona una conexión usada para comunicarse con la fuente de datos. También actúa como Abstract Factory para los objetos command.
* Command: Usado para realizar alguna acción en la fuente de datos, como lectura, actualización, o borrado de datos relacionales.
* Parameter: Describe un simple parámetro para un command. Un ejemplo común es un parámetro para un procedimiento almacenado.
* DataAdapter: Un puente usado para transferir datos entre una fuente de datos y un objeto DataSet (ver abajo).
* DataReader: Una clase usada para procesar eficientemente una lista grande de resultados un registro a la vez.

DataSets
Los objetos DataSets, un grupo de clases que describen una simple base de datos relacional en memoria, fueron la estrella del show en el lanzamiento inicial (1.0) del Microsoft .NET Framework. Las clases forman una jerarquía de contención:

* Un objeto DataSet representa un esquema (o una base de datos entera o un subconjunto de una). Puede contener las tablas y las relaciones entre esas tablas.
o Un objeto DataTable representa una sola tabla en la base de datos. Tiene un nombre, filas, y columnas.
+ Un objeto DataView "se sienta sobre" un DataTable y ordena los datos (como una cláusula "order by" de SQL) y, si se activa un filtro, filtra los registros (como una cláusula "where" del SQL). Para facilitar estas operaciones se usa un índice en memoria. Todas las DataTables tienen un filtro por defecto, mientras que pueden ser definidos cualquier número de DataViews adicionales, reduciendo la interacción con la base de datos subyacente y mejorando así el desempeño.
# Un DataColumn representa una columna de la tabla, incluyendo su nombre y tipo.
# Un objeto DataRow representa una sola fila en la tabla, y permite leer y actualizar los valores en esa fila, así como la recuperación de cualquier fila que esté relacionada con ella a través de una relación de clave primaria - clave extranjera.
# Un DataRowView representa una sola fila de un DataView, la diferencia entre un DataRow y el DataRowView es importante cuando se está interactuando sobre un resultset.
o Un DataRelation es una relación entre las tablas, tales como una relación de clave primaria - clave ajena. Esto es útil para permitir la funcionalidad del DataRow de recuperar filas relacionadas.
o Un Constraint describe una propiedad de la base de datos que se debe cumplir, como que los valores en una columna de clave primaria deben ser únicos. A medida que los datos son modificados cualquier violación que se presente causará excepciones.

Un DataSet es llenado desde una base de datos por un DataAdapter cuyas propiedades Connection y Command que han sido iniciados. Sin embargo, un DataSet puede guardar su contenido a XML (opcionalmente con un esquema XSD), o llenarse a sí mismo desde un XML, haciendo esto excepcionalmente útil para los servicios web, computación distribuida, y aplicaciones ocasionalmente conectadas.

sábado, 13 de septiembre de 2008

PHP

PHP es un lenguaje de programación interpretado, diseñado originalmente para la creación de páginas web dinámicas. Es usado principalmente en interpretación del lado del servidor (server-side scripting) pero actualmente puede ser utilizado desde una interfaz de línea de comandos o en la creación de otros tipos de programas incluyendo aplicaciones con interfaz gráfica usando las bibliotecas Qt o GTK+.

PHP es un acrónimo recursivo que significa PHP Hypertext Pre-processor (inicialmente PHP Tools, o, Personal Home Page Tools). Fue creado originalmente por Rasmus Lerdof en 1994; sin embargo la implementación principal de PHP es producida ahora por The PHP Group y sirve como el estándar de facto para PHP al no haber una especificación formal. Publicado bajo la PHP License, la Free Software Foundation considera esta licencia como software libre.

PHP es un lenguaje interpretado de propósito general ampliamente usado y que está diseñado especialmente para desarrollo web y puede ser embebido dentro de código HTML. Generalmente se ejecuta en un servidor web, tomando el código en PHP como su entrada y creando páginas web como salida. Puede ser desplegado en la mayoría de los servidores web y en casi todos los sistemas operativos y plataformas sin costo alguno. PHP se encuentra instalado en más de 20 millones de sitios web y en un millón de servidores, aunque el número de sitios en PHP ha declinado desde agosto de 2005. Es también el módulo Apache más popular entre las computadoras que utilizan Apache como servidor web. La más reciente versión principal del PHP fue la versión 5.2.6 de 1 de mayo de 2008.
El gran parecido que posee PHP con los lenguajes más comunes de programación estructurada, como C y Perl, permiten a la mayoría de los programadores crear aplicaciones complejas con una curva de aprendizaje muy corta. También les permite involucrarse con aplicaciones de contenido dinámico sin tener que aprender todo un nuevo grupo de funciones.

Aunque todo en su diseño está orientado a facilitar la creación de página web, es posible crear aplicaciones con una interfaz gráfica para el usuario, utilizando la extensión PHP-Qt o PHP-GTK. También puede ser usado desde la línea de órdenes, de la misma manera como Perl o Python pueden hacerlo, a esta versión de PHP se la llama PHP CLI (Command Line Interface).

Cuando el cliente hace una petición al servidor para que le envíe una página web, el servidor ejecuta el intérprete de PHP. Éste procesa el script solicitado que generará el contenido de manera dinámica (por ejemplo obteniendo información de una base de datos). El resultado es enviado por el intérprete al servidor, quien a su vez se lo envía al cliente. Mediante extensiones es también posible la generación de archivos PDF, Flash, así como imágenes en diferentes formatos.

Permite la conexión a diferentes tipos de servidores de bases de datos tales como MySQL, Postgres, Oracle, ODBC, DB2, Microsoft SQL Server, Firebird y SQLite.

PHP también tiene la capacidad de ser ejecutado en la mayoría de los sistemas operativos, tales como UNIX (y de ese tipo, como Linux o Mac OS X) y Windows, y puede interactuar con los servidores de web más populares ya que existe en versión CGI, módulo para Apache, e ISAPI.

PHP es una alternativa a las tecnologías de Microsoft ASP y ASP.NET (que utiliza C#/VB.NET como lenguajes), a ColdFusion de la compañía Adobe (antes Macromedia), a JSP/Java de Sun Microsystems, y a CGI/Perl. Aunque su creación y desarrollo se da en el ámbito de los sistemas libres, bajo la licencia GNU, existe además un IDE (entorno de desarrollo integrado) comercial llamado Zend Studio. Recientemente, CodeGear (la división de lenguajes de programación de Borland) ha sacado al mercado un entorno integrado de desarrollo para PHP, denominado Delphi for PHP, Existe un módulo para Eclipse uno de los IDE más populares.

aritmetica elemental


jueves, 21 de agosto de 2008

HISTORIA DE LA COMPUTADORA

Máquina capaz de efectuar una secuencia de operaciones mediante un programa, de tal manera, que se realice un procesamiento sobre un conjunto de datos de entrada, obteniéndose otro conjunto de datos de salida.

TIPOS DE COMPUTADORAS

Se clasifican de acuerdo al principio de operación de Analógicas y Digitales.

* COMPUTADORA ANALÓGICA

1. Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones matemáticas similares (v.g. Exponenciales, Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar el Hardware).

* COMPUTADORA DIGITAL

1. Están basadas en dispositivos biestables, i.e., que sólo pueden tomar uno de dos valores posibles: ‘1’ ó ‘0’. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas, sin tener que la necesidad de modificar físicamente la máquina.

HISTORIA DE LA COMPUTACIÓN

Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa.

Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.

La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.

Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas.

El mundo no estaba listo, y no lo estaría por cien años más.

En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.

En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.

El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras.

La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos.

La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC.

Todo este desarrollo de las computadoras suele divisarse por generaciones y el criterio que se determinó para determinar el cambio de generación no está muy bien definido, pero resulta aparente que deben cumplirse al menos los siguientes requisitos:

* La forma en que están construidas.
* Forma en que el ser humano se comunica con ellas.

Primera Generación

En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos.

Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:

* Estas máquinas estaban construidas por medio de tubos de vacío.
* Eran programadas en lenguaje de máquina.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).

En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos.

En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines).

Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957.

Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado.

La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.

Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.

Segunda Generación

Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas.

Las características de la segunda generación son las siguientes:

* Están construidas con circuitos de transistores.
* Se programan en nuevos lenguajes llamados lenguajes de alto nivel.

En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.

Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el "programa" resultante había que "guardarlo" (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales con mejore circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario.

El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el concepto de human interface que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema "constante" es que ninguna solución para el uso de los programas es "constante". Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC.

Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315.

La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601.

Tercera generación

Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3

Las características de esta generación fueron las siguientes:

* Su fabricación electrónica esta basada en circuitos integrados.
* Su manejo es por medio de los lenguajes de control de los sistemas operativos.

La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).

El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares.

En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida.

En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces.

A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos.

A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.

Cuarta Generación

Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".

En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.

En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.

Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).

No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo.

Quinta Generación

En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.

Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:

* Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.
* Manejo de lenguaje natural y sistemas de inteligencia artificial.

El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.

MODELO DE VON NEUMANN

Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con el, una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.

HISTORIA DE LA ESTADISTICA

Los comienzos de la estadística pueden ser hallados en el antiguo Egipto, cuyos faraones lograron recopilar, hacia el año 3050 antes de Cristo, prolijos datos relativos a la población y la riqueza del país. De acuerdo al historiador griego Heródoto, dicho registro de riqueza y población se hizo con el objetivo de preparar la construcción de las pirámides. En el mismo Egipto, Ramsés II hizo un censo de las tierras con el objeto de verificar un nuevo reparto.

En el antiguo Israel la Biblia da referencias, en el libro de los Números, de los datos estadísticos obtenidos en dos recuentos de la población hebrea. El rey David por otra parte, ordenó a Joab, general del ejército hacer un censo de Israel con la finalidad de conocer el número de la población.

También los chinos efectuaron censos hace más de cuarenta siglos. Los griegos efectuaron censos periódicamente con fines tributarios, sociales (división de tierras) y militares (cálculo de recursos y hombres disponibles). La investigación histórica revela que se realizaron 69 censos para calcular los impuestos, determinar los derechos de voto y ponderar la potencia guerrera.

Pero fueron los romanos, maestros de la organización política, quienes mejor supieron emplear los recursos de la estadística. Cada cinco años realizaban un censo de la población y sus funcionarios públicos tenían la obligación de anotar nacimientos, defunciones y matrimonios, sin olvidar los recuentos periódicos del ganado y de las riquezas contenidas en las tierras conquistadas. Para el nacimiento de Cristo sucedía uno de estos empadronamientos de la población bajo la autoridad del imperio.

Durante los mil años siguientes a la caída del imperio Romano se realizaron muy pocas operaciones Estadísticas, con la notable excepción de las relaciones de tierras pertenecientes a la Iglesia, compiladas por Pipino el Breve en el 758 y por Carlomagno en el 762 DC. Durante el siglo IX se realizaron en Francia algunos censos parciales de siervos. En Inglaterra, Guillermo el Conquistador recopiló el Domesday Book o libro del Gran Catastro para el año 1086, un documento de la propiedad, extensión y valor de las tierras de Inglaterra. Esa obra fue el primer compendio estadístico de Inglaterra.

Aunque Carlomagno, en Francia; y Guillermo el Conquistador, en Inglaterra, trataron de revivir la técnica romana, los métodos estadísticos permanecieron casi olvidados durante la Edad Media.

Durante los siglos XV, XVI, y XVII, hombres como Leonardo de Vinci, Nicolás Copérnico, Galileo, Neper, William Harvey, Sir Francis Bacon y René Descartes, hicieron grandes operaciones al método científico, de tal forma que cuando se crearon los Estados Nacionales y surgió como fuerza el comercio internacional existía ya un método capaz de aplicarse a los datos económicos.

Para el año 1532 empezaron a registrarse en Inglaterra las defunciones debido al temor que Enrique VII tenía por la peste. Más o menos por la misma época, en Francia la ley exigió a los clérigos registrar los bautismos, fallecimientos y matrimonios. Durante un brote de peste que apareció a fines de la década de 1500, el gobierno inglés comenzó a publicar estadísticas semanales de los decesos. Esa costumbre continuó muchos años, y en 1632 estos Bills of Mortality (Cuentas de Mortalidad) contenían los nacimientos y fallecimientos por sexo. En 1662, el capitán John Graunt usó documentos que abarcaban treinta años y efectuó predicciones sobre el número de personas que morirían de varias enfermedades y sobre las proporciones de nacimientos de varones y mujeres que cabría esperar. El trabajo de Graunt, condensado en su obra Natural and Political Observations...Made upon the Bills of Mortality (Observaciones Políticas y Naturales ... Hechas a partir de las Cuentas de Mortalidad), fue un esfuerzo innovador en el análisis estadístico.

Por el año 1540 el alemán Sebastián Muster realizó una compilación estadística de los recursos nacionales, comprensiva de datos sobre organización política, instrucciones sociales, comercio y poderío militar. Durante el siglo XVII aportó indicaciones más concretas de métodos de observación y análisis cuantitativo y amplió los campos de la inferencia y la teoría Estadística.

Los eruditos del siglo XVII demostraron especial interés por la Estadística Demográfica como resultado de la especulación sobre si la población aumentaba, decrecía o permanecía estática.

En los tiempos modernos tales métodos fueron resucitados por algunos reyes que necesitaban conocer las riquezas monetarias y el potencial humano de sus respectivos países. El primer empleo de los datos estadísticos para fines ajenos a la política tuvo lugar en 1691 y estuvo a cargo de Gaspar Neumann, un profesor alemán que vivía en Breslau. Este investigador se propuso destruir la antigua creencia popular de que en los años terminados en siete moría más gente que en los restantes, y para lograrlo hurgó pacientemente en los archivos parroquiales de la ciudad. Después de revisar miles de partidas de defunción pudo demostrar que en tales años no fallecían más personas que en los demás. Los procedimientos de Neumann fueron conocidos por el astrónomo inglés Halley, descubridor del cometa que lleva su nombre, quien los aplicó al estudio de la vida humana. Sus cálculos sirvieron de base para las tablas de mortalidad que hoy utilizan todas las compañías de seguros.

Durante el siglo XVII y principios del XVIII, matemáticos como Bernoulli, Francis Maseres, Lagrange y Laplace desarrollaron la teoría de probabilidades. No obstante durante cierto tiempo, la teoría de las probabilidades limitó su aplicación a los juegos de azar y hasta el siglo XVIII no comenzó a aplicarse a los grandes problemas científicos.

Godofredo Achenwall, profesor de la Universidad de Gotinga, acuñó en 1760 la palabra estadística, que extrajo del término italiano statista (estadista). Creía, y con sobrada razón, que los datos de la nueva ciencia serían el aliado más eficaz del gobernante consciente. La raíz remota de la palabra se halla, por otra parte, en el término latino status, que significa estado o situación; Esta etimología aumenta el valor intrínseco de la palabra, por cuanto la estadística revela el sentido cuantitativo de las más variadas situaciones.

Jacques Quételect es quien aplica las Estadísticas a las ciencias sociales. Este interpretó la teoría de la probabilidad para su uso en las ciencias sociales y resolver la aplicación del principio de promedios y de la variabilidad a los fenómenos sociales. Quételect fue el primero en realizar la aplicación práctica de todo el método Estadístico, entonces conocido, a las diversas ramas de la ciencia.

Entretanto, en el período del 1800 al 1820 se desarrollaron dos conceptos matemáticos fundamentales para la teoría Estadística; la teoría de los errores de observación, aportada por Laplace y Gauss; y la teoría de los mínimos cuadrados desarrollada por Laplace, Gauss y Legendre. A finales del siglo XIX, Sir Francis Gaston ideó el método conocido por Correlación, que tenía por objeto medir la influencia relativa de los factores sobre las variables. De aquí partió el desarrollo del coeficiente de correlación creado por Karl Pearson y otros cultivadores de la ciencia biométrica como J. Pease Norton, R. H. Hooker y G. Udny Yule, que efectuaron amplios estudios sobre la medida de las relaciones.

Los progresos más recientes en el campo de la Estadística se refieren al ulterior desarrollo del cálculo de probabilidades, particularmente en la rama denominada indeterminismo o relatividad, se ha demostrado que el determinismo fue reconocido en la Física como resultado de las investigaciones atómicas y que este principio se juzga aplicable tanto a las ciencias sociales como a las físicas.