Cosmología

Para poner artículos sobre el estudio del cosmos -cosmología- : Big bang, el apagón, agujeros negros, formación del carbono, super novas, pulsars, teoria de la relatividad, entre otros.

4 Commentsto Cosmología

  1. TATANKA dice:

    [url=http://ciencia.astroseti.org/hawking/vida.php]http://ciencia.astroseti.org/hawking/vida.php[/url]

    Stephen Hawking

    La Vida en el Universo

    Artículo original en inglés
    Traductor : Michael Artime

    En esta charla, quisiera especular un poco, sobre el desarrollo de la vida en el universo, y en particular, sobre el desarrollo de la vida inteligente. Haré esto para incluir a la raza humana, aunque buena parte de su comportamiento a lo largo de la historia, ha sido bastante estúpido, y no precisamente calculado para ayudar a la supervivencia de las especies. Dos preguntas que discutiré son, ‘¿Cuál es la probabilidad de que la vida exista en otras partes del universo?’ y, ‘ ¿Cómo podrá desarrollarse la vida en el futuro?’

    Es cuestión de experiencia común, saber que las cosas tienden al desorden y al caos a medida que pasa el tiempo. Esta observación puede elevarse al estado de ley, la así llamada Segunda Ley de la Termodinámica. Esta dice que la cantidad total de desorden, o entropía, en el universo, aumenta siempre con el tiempo. Sin embargo, la ley se refiere solamente a la cantidad total de desorden. El orden en un cuerpo puede aumentar, a condición de que la cantidad de desorden a sus alrededor aumente en una cantidad mayor. Esto es lo que sucede con un ser vivo. Podríamos definir a la vida como: sistema ordenado que puede sostenerse contra la tendencia al desorden, y que puede reproducirse. Es decir, que puede formar sistemas ordenados similares, pero independientes. Para hacer estas cosas, el sistema debe poder convertir energía partiendo de una forma ordenada, (por ejemplo: alimento, luz del sol, o energía eléctrica), en energía desordenada, (en forma de calor). De esta manera, el sistema puede satisfacer el requisito de que la cantidad total de desorden aumente, mientras que, al mismo tiempo, aumenta el orden en sí mismo y en su descendencia. Un ser vivo tiene generalmente dos elementos: un sistema de instrucciones que le dicen al sistema cómo sostenerse y reproducirse, y un mecanismo para realizar estas instrucciones. En biología, estas dos piezas se llaman genes y metabolismo. Pero merece la pena acentuar que no es necesario una naturaleza biológica en ellos. Por ejemplo, un virus de ordenador es un programa que hará copias de sí mismo en la memoria de un ordenador, y se transferirá a otros ordenadores. Así, cabe en la definición de sistema vivo que yo he dado. Al igual que un virus biológico, ambos son formas algo degeneradas, porque solo contiene instrucciones o genes, y no tienen ningún metabolismo propio. En su lugar, reprograman el metabolismo del ordenador huésped o de la célula. Algunas personas se han cuestionado si deberíamos contar a los virus entre los seres vivos, ya que son parásitos, y no pueden existir independientemente de sus anfitriones. Pero entonces la mayor parte de las formas de vida, nosotros mismos incluidos, son parásitos, ya que se alimentan y dependen para su supervivencia de otras formas de vida. Creo que los virus de ordenador deberían considerarse también como vida. Quizás esto dijera algo sobre la naturaleza humana, ya que la única forma de vida que hemos creado hasta ahora, es puramente destructiva. Dicho de otro modo, creamos vida a nuestra imagen y semejanza. Volveré sobre las formas electrónicas de vida más adelante.

    Lo qué normalmente conocemos como ‘ vida ‘ se basa en cadenas de átomos de carbono, enlazados con algunos otros átomos, tales como nitrógeno o fósforo. Podríamos especular que se puede obtener vida a partir de otra base química, por ejemplo el silicio, pero el carbono parece el caso más favorable, porque tiene la química más rica. Que los átomos de carbono existan al fin, con las características que tienen, requiere un fino ajuste de las constantes físicas, tales como la escala QCD (Nota del traductor: escala cromo-dinámica cuántica), la carga eléctrica, e incluso la dimensión espacio-tiempo. Si estas constantes tuvieran valores perceptiblemente distintos, o bien el núcleo del átomo de carbono se volvería inestable, o bien los electrones se colapsarían sobre el núcleo. A primera vista, parece notable que el universo esté ajustado tan finamente. Esta es quizá una evidencia, de que el universo fue diseñado especialmente para producir la raza humana. Sin embargo, hay que tener cuidado sobre tales discusiones, debido a lo que se conoce como el Principio Antrópico. Este se basa en la verdad, de por si evidente, de que si el universo no hubiera sido adecuado para la vida, nosotros no estaríamos ahora preguntándonos por qué está ajustado tan finamente. Se puede aplicar el Principio Antrópico, en sus versiones fuerte, o débil. Para el principio Antrópico fuerte, suponemos que hay muchos y diversos universos, cada uno con distintos valores en sus constantes físicas. En un número pequeño de ellos, estos valores permitirán la existencia de objetos tales como los átomos del carbono, que pueden actuar como los ladrillos para la construcción de sistemas vivos. Puesto que debemos vivir en uno de estos universos, no debemos sorprendernos de que las constantes físicas estén tan finamente ajustadas. Si no fuera así, no estaríamos aquí. La forma fuerte del Principio Antrópico no es muy satisfactoria. ¿Qué sentido operativo podemos dar a la existencia de esos otros universos? Y si están separados y al margen de nuestro propio universo, cómo puede afectarnos lo que suceda en ellos. En su lugar, adoptaré el que se conoce como Principio Antrópico débil. Es decir, tomaré los valores de las constantes físicas, según nos vienen dados. Pero veré qué conclusiones pueden extraerse, del hecho de que la vida exista en este planeta, en esta etapa de la historia del universo.

    No había carbono, cuando el universo comenzó con el Big Bang, hace aproximadamente 15 mil millones de años. Era tan caliente, que toda la materia habría estado en forma de partículas, llamadas protones y neutrones. En un principio habría protones y neutrones en cantidades iguales. Sin embargo, como el universo se expandió, este se habría enfriado. Aproximadamente un minuto después del Big Bang, la temperatura habría caído a alrededor de mil millones de grados, equivalente a cientos de veces la temperatura del Sol. A esta temperatura, los neutrones comenzaron a descomponerse en más protones. Si solo hubiera sucedido esto, toda la materia en el universo habría terminado siendo como el elemento más simple, el hidrógeno, cuyo núcleo consiste en un solo protón. Sin embargo, algunos de los neutrones chocaron con los protones, y se fusionaron para formar el siguiente elemento más simple, el helio, cuyo núcleo consiste en dos protones y dos neutrones. Pero en el joven universo no se habría formado ningún elemento más pesado, como el carbono o el oxígeno. Es difícil imaginarse construir un sistema vivo, partiendo del hidrógeno y del helio, y de todos modos el universo primigenio seguía siendo demasiado caliente como para que los átomos se combinasen formando moléculas.

    El universo habría continuado expandiéndose, y enfriándose. Pero algunas regiones habrían tenido densidades algo más altas que otras. La atracción gravitacional de la materia adicional en esas regiones, retrasaría su expansión, y eventualmente la pararía. En su lugar, esas regiones se colapsarían para formar galaxias y estrellas, hecho que empezó aproximadamente dos mil millones de años después del Big Bang. Algunas de aquellas estrellas tempranas habrían sido más masivas y calientes que nuestro Sol y habrían quemado el hidrógeno y helio original, transformándolo en elementos más pesados, tales como carbono, oxígeno, y hierro. Esto habría podido tomar solamente algunos cientos de millones de años. Después de eso, algunas de las estrellas habrían estallado como supernovas, y habrían dispersado los elementos pesados hacia el interior del espacio, formando la materia prima para próximas generaciones de estrellas.

    Otras estrellas están demasiado lejos, como para que podamos ver directamente, si tienen planetas girando alrededor de ellas. Pero ciertas estrellas, llamadas pulsars, emiten pulsos regulares de ondas de radio. Observamos una leve variación en el índice de emisión de algunos pulsars, y esto se interpreta como un indicador de que están siendo perturbados, por la presencia de planetas del tamaño de la Tierra girando alrededor de ellas. Los planetas que giran alrededor de pulsars tienen pocas probabilidades de albergar vida, porque cualquier ser vivo habría muerto, en la explosión de la supernova que condujo a la estrella a convertirse en un pulsar. Pero, el hecho de que se haya observado que varios pulsars tienen planetas sugiere que una fracción razonable de las cientos de miles de millones de estrellas de nuestra galaxia pueden también tener planetas. Las condiciones planetarias necesarias para nuestra forma de vida pudieron por lo tanto, haber existido a partir de cuatro mil millones de años después del Big Bang.

    Nuestro Sistema Solar se formó aproximadamente hace cuatro mil quinientos millones de años, cerca de diez mil millones de años después del Big Bang, a partir de gas contaminado con los restos de estrellas anteriores. La Tierra se formó en gran parte a partir de los elementos más pesados, incluyendo el carbono y el oxígeno. De algún modo, algunos de esos átomos llegaron a ordenarse en forma de moléculas de ADN. Este tiene la famosa forma de doble hélice, descubierta por Crick y Watson en un cuartucho situado en el Nuevo Museo, en Cambridge. Enlazando las dos cadenas en la hélice, hay pares de ácidos nucleicos. Hay cuatro tipos de ácidos nucleicos: adenina, citosina, guanina, y tiamina. Me temo que mi sintetizador del voz no es muy bueno, pronunciando sus nombres. Obviamente, no fue diseñado para biólogos moleculares. Una adenina en una cadena se empareja siempre con una tiamina en la otra cadena, y una guanina con un citosina. Así la secuencia de ácidos nucleicos en una cadena define una secuencia única y complementaria, en la otra cadena. Ambas cadenas pueden entonces separarse y cada una actúa como una plantilla para construir otras cadenas. De este modo las moléculas de ADN pueden reproducir la información genética, cifrada en sus secuencias de ácidos nucleicos. Algunas secciones de la secuencia se pueden también utilizar para elaborar proteínas y otros productos químicos, que pueden transportar las instrucciones codificadas en secuencia, y montar la materia prima para que el propio ADN se reproduzca.

    No sabemos cómo aparecieron las primeras moléculas de ADN. La probabilidad de que una molécula de ADN se forme por fluctuaciones al azar es muy pequeña. Algunas personas, por lo tanto, han sugerido que la vida llegó a la Tierra desde alguna otra parte, y que hay semillas de vida flotando por los alrededores de la galaxia. Sin embargo, parece inverosímil que el ADN pudiera sobrevivir durante mucho tiempo a la radiación en el espacio. E incluso si pudiera, esto realmente no ayudaría a explicar el origen de la vida, porque el tiempo que necesitó el universo para lograr la formación del carbono es sólo un poco mas del doble que la edad de la Tierra.

    La posibilidad de formación de algo parecido al ADN, que pudiera reproducirse, es extremadamente inverosímil. Sin embargo, en un universo con un número muy grande, o infinito, de estrellas, cabría esperar que esto ocurriera en algunos sistemas estelares, pero estarían tremendamente separados unos de otros. El hecho de que la vida llegara a suceder en la Tierra, no es sin embargo algo que nos sorprenda o inverosímil. Es solo una aplicación del Principio Antrópico Débil: si en su lugar, la vida hubiera aparecido en otro planeta, estaríamos preguntándonos por qué había ocurrido allí.

    Si la aparición de vida en un planeta dado era muy inverosímil, se podía haber esperado que el proceso se alargase en el tiempo. Más exactamente, se podía haber esperado de la vida que apareciese justo a tiempo para la evolución subsiguiente de seres inteligentes, como nosotros antes del apagón, es decir antes del fin del proceso vital del Sol. Este es de cerca de diez mil millones de años, tras lo cual el Sol se expandirá y engullirá a la Tierra. Una forma inteligente de vida, podría haber dominado el viaje espacial, y podría por tanto ser capaz de escaparse a otra estrella. Pero de otro modo, la vida en la Tierra estaría condenada.

    Hay evidencia fósil, de que existían ciertas formas de vida en la Tierra, hace aproximadamente tres mil quinientos millones de años. Esto pudo haber sido apenas 500 millones de años después de que la Tierra llegase a estabilizarse y a enfriarse lo bastante como para que la vida apareciera. Pero la vida habría podido tardar siete mil millones de años en desarrollarse, y todavía le sobraría tiempo para el desarrollo de seres que como nosotros, podrían preguntarse sobre el origen de la vida. Si la probabilidad del desarrollo de vida en un planeta dado, es muy pequeña, por qué sucedió en la Tierra, en tan solo 1/14 del tiempo total disponible.

    La temprana aparición de vida en la Tierra sugiere que hay buenas opciones para la generación espontánea de vida, en condiciones convenientes. Quizás existieran ciertas formas más simple de organización, las cuales llegaron a construir el ADN. Una vez que apareció el ADN, este habría tenido tanto éxito, que puede ser que hubiera substituido totalmente las formas anteriores. No sabemos cuáles habrían sido estas formas anteriores. Una posibilidad es el ARN. Este es como el ADN, pero algo más simple, y sin la estructura de doble hélice. Las cortas longitudes del ARN, podían reproducirse como el ADN, y pudieron eventualmente transformarse en ADN. No se pueden crear ácidos nucleicos en el laboratorio a partir de material no-vivo, ni siquiera ARN. Pero transcurridos 500 millones de años, y contando con los océanos que cubrían la mayor parte de la Tierra, pudo haber una probabilidad razonable de que el ARN, se formase por casualidad.

    Mientras el ADN se reprodujo, habrían sucedido errores al azar. Muchos de estos errores habrían sido dañinos, y habrían muerto. Otros habrían sido neutrales. Lo cual significa que no habrían afectado la función de los genes. Tales errores contribuirían a una deriva genética gradual, lo cual parece ocurrir en todas las poblaciones. Y otros errores habrían sido favorables para la supervivencia de la especie. Estos habrían sido escogidos por la selección natural Darwiniana. El proceso de la evolución biológica fue muy lento al principio. Llevó dos mil quinientos millones de años, desarrollar animales multicelulares a partir de las células más tempranas, y otros mil millones de años más el desarrollo, a través de peces y reptiles, de los mamíferos. Pero entonces la evolución pareció pegar un acelerón. En solo unos cientos de millones de años, los primeros mamíferos evolucionaron hasta nosotros. La razón es, que los peces ya contienen una gran parte de los órganos importantes de los humanos, y los mamíferos, prácticamente todos. Es decir, todo lo que se requería para el desarrollo humano a partir de los primeros mamíferos, como los lemurs, era un poco de afinación y ajuste.

    [color=#00FF00]Pero con la raza humana, la evolución alcanzó un nivel crítico, comparable en importancia con el desarrollo del ADN. Este hito fue el desarrollo del lenguaje, y particularmente el del lenguaje escrito. Ello significó que existía otro tipo de información que se podía pasar de generación en generación, además de la genética a través del ADN. No ha habido cambios perceptibles en al ADN humano, causados por la evolución biológica, en los diez mil años de historia registrada. Pero la cantidad de conocimiento manejado de generación en generación ha crecido enormemente. El ADN en los seres humanos contiene cerca de tres mil millones de ácidos nucleicos. Sin embargo, mucha de la información cifrada en esta secuencia, es redundante, o está inactiva. Por tanto la cantidad total de información útil en nuestros genes, es probablemente algo que ocupa unos cientos de millones de bits. Un bit de información es la respuesta a una pregunta de rango: si ó no. Por el contrario, una novela impresa en papel puede contener dos millones de bits de información. Así que un ser humano es el equivalente a 50 novelas románticas de Mills & Boon (Nota del traductor: Arlequín Mills & Boon es la empresa lider mundial en edición de novelas rosa) .Una biblioteca nacional importante puede contener cerca de cinco millones de libros, lo cual equivale a cerca de diez billones de bits. Por lo que la cantidad de información recogida en los libros, es cientos de miles de veces superior a la contenida en el ADN.

    Aún más importante, es el hecho de que la información en los libros, puede cambiarse y actualizarse, mucho más rápidamente. Hemos tardado varios millones de años en desarrollarnos a partir de los monos. Durante ese tiempo, la información útil en nuestra ADN, ha cambiado probablemente en solo algunos millones de bits. De modo que el índice de evolución biológica en los seres humanos, es aproximadamente de un bit por año. Por contra, se publican cerca de 50.000 nuevos libros en lengua inglesa cada año, conteniendo del orden de cientos de miles de millones de bits de información. Por supuesto, la gran mayoría de esta información es basura, y de ninguna utilidad para cualquier forma de vida. Pero, incluso así, el ratio en el cual se puede agregar información útil es de millones, si no miles de millones, más alto que el del ADN.

    Esto ha significado que hemos entrado en una nueva fase de la evolución. Al principio, la evolución procedió por obra de la selección natural, a través de mutaciones al azar. Esta fase Darwiniana, duró cerca de tres mil quinientos millones de años, y nos produjo a nosotros, seres que desarrollaron el lenguaje para intercambiar información. Pero en los últimos diez mil años, más o menos, hemos atravesado lo que podemos llamar, una fase de transmisión externa. Durante esta, el registro interno de información, manejado por las generaciones que tuvieron éxito reproductivo, no ha cambiado perceptiblemente al ADN. Pero el registro externo, mediante libros y otras formas duraderas de almacenaje, ha crecido enormemente. Algunas personas utilizarían el término, evolución, sólo para el material genético internamente transmitido, y se opondría a que dicho término fuese aplicado a la información manejada externamente. Pero creo que esto es también un problema de estrechez de miras. Somos más que simplemente nuestros genes. Podemos no ser más fuertes, o intrínsecamente más inteligentes, que nuestros antepasados los hombre de las cavernas. Pero lo que nos distingue de ellos, es el conocimiento que hemos acumulado durante los últimos diez mil años, y particularmente, durante los últimos trescientos. Pienso que es legítimo tomar una visión de conjunto, e incluir la información transmitida externamente, tanto como al ADN, en la evolución de la raza humana.

    La escala de tiempo para la evolución de la información, durante el período de transmisión externo, es la de la tasa de acumulación. Esta fase solía ser de centenares, o aún de millares de años. Pero ahora este escala de tiempo se ha reducido a cerca de 50 años, o menos. Por otro lado, los cerebros con los cuales procesamos esa información se han desarrollado solamente en la escala de tiempo Darwiniana, de cientos de miles de años. Esto está comenzando a causar problemas. En el siglo XVIII, se decía que había un hombre que había leído cada uno de los libros escritos. Pero hoy en día, si usted leyera un libro al día, le llevaría cerca de 15.000 años leer todos los libros de una biblioteca nacional. Y para cuando acabase, muchos más libros habrían sido escritos.

    Esto ha significado que nadie puede ser maestro en más que una pequeña esquina del conocimiento humano. La gente tiene que especializarse, en campos más y más reducidos. Esto es probable que sea una limitación importante en el futuro. No podemos continuar ciertamente, durante mucho tiempo, con el índice de crecimiento exponencial de conocimiento que hemos tenido en los últimos trescientos años. Una limitación y un peligro aún mayor para las generaciones futuras, es que todavía conservamos los instintos, y en particular, los impulsos agresivos, que teníamos en los días del hombre de las cavernas. Las agresiones, tales como la subyugación o el asesinato de otros hombres para tomar sus mujeres y su alimento, ha representado una ventaja definitiva para la supervivencia, hasta el presente. Pero ahora podría destruir a la raza humana entera, y a gran parte del resto de seres vivos de la Tierra. Una guerra nuclear, sigue representando el peligro más inmediato, pero existen otros, tales como el lanzamiento de virus rediseñados por ingeniería genética. O que el efecto invernadero llegue a tornarse inestable.

    No queda tiempo, para esperar a que la evolución Darwiniana, nos haga más inteligentes, y mejore nuestra naturaleza. Pero ahora estamos entrando en una nueva fase, que podría ser llamada, evolución de auto-diseño, en la cual podremos cambiar y mejorar nuestra ADN. Existe un proyecto en marcha hoy en día para trazar la secuencia entera del ADN humano. (Nota del traductor: La charla es anterior a 1993, y el proyecto Genoma Humano empezó en 1990 y acabó en el 2000) Costará algunos miles de millones de dólares, pero eso es pecata minuta, para un proyecto de esta importancia. Una vez que hayamos leído el libro de la vida, comenzaremos a escribir las correcciones. Al principio, estos cambios estarán confinados a la reparación de defectos genéticos, como la fibrosis quística, y la distrofia muscular. Estas son controladas por genes sencillos, así que son bastante fáciles de identificar, y de corregir. Otras cualidades, tales como la inteligencia, son probablemente controladas por una gran cantidad de genes. Será mucho más difícil encontrarlos, y descubrir las relaciones entre ellos. Sin embargo, estoy seguro de que durante el próximo siglo, la gente descubrirá cómo modificar tanto la inteligencia, como los instintos agresivos.

    Se aprobarán leyes contrarias a la ingeniería genética en seres humanos. Pero algunas personas no podrán resistirse a la tentación, de mejorar ciertas características humanas, tales como el tamaño de la memoria, la resistencia a las enfermedades, y el alargamiento de la vida. Una vez que aparezcan semejantes super-seres humanos, va a haber problemas políticos importantes, con el resto de seres humanos no mejorados, que no podrán competir. Probablemente, estos últimos morirán, o perderán importancia. En su lugar, habrá una raza de seres auto-diseñados, que irán mejorándose en un porcentaje cada vez mayor.

    Si esta raza consigue reajustarse, hasta reducir o eliminar el riesgo de autodestrucción, probablemente se expandirá, y colonizará otros planetas y estrellas. Sin embargo, los viajes espaciales a través de grandes distancias, serán difíciles para las formas de vida con base química, como el ADN. El curso de vida natural para tales seres es muy breve, comparado con el tiempo del viaje. Según la teoría de la relatividad, nada puede viajar más rápidamente que luz. Por lo que el viaje de ida y vuelta a la estrella más cercana tomaría por lo menos 8 años, y al centro de la galaxia, alrededor de cien mil años. En la ciencia ficción, se superan estas dificultades, mediante deformaciones del espacio, o viajando a través de otras dimensiones. Pero no creo que esto sea posible jamás, no importa lo inteligentes que se vuelvan. En la teoría de la relatividad, si algo puede viajar más rápidamente que luz, también puede viajar hacia atrás en el tiempo. Esto nos conduciría a problemas con la gente que vuelve desde el futuro, para cambiar el pasado. Cabría esperar además, haber visto a una gran cantidad de turistas llegando desde el futuro, curiosos por observar nuestras costumbres pintorescas y pasadas de moda. Puede que sea posible utilizar la ingeniería genética, para hacer que la vida basada en ADN sobreviva indefinidamente, o por lo menos durante cien mil años. Pero hay una forma más sencilla, y que ya casi está dentro de nuestras posibilidades, que sería la de enviar máquinas. Estas se podrían diseñar para que durasen el tiempo suficiente para soportar el recorrido interestelar. Cuando llegasen a una nueva estrella, podrían aterrizar en un planeta conveniente, y extraer material de las minas para producir más máquinas, las cuales podrían ser enviadas hacia otras estrellas. Estas máquinas serían una nueva forma de vida, basada en componentes mecánicos y electrónicos, en lugar de macromoléculas. Podrían eventualmente sustituir a la vida basada en ADN, tal y como el ADN pudo haber sustituido a otras formas anteriores de vida.

    Esta vida mecánica podría también ser auto-diseñada. Por ello, parece que el período de transmisión externa de la evolución, habría sido solo un corto interludio, entre la fase Darwiniana, y la fase (biológica o mecánica) de auto-diseño. Esto se muestra en el diagrama siguiente, que no es a escala, porque no hay forma alguna de representar un período de diez mil años en una escala de miles de millones de años.

    Cuánto tiempo durará la fase de auto-diseño, es algo discutible. Puede ser inestable, y la vida podría destruirse a si misma, o llegar a un callejón sin salida. Si no lo hace, debería poder sobrevivir a la muerte del Sol, aproximadamente dentro de 5 mil millones de años, moviéndose a planetas situados alrededor de otras estrellas. La mayoría de las estrellas se habrán quemado dentro de otros 15 mil millones de años, más o menos, y el universo se acercará a un estado de completo desorden, según la Segunda Ley de la Termodinámica. Pero Freeman Dyson ha demostrado que, a pesar de esto, la vida podría adaptarse a la fuente siempre decreciente de energía ordenada, y por lo tanto podría, en principio, continuar su existencia para siempre.

    ¿Qué oportunidades tenemos de encontrar alguna forma de vida alienígena , mientras exploramos la galaxia?. Si la discusión sobre la escala de tiempo para la aparición de vida en la Tierra es correcta, debe haber muchas otras estrellas, cuyos planetas alberguen vida. Algunos de estos sistemas estelares podrían haberse formado cinco mil millones de años antes que la Tierra. Luego, ¿por qué la galaxia no está bullendo de formas de vida auto-diseñadas, mecánicas o biológicas? ¿Por qué la Tierra no ha sido visitada, o incluso colonizada?. No tendré en cuenta las sugerencias de que los OVNIS transportan a seres del espacio exterior. Creo que cualquier visita alienígena, sería mucho más obvia, y probablemente también, mucho más desagradable.

    ¿Cuál es la explicación del por qué no nos han visitado? Una posibilidad es que la discusión, sobre la aparición de vida en la Tierra, es incorrecta. Tal vez la probabilidad de que la vida aparezca espontáneamente es tan baja, que la Tierra es el único planeta en la galaxia, o en el universo observable, en el cual sucedió. Otra posibilidad es que exista una probabilidad razonable para que se formen sistemas de auto reproducción, como las células, pero que la mayoría de estas formas de vida no desarrollaron la inteligencia. Solemos creer en la vida inteligente, como una consecuencia inevitable de la evolución. Pero el Principio Antrópico debería advertirnos para que fuéramos cuidadosos con tales argumentos. Es más probable que la evolución sea un proceso al azar, donde la inteligencia es simplemente uno más entre una gran cantidad de resultados posibles. No está claro que la inteligencia tenga un valor de supervivencia a largo plazo. Las bacterias, y otros organismos unicelulares, seguirán viviendo, aún cuando el resto de la vida en la Tierra fuese barrida por nuestras acciones. Hay por tanto apoyos para la visión de que la inteligencia, es un desarrollo poco probable de la vida en la Tierra, desde la cronología de la evolución. Tomó un tiempo muy largo, dos mil quinientos millones de años, llegar a partir de las células hasta los seres multicelulares, los cuales son precursores necesarios para la inteligencia. Esta es una buena fracción del tiempo total disponible, antes de que el sol se destruya. Lo cual daría consistencia a la hipótesis, de que la probabilidad para que la vida inteligente se desarrolle, es baja. En ese caso, cabe esperar que encontremos muchas otras formas de vida en la galaxia, pero es poco probable encontrar vida inteligente. Otro modo, mediante el cual la vida podría fracasar en su intento de desarrollarse hasta un escenario de inteligencia, sería la de que un asteroide o cometa colisionase con el planeta. Acabamos de observar la colisión de un cometa, el Schumacher-Levi, con Júpiter. Esto produjo una serie de bolas de fuego enormes. Se cree que la colisión de un cuerpo algo más pequeño, con la Tierra, hace cerca de 70 millones de años, fue responsable de la extinción de los dinosaurios. Algunos pequeños mamíferos tempranos sobrevivieron, pero cualquier cosa tan grande como un humano habría sido aniquilada casi con toda certeza. Es difícil decir cuan a menudo ocurren tales colisiones, pero una conjetura razonable sobre este promedio, puede ser cada veinte millones de años. Si esta cifra es correcta, significaría que la vida inteligente en la tierra ha aparecido, únicamente gracias al hecho afortunado de que no ha habido colisiones importantes en los últimos 70 millones de años. Otros planetas en la galaxia, en los cuales la vida hubiera aparecido, pudieron no haber tenido un período libre de colisiones lo suficientemente largo como para desarrollar seres inteligentes.

    Una tercera posibilidad es que durante la fase de transmisión externa haya una probabilidad razonable para que la vida se forme, y se desarrollen los seres inteligentes. Pero en ese punto, el sistema llega a ser inestable, y la vida inteligente se destruye. Esta sería una conclusión muy pesimista. Y en verdad deseo mucho que no sea así. Prefiero una cuarta posibilidad: la de que hay otras formas de vida inteligente ahí fuera, pero que se nos han pasado por alto. Existía un proyecto llamado SETI, la búsqueda de inteligencia extra-terrestre. Este implicaba la exploración de radiofrecuencias, para ver si podríamos captar señales emitidas por civilizaciones extraterrestres. Creo que merecía la pena apoyar este proyecto, aunque fue cancelado debido a una carencia de fondos. Pero deberíamos ser cuidadosos y no contestar, hasta que nos hayamos desarrollado un poquito más. Descubrir una civilización más avanzada, en nuestra actual etapa, puede ser un poco como cuando los habitantes originales de América se encontraron con Colón. Creo que estaban mejor antes de ello.

    Eso es todo lo que tengo que decir. Gracias por escuchar.

  2. Gloria dice:

    Admirable persona.
    Casualmente hoy leí que presenta un libro nuevo, escrito con su hija y enfocado a los niños que se titula “las claves del universo”. Es un gran comunicador, sabe expresar los conceptos más difíciles de una forma sencilla que mi mente profana en temas científicos agradece.
    Al leer este artículo, me acordé de una anecdota con mi hijo. Una vez, viendo juntos un documental sobre el cosmos, apareció Estephen Hawking en su silla de ruedas. En el documental se hablaba de sus teorías sobre los agujeros negros y mi hijo me preguntó ¿Está así porque se metió en un agujero negro?
    También he recordado que muchas veces he pensado en lo poco que hemos evolucionado a nivel espiritual, es más, pareciera que vamos hacia atrás. ¿De qué sirven tantos conocimientos científicos y tantos libros si seguimos siendo marionetas de nuestros instintos? ¿De qué nos sirve que nos enseñen a leer libros antes de haber aprendido a leer y dominar nuestra propia naturaleza interior?¿De qué nos sirve conocer otros mundos antes de conocer el nuestro y aprender a amarlo y respetarlo? Pienso que hay un gran desequilibrio en todo esto. A pesar de estar llena de palabras e ideas que he leído durante muchos años de aficción a la lectura, me siento vacía de verdadero conocimiento, al menos del conocimiento que yo considero hoy por hoy más importante que es el que me ayude a ser mejor persona. Ni siquiera se si este conocimiento se puede aprender con seguridad ya que todas las noticias de personas que a mi parecer lo han conseguido, me han llegado a través de “historias” en los libros… pero sigo buscándolo, sobre todo por que quiero darle una oportunidad a mi hijo, aunque dentro de unos años él será quién tome las riendas de su vida y puede que decida desechar las herramientas, quisiera que al menos las tenga y pueda escoger.

  3. TATANKA dice:

    Stephen Hawking
    ¿Juega Dios a los Dados?

    Artículo original en inglés
    Traductores : José Luis Acuña / Ariadna Martínez

    Esta conferencia versa sobre si podemos predecir el futuro o bien éste es arbitrario y aleatorio. En la antigüedad, el mundo debía de haber parecido bastante arbitrario. Desastres como las inundaciones o las enfermedades debían de haber parecido producirse sin aviso o razón aparente. La gente primitiva atribuía esos fenómenos naturales a un panteón de dioses y diosas que se comportaban de una forma caprichosa e impulsiva. No había forma de predecir lo que harían, y la única esperanza era ganarse su favor mediante regalos o conductas. Mucha gente todavía suscribe parcialmente esta creencia, y tratan de firmar un pacto con la fortuna. Se ofrecen para hacer ciertas cosas a cambio de un sobresaliente en una asignatura, o de aprobar el examen de conducir.

    Sin embargo, la gente se debió de dar cuenta gradualmente de ciertas regularidades en el comportamiento de la naturaleza. Estas regularidades eran más obvias en el movimiento de los cuerpos celestes a través del firmamento. Por eso la Astronomía fue la primera ciencia en desarrollarse. Fue puesta sobre una firme base matemática por Newton hace más de 300 años, y todavía usamos su teoría de la gravedad para predecir el movimiento de casi todos los cuerpos celestes. Siguiendo el ejemplo de la Astronomía, se encontró que otros fenómenos naturales también obedecían leyes científicas definidas. Esto llevó a la idea del determinismo científico, que parece haber sido expresada públicamente por primera vez por el científico francés Laplace. Me pareció que me gustaría citar literalmente las palabras de Laplace. y le pedí a un amigo que me las buscara. Por supuesto que están en francés, aunque no esperaba que la audiencia tuviera ningún problema con esto. El problema es que Laplace, como Prewst [N. del T.: Hawking probablemente se refiere a Proust], escribía frases de una longitud y complejidad exageradas. Por eso he decidido parafrasear la cita. En efecto, lo que él dijo era que, si en un instante determinado conociéramos las posiciones y velocidades de todas las partículas en el Universo, podríamos calcular su comportamiento en cualquier otro momento del pasado o del futuro. Hay una historia probablemente apócrifa según la cual Napoleón le preguntó a Laplace sobre el lugar de Dios en este sistema, a lo que él replicó “Caballero, yo no he necesitado esa hipótesis”. No creo que Laplace estuviera reclamando que Dios no existe. Es simplemente que El no interviene para romper las leyes de la Ciencia. Esa debe ser la postura de todo científico. Una ley científica no lo es si solo se cumple cuando algún ser sobrenatural lo permite y no interviene.

    La idea de que el estado del universo en un instante dado determina el estado en cualquier otro momento ha sido uno de los dogmas centrales de la ciencia desde los tiempos de Laplace. Eso implica que podemos predecir el futuro, al menos en principio. Sin embargo, en la práctica nuestra capacidad para predecir el futuro está severamente limitada por la complejidad de las ecuaciones, y por el hecho de que a menudo exhiben una propiedad denominada caos. Como sabrán bien todos los que han visto Parque Jurásico, esto significa que una pequeña perturbación en un lugar puede producir un gran cambio en otro. Una mariposa que bate sus alas puede hacer que llueva en Central Park, Nueva York. El problema es que eso no se puede repetir. La siguiente vez que una mariposa bata sus alas, una multitud de otras cosas serán diferentes, lo que también tendrá influencia sobre la meteorología. Por eso las predicciones meteorológicas son tan poco fiables.

    A pesar de estas dificultades prácticas, el determinismo científico permaneció como dogma durante el siglo 19. Sin embargo, en el siglo 20 ha habido dos desarrollos que muestran que la visión de Laplace sobre una predicción completa del futuro no puede ser llevada a cabo. El primero de esos desarrollos es lo que se denomina mecánica cuántica. Fue propuesta por primera vez en 1900, por el físico alemán Max Planck, como hipótesis ad hoc para resolver una paradoja destacada. De acuerdo con las ideas clásicas del siglo 19, que se remontan a los tiempos de Laplace, un cuerpo caliente, como una pieza de metal al rojo, debería emitir radiación. Perdería energía en forma de ondas de radio, infrarrojos, luz visible, ultravioleta, rayos x, y rayos gamma, todos a la misma tasa. Esto no sólo significaría que todos moriríamos de cáncer de piel, sino que además todo en el universo estaría a la misma temperatura, lo que claramente no es así. Sin embargo, Planck mostró que se puede evitar este desastre si se abandonara la idea de que la cantidad de radiación puede tener cualquier valor, y se dijera en su lugar que la radiación llega únicamente en paquetes o cuantos de un cierto tamaño. Es un poco como decir que en el supermercado no se puede comprar azúcar a granel, sino sólo en bolsas de un kilo. La energía en los paquetes o cuantos es mayor para los rayos x y ultravioleta, que para la luz infrarroja o visible. Esto significa que a menos que un cuerpo esté muy caliente, como el Sol, no tendrá suficiente energía para producir ni siquiera un único cuanto de rayos x o ultravioleta. Por eso no nos quemamos por insolación con una taza de café.

    Para Planck los cuantos no eran más que un truco matemático que no tenía una realidad física, lo que quiera que eso signifique. Sin embargo, los físicos empezaron a encontrar otro comportamiento, que sólo podía ser explicado en términos de cantidades con valores discretos o cuantizados, más que variables continuas. Por ejemplo, se encontró que las partículas elementales se comportaban más bien como pequeñas peonzas girando sobre un eje. Pero la cantidad de giro no podía tener cualquier valor. Tenía que ser algún múltiplo de una unidad básica. Debido a que esa unidad es muy pequeña, uno no se da cuenta de que una peonza normal decelera mediante una rápida secuencia de pequeños pasos, más que mediante un proceso continuo. Pero para peonzas tan pequeñas como los átomos, la naturaleza discreta del giro es muy importante.

    Pasó algún tiempo antes de que la gente se diera cuenta de las implicaciones que tenía este comportamiento cuántico para el determinismo. No sería hasta 1926, cuando Werner Heisenberg, otro físico alemán, indicó que no podrías medir exactamente la posición y la velocidad de una partícula a la vez. Para ver dónde está una partícula hay que iluminarla. Pero de acuerdo con el trabajo de Planck, uno no puede usar una cantidad de luz arbitrariamente pequeña. Uno tiene que usar al menos un cuanto. Esto perturbará la partícula, y cambiará su velocidad de una forma que no puede ser predicha. Para medir la posición de la partícula con exactitud, deberás usar luz de una longitud de onda muy corta, como la ultravioleta, rayos x o rayos gamma. Pero nuevamente, por el trabajo de Planck, los cuantos de esas formas de luz tienen energías más altas que las de la luz visible. Por eso perturbarán aún más la velocidad de la partícula. Es un callejón sin salida: cuanto más exactamente quieres medir la posición de la partícula, con menos exactitud puedes conocer la velocidad, y viceversa. Esto queda resumido en el Principio de Incertidumbre formulado por Heisenberg; la incertidumbre en la posición de una partícula, multiplicada por la incertidumbre en su velocidad, es siempre mayor que una cantidad llamada la constante de Planck, dividida por la masa de la partícula.

    La visión de Laplace del determinismo científico implicaba conocer las posiciones y velocidades de las partículas en el universo en un instante dado del tiempo. Por lo tanto, fue seriamente socavado por el Principio de Incertidumbre de Heisenberg. ¿Cómo puede uno predecir el futuro, cuando uno no puede medir exactamente las posiciones ni las velocidades de las partículas en el instante actual? No importa lo potente que sea el ordenador de que dispongas, si lo alimentas con datos deplorables, obtendrás predicciones deplorables.

    Einstein estaba muy descontento por esta aparente aleatoriedad en la naturaleza. Su opinión se resumía en su famosa frase ‘Dios no juega a los dados’. Parecía que había presentido que la incertidumbre era sólo provisional, y que existía una realidad subyacente en la que las partículas tendrían posiciones y velocidades bien definidas y se comportarían de acuerdo con leyes deterministas, en consonancia con Laplace. Esta realidad podría ser conocida por Dios, pero la naturaleza cuántica de la luz nos impediría verla, excepto tenuemente a través de un cristal.

    La visión de Einstein era lo que ahora se llamaría una teoría de variable oculta. Las teorías de variable oculta podrían parecer ser la forma más obvia de incorporar el Principio de Incertidumbre en la física. Forman la base de la imagen mental del universo, sostenida por muchos científicos, y prácticamente por todos los filósofos de la ciencia. Pero esas teorías de variable oculta están equivocadas. El físico británico John Bell, que murió recientemente, ideó una comprobación experimental que distinguiría teorías de variable oculta. Cuando el experimento se llevaba a cabo cuidadosamente, los resultados eran inconsistentes con las variables ocultas. Por lo tanto parece que incluso Dios está limitado por el Principio de Incertidumbre y no puede conocer la posición y la velocidad de una partícula al mismo tiempo. O sea que Dios juega a los dados con el universo. Toda la evidencia lo señala como un jugador empedernido, que tira los dados siempre que tiene ocasión.

    Otros científicos estaban mucho más dispuestos que Einstein a modificar la visión clásica del determinismo del siglo 19. Una nueva teoría, denominada la mecánica cuántica, fue propuesta por Heisenberg, el austríaco Erwin Schroedinger, y el físico británico Paul Dirac. Dirac fue mi penúltimo predecesor en la cátedra Lucasiana de Cambridge. Aunque la mecánica cuántica ha estado entre nosotros durante cerca de 70 años, todavía no es generalmente entendida o apreciada, incluso por aquellos que la usan para hacer cálculos. Sin embargo, debería preocuparnos a todos, puesto que es una imagen completamente diferente del universo físico y de la misma realidad. En la mecánica cuántica, las partículas no tienen posiciones ni velocidades bien definidas. En su lugar, son representadas por lo que se llama una función de onda. Esta es un número en cada punto del espacio. El tamaño de la función de onda indica la probabilidad de que la partícula sea encontrada en esa posición. La tasa con la que la función de onda cambia de punto a punto, proporciona la velocidad de la partícula. Uno puede tener una función de onda con un gran pico en una región muy pequeña. Esto significará que la incertidumbre en la posición es muy pequeña. Pero la función de onda variará muy rápidamente cerca del pico, hacia arriba en un lado, hacia abajo en el otro. Por lo tanto la incertidumbre en la velocidad será grande. De la misma manera, uno puede tener funciones de onda en las que la incertidumbre en la velocidad es pequeña, pero la incertidumbre en la posición es grande.

    La función de onda contiene todo lo que uno puede saber de la partícula, tanto su posición como su velocidad. Si sabes la función de onda en un momento dado, entonces sus valores en otros momentos son determinados por lo que se llama la ecuación de Schroedinger. Por lo tanto uno tiene aún un cierto determinismo, pero no del tipo que Laplace imaginaba. En lugar de ser capaces de predecir las posiciones y las velocidades de las partículas, todo lo que podemos predecir es la función de onda. Esto significa que podemos predecir sólo la mitad de lo que podríamos de acuerdo con la visión clásica del siglo 19.

    Aunque la mecánica cuántica lleva a la incertidumbre cuando tratamos de predecir la posición y la velocidad a un mismo tiempo, todavía nos permite predecir con certidumbre una combinación de posición y velocidad. Sin embargo, incluso este grado de certidumbre parece estar amenazado por desarrollos más recientes. El problema surge porque la gravedad puede torcer el espacio-tiempo tanto que puede haber regiones que no observamos.

    Curiosamente, el mismo Laplace escribió un artículo en 1799 sobre cómo algunas estrellas pueden tener un campo gravitatorio tan fuerte que la luz no podría escapar, siendo por tanto arrastrada de vuelta a la estrella. Incluso calculó que una estrella de la misma densidad que el Sol, pero doscientas cincuenta veces más pequeña, tendría esta propiedad. Pero aunque Laplace podría no haberse dado cuenta, la misma idea había sido propuesta 16 años antes por un hombre de Cambridge, John Mitchell, en un artículo en Phylosophical Transactions of the Royal Society. Tanto Mitchel como Laplace concebían a la luz como formada por partículas, más bien como bolas de cañón, que podían ser deceleradas por la gravedad, y hechas caer de vuelta a la estrella. Pero un famoso experimento llevado a cabo por dos americanos, Michelson y Morley, en 1887, mostraron que la luz siempre viajaba a una velocidad de ciento ochenta y seis mil millas por segundo, no importa de dónde viniera. Cómo podía entonces la gravedad decelerarla, y hacerla caer de nuevo.

    De acuerdo con las ideas sobre el espacio y el tiempo vigentes en aquel momento esto era imposible. Sin embargo, en 1915 Einstein presentó al mundo su revolucionaria Teoría General de la Relatividad en la cual espacio y tiempo dejaban de ser entidades separadas e independientes. Por el contrario, eran meramente diferentes direcciones de una única noción llamada espacio-tiempo. Esta noción espacio-tiempo no era uniforme sino deformada y curvada debido a su energía inherente. Para que se entienda mejor, imagínese que colocamos un peso (que hará las veces de estrella) sobre una lámina de goma. El peso (estrella) formará una depresión en la goma curvándose la zona alrededor del mismo en contraposición a la planicie anterior. Si hacemos rodar canicas sobre la lámina de goma, sus rastros serán espirales más que líneas rectas. En 1919, una expedición británica en el Oeste de África observaba la luz de estrellas lejanas que cruzaba cerca del sol durante un eclipse. Descubrieron que las imágenes de las estrellas variaban ligeramente de sus posiciones habituales; esto revelaba que las trayectorias de la luz de las estrellas habían sido curvadas por el influjo del espacio-tiempo que rodea al sol. La Relatividad General había sido confirmada.

    Imagínese ahora que colocamos pesos sobre la lámina de goma cada vez más cuantiosos y de manera más intensiva. Hundirán la plancha cada vez más. Con el tiempo, alcanzado el peso y la masa crítica se hará un agujero en la lámina por el que podrán caer las partículas pero del que no podrá salir nada.

    Según la Teoría General de la Relatividad lo que sucede con el espacio-tiempo es bastante similar. Cuanto más ingente y más densa sea una estrella, tanto más se curvará y distorsionará el espacio-tiempo alrededor de la misma. Si una estrella inmensa que ha consumido ya su energía nuclear se enfría encogiéndose por debajo de su masa crítica, formará literalmente un agujero sin fondo en el espacio-tiempo por el que no puede pasar la luz. El físico americano John Wheeler llamó a estos objetos “agujeros negros” siendo el primero en destacar su importancia y los enigmas que encierran. El término se hizo popular rápidamente. Para los americanos sugería algo oscuro y misterioso mientras que para los británicos existía además la amplia difusión del Agujero Negro de Calcuta. Sin embargo los franceses, muy franceses ellos, percibieron algo indecente en el vocablo. Durante años se resistieron a utilizar el término, demasiado negro, arguyendo que era obsceno; pero era parecido a intentar luchar contra préstamos lingüísticos como “le weekend” y otras mezcolanzas del “franglés”. Al final tuvieron que claudicar. ¿Quién puede resistirse a una expresión así de conquistadora?

    Ahora tenemos evidencias de la existencia de agujeros negros en diferentes tipos de entidades, desde sistemas de estrellas binarios al centro de las galaxias. Por lo tanto, la existencia de agujeros negros está ampliamente aceptada hoy en día. Con todo y al margen de su potencial para la ciencia ficción, ¿cuál sería su relevancia para el determinismo? La respuesta reside en una pegatina de parachoques que tenía en la puerta de mi despacho: “los agujeros negros son invisibles”. No sólo ocurre que las partículas y los astronautas desafortunados que caen en un agujero negro no vuelven nunca, sino que la información que estos portan se pierde para siempre, al menos en nuestra demarcación del universo. Puede lanzar al agujero negro aparatos de televisión, sortijas de diamantes e incluso a sus peores enemigos y todo lo que recordará el agujero negro será su masa total y su estado de rotación. John Wheeler llamó a esto “un agujero negro no tiene pelo”. Esto confirma las sospechas de los franceses.

    Mientras hubo el convencimiento de que los agujeros negros existirían siempre, esta pérdida de información pareció no importar demasiado. Se podía pensar que la información seguía existiendo dentro de los agujeros negros. Simplemente es que no podemos saber lo que hay desde fuera de ellos pero la situación cambió cuando descubrí que los agujeros negros no son del todo negros. La Mecánica Cuántica hace que estos emitan partículas y radiaciones a un ritmo constante. Estos hallazgos me asombraron no sólo a mí si no al resto del mundo pero con la perspectiva del tiempo esto habría resultado obvio. Lo que se entiende comúnmente como “el vacío” no está realmente vacío ya que está formado por pares de partículas y antipartículas. Estas permanecen juntas en cierto momento del espacio-tiempo, en otro se separan para después volver a unirse y finalmente aniquilarse la una a las otra. Estas partículas y antipartículas existen porque un campo, tal como los campos que transportan la luz y la gravedad no puede valer exactamente cero. Esto denotaría que el valor del campo tendría tanto una posición exacta (en cero) como una velocidad o ritmo de cambio exacto (también cero). Esto violaría el Principio de Incertidumbre porque una partícula no puede tener al tiempo una posición y una velocidad constantes. Por lo tanto, todos los campos deben tener lo que se denomina fluctuaciones del vacío. Debido al comportamiento cuántico de la naturaleza se puede interpretar estas fluctuaciones del vacío como partículas y antipartículas como he descrito anteriormente.

    Estos pares de partículas se dan en conjunción con todas las variedades de partículas elementarias. Se denominan partículas virtuales porque se producen incluso en el vacío y no pueden ser mostradas directamente por los detectores de partículas. Sin embargo, los efectos indirectos de las partículas virtuales o fluctuaciones del vacío han sido estudiados en diferentes experimentos, siendo confirmada su existencia.

    Si hay un agujero negro cerca, uno de los componentes de un par de partículas y antipartículas podría deslizarse en dicho agujero dejando al otro componente sin compañero. La partícula abandonada puede caerse también en el agujero o bien desplazarse a larga distancia del mismo donde se convertirá en una verdadera partícula que podrá ser apreciada por un detector de partículas. A alguien muy alejado del agujero negro le parecerá que la partícula ha sido emitida por el mismo agujero.

    Esta explicación de cómo los agujeros negros no son tan negros clarifica que la emisión dependerá de la magnitud del agujero negro y del ritmo al que esté rotando. Sin embargo, como un agujero negro no tiene pelo, citando a Wheeler, la radiación será por otra parte independiente de lo que se deslizó por el agujero. No importa lo que arroje a un agujero negro: aparatos de televisión, sortijas de diamantes o a sus peores enemigos. Lo que de allí sale es siempre lo mismo.

    Pero ¿qué tiene esto que ver con el determinismo que es sobre lo que se supone que versa esta conferencia? Lo que esto demuestra es que hay muchos estados iniciales (incluyendo aparatos de televisión, sortijas de diamantes e incluso gente) que evolucionan hacia el mismo estado final, al menos fuera del agujero negro. Sin embargo, en la visión de Laplace sobre el determinismo había una correspondencia exacta entre los estados iniciales y los finales. Si usted supiera el estado del universo en algún momento del pasado podría predecirlo en el futuro. De manera similar, si lo supiera en el futuro, podría deducir lo que habría sido en el pasado. Con el advenimiento de la Teoría del Cuanto en los años 20 del siglo pasado se redujo a la mitad lo que uno podía predecir pero aún dejó una correspondencia directa entre los estados del universo en diferentes momentos. Si uno supiera la función de onda en un momento dado, podría calcularla en cualquier otro.

    Sin embargo, la situación es bastante diferente con los agujeros negros. Uno se encontrará con el mismo estado fuera del agujero, independientemente de lo que haya lanzado dentro, a condición de que tenga la misma masa. Por lo tanto, no hay una correspondencia exacta entre el estado inicial y el estado final ya fuera del agujero negro. Habrá una correspondencia exacta entre el estado inicial y el final ambos fuera o ambos dentro del agujero negro. Sin embargo, lo importante es que la emisión de partículas y la radiación alrededor del agujero provocan una reducción en la masa del mismo y se empequeñece. Finalmente, parece que el agujero negro llega a la masa cero y desaparece del todo. Pero, ¿qué ocurre con todos los objetos que fueron lanzados al agujero y con toda la gente que o bien saltó o fue empujada? No pueden volver a salir porque no existe la suficiente masa o energía sobrante en el agujero negro para enviarlos fuera de nuevo. Puede que pasen a otro universo pero eso nos da lo mismo a los que somos lo suficientemente prudentes como para no saltar dentro de un agujero negro. Incluso la información de lo que cayó dentro del agujero no podría salir de nuevo cuando el agujero desaparezca por último. La información no se distribuye gratuitamente como bien sabrán aquellos de ustedes que paguen facturas telefónicas. La información necesita energía para transportarse, y no habrá suficiente energía de sobra cuando el agujero negro desaparezca.

    Lo que todo esto significa es que la información se perderá de nuestra demarcación del universo cuando se formen los agujeros negros para después desvanecerse. Esta pérdida de información implica que podemos predecir incluso menos de lo pensamos, partiendo de la base de la teoría cuántica. En esta teoría puede no ser factible predecir con certidumbre la posición y la velocidad de una partícula al mismo tiempo. Hay sin embargo una combinación de posición y velocidad que sí puede ser predicha. En el caso de un agujero negro, esta predicción específica concierne a los dos miembros de un par de partículas-antipartículas pero únicamente podemos detectar la partícula expulsada. No hay modo alguno, incluso en un principio, de poner de manifiesto la partícula que se precipita al agujero. Por lo tanto, por lo que sabemos, podría estar en cualquier estado. Esto significa que no podemos hacer ninguna predicción concreta acerca de la partícula que expulsa el agujero. Podemos calcular la probabilidad de que la partícula tenga esta o aquella posición o velocidad pero no podemos predecir con precisión una combinación de la posición y velocidad de sólo una partícula porque su velocidad y posición van a depender de la otra partícula, la cual no está bajo nuestra observación. Así que Einstein estaba sin lugar a dudas equivocado cuando dijo, “Dios no juega a los dados”. No sólo Dios juega definitivamente a los dados sino que además a veces los lanza a donde no podemos verlos.

    Muchos científicos son como Einstein en el sentido de que tienen un lazo emocional muy fuerte con el determinismo pero al contrario que Einstein han aceptado la reducción en nuestra capacidad para predecir que nos había traído consigo la teoría cuántica. Pero ya era mucho. A estos no les gustó la consiguiente reducción que los agujeros negros parecían implicar. Pensar que el universo es determinista, como creía Laplace, es simplemente inocente. Presiento que estos científicos no se han aprendido la lección de la historia. El universo no se comporta de acuerdo a nuestras preconcebidas ideas. Continúa sorprendiéndonos.

    Podría pensarse que no importa demasiado si el determinismo hizo aguas cerca de los agujeros negros. Estamos casi seguros de estar al menos a unos pocos años luz de agujero negro de cualquier tamaño pero según el Principio de Incertidumbre, cada región del espacio debería estar llena de diminutos agujeros negros virtuales que aparecerían y desaparecerían una y otra vez. Uno pensaría que las partículas y la información podrían precipitarse en estos agujeros negros y perderse. Sin embargo, como estos agujeros negros virtuales son tan pequeños (cien billones de billones más pequeños que el núcleo de un átomo) el ritmo al cual se perdería la información sería muy bajo. Esto es por lo que las leyes de la ciencia parecen deterministas, observándolas con detenimiento. Sin embargo, en condiciones extremas, tales como las del universo temprano o las de la colisión de partículas de alta energía, podría haber una significativa pérdida de información. Esto conduce a la imprevisibilidad en la evolución del universo.

    En resumen, de lo que he estado hablando es de si el universo evoluciona de manera arbitraria o de si es determinista. La visión clásica propuesta por Laplace estaba fundada en la idea de que el movimiento futuro de las partículas estaba determinado por completo, si su sabían sus posiciones y velocidades en un momento dado. Esta hipótesis tuvo que ser modificada cuando Heisenberg presentó su Principio de Incertidumbre el cual postulaba que no se podía saber al mismo tiempo y con precisión la posición y la velocidad. Sin embargo, sí que era posible predecir una combinación de posición y velocidad pero incluso esta limitada certidumbre desapareció cuando se tuvieron en cuenta los efectos de los agujeros negros: la pérdida de partículas e información dentro de los agujeros negros dio a entender que las partículas que salían eran fortuitas.

    Se pueden calcular las probabilidades pero no hacer ninguna predicción en firme. Así, el futuro del universo no está del todo determinado por las leyes de la ciencia, ni su presente, en contra de lo que creía Laplace. Dios todavía se guarda algunos ases en su manga.

    Es todo lo que tengo que decir por el momento. Gracias por escucharme.

    Fuente: [url=http://www.elmistico.com.ar/ciencia/hawking/dios_y_los_dados.htm]http://www.elmistico.com.ar/ciencia/hawkin…y_los_dados.htm[/url]

  4. Alestat7 dice:

    Teoría de supercuerdas
    De Wikipedia, la enciclopedia libre

    La teoría de supercuerdas es un esquema teórico para explicar todas las partículas y fuerzas fundamentales de la naturaleza en una sola teoría que modela las partículas y campos físicos como vibraciones de delgadas cuerdas supersimétricas que se mueven en un espacio-tiempo de más de 4 dimensiones.

    Una de las motivaciones esgrimidas por los teóricos de las supercuerdas es que el esquema es una de las mejores teorías candidatas para formular una teoría cuántica de la gravedad. La teoría de las supercuerdas es una taquigrafía de la teoría supersimétrica de cuerdas porque, a diferencia de la teoría de cuerdas bosónica, esta es la versión de la teoría de cuerdas que incorpora fermiones y supersimetría.

    Introducción
    La teoría de las supercuerdas comprende cinco teorías o formulaciones alternativas de teorías de cuerdas, combinadas en la que se han introducido requerimientos de supersimetría. El nombre teoría de cuerdas se usa actualmente como sinónimo ya que todas las teorías de cuerdas ampliamente estudiadas son, de hecho, teorías de supercuerdas.

    La idea fundamental es que la realidad son cuerdas que vibran en resonancia a una frecuencia de la longitud de Planck y en donde el gravitón sería una cuerda de espín 2 y masa nula.

    Recientemente se ha podido probar que varias de estas formulaciones son equivalentes y tras todas ellas podría existir una teoría unificada o teoría del todo. Las cinco teorías existentes no serían más que casos límite particulares de esta teoría unificada, denominada provisionalmente como Teoría M. Esta teoría M intenta explicar a la vez todas las partículas subatómicas existentes y unificar las cuatro fuerzas fundamentales de la naturaleza. Define el universo formado por multitud de cuerdas vibrantes, ya que es una versión de la teoría de cuerdas que incorpora fermiones y la supersimetría.

    El principal problema de la física actual es poder incorporar la fuerza de la gravedad tal y como la explica la teoría de la relatividad general al resto de las fuerzas físicas ya unificadas. La teoría de las supercuerdas sería un método de unificación de dichas teorías. La teoría está lejos de estar acabada y perfilada, ya que hay muchísimas variables sin definir, por lo que existen varias versiones de la misma.

    Antecedentes [editar]El problema de fondo en la física teórica es armonizar la teoría de la relatividad general, donde se describen la gravitación y las estructuras a gran escala (estrellas, galaxias, clusters), con la mecánica cuántica, donde se describen las otras tres fuerzas fundamentales que actúan a nivel atómico.

    El desarrollo de la teoría cuántica de campos de una fuerza invariable resulta en infinitas (y útiles) probabilidades. Los físicos han desarrollado técnicas matemáticas de renormalización para eliminar esos infinitos de tres de las cuatro fuerzas fundamentales -electromagnetismo, nuclear fuerte y nuclear débil- pero no de la gravedad. El desarrollo de la teoría cuántica de la gravedad debe, por lo tanto, venir de diferente manera que de los usados para las otras fuerzas.

    La idea básica es que los constituyentes fundamentales de la realidad son cuerdas de una longitud de Planck (cercano a 10?35 m) que vibran a frecuencias de resonancia. Cada cuerda en teoría tiene una única resonancia, o armonía. Diferentes armonías determinan diferentes fuerzas fundamentales. La tensión en la cuerda es del orden de las fuerzas de Planck (1044 N). El gravitón (nombre propuesto para la partícula que lleve la fuerza gravitacional), por ejemplo, es predicha por la teoría que sea una cuerda con amplitud cero. Otra idea clave de la teoría es que no pueden ser detectadas diferencias mensurables entre cuerdas que recapitulan sobre dimensiones pequeñas en sí mismas y muchas que se mueven en grandes dimensiones (p.e. que afectan a una dimensión de tamaño R iguales a una de tamaño 1/R). Las singularidades son evitadas porque las consecuencias observables de el “gran colapso” nunca alcanzan el tamaño cero. De hecho puede el universo comenzar un pequeño “gran colapso” de procesos, la teoría de cuerdas dice que el universo nunca puede ser más pequeño que el tamaño de una cuerda, a ese punto podría comenzar a expandirse.

    El problema de las dimensiones
    Aunque el universo físico observable tiene tres dimensiones espaciales y una dimensión temporal, nada prohíbe a una teoría describir un universo con más de cuatro dimensiones, especialmente si existe un mecanismo de “inobservabilidad aparente” de las dimensiones adicionales. Ése es el caso de las teoría de cuerdas y la teoría de supercuerdas que postulan dimensiones adicionales compactificadas y que sólo serían observables en fenómenos físicos que involucran altísimas energías. En el caso de la teoría de supercuerdas, la consistencia de la propia teoría requiere un espacio-tiempo de 10, 11 o 26 dimensiones. El conflicto entre la observación y la teoría se resuelve compactando las dimensiones que no se pueden observar en el rango de energías habituales. De hecho, la teoría de supercuerdas no es la primera teoría física que propone dimensiones espaciales extra; a principios de siglo se propuso una teoría geométrica del campo electromagnético y gravitatorio conocida como teoría de Kaluza-Klein que postulaba un espacio-tiempo de 5 dimensiones.

    La mente humana tiene dificultad visualizando dimensiones mayores porque solo es posible moverse en 3 dimensiones espaciales. Una manera de tratar con esta limitación es no intentando visualizar dimensiones mayores del todo sino simplemente pensando, al momento de realizar ecuaciones que describan un fenómeno, que se deben realizar más ecuaciones de las acostumbradas. Esto abre las interrogantes de que estos ‘numeros extra’ pueden ser investigados directamente en cualquier experimento (donde se mostrarían resultados en 1, 2, 2+1 dimensiones a científicos humanos). Así, a su vez, aparece la pregunta de si este tipo de modelos que se investigan en este modelado abstracto (y aparatos experimentales potencialmente imposibles) puedan ser considerados ‘científicos’. Las formas de seis dimensiones de Calabi-Yau pueden contar con dimensiones adicionales por la teoría de supercuerdas.

    Una teoría que la generaliza es la teoría de branas, en donde las cuerdas son sustituidas por constituyentes elementales de tipo “membrana”, de ahí su nombre. La existencia de 10 dimensiones es matemáticamente necesaria para evitar la presencia de taquiones, partículas más rápidas que la luz, y los “fantasmas”, partículas con probabilidad de existencia nula.

    Cantidad de teorías de supercuerdas
    Los físicos teóricos fueron perturbados por la existencia de cinco diferentes teorías de cuerdas. Esto aconteció bajo la denominada segunda revolución de supercuerdas en los años 1990 donde fueron descubiertas las 5 teorías de cuerdas, siendo diferentes casos limite de una única teoría: la teoría M.

    Teoría de Cuerdas
    Tipos Dimensiones Espaciales
    Detalles
    Bosonica 26 Solo bosones no fermiones, significa solo fuerzas, no materia, con cuerdas abiertas y cerradas; mayor defecto: una particula con masa imaginaria llamada taquión
    I 10 Supersimetría entre fuerza y materia, con cuerdas abiertas y cerradas, libre de taquiones, grupo de simetría SO(32)
    IIA 10 Supersimetría entre fuerza y materia, solo con cuerdas cerradas, libre de taquiones, fermiones sin masa que giran a ambas direcciones
    IIB 10 Supersimetría entre fuerza y materia, solo con cuerdas cerradas, libre de taquiones. fermiones sin masa que giran en una sola dirección
    HO 10 Supersimetría entre fuerza y materia, solo con cuerdas cerradas, libre de taquiones, heterótica, difieren entre cuerdas de movimiento derecho e izquierdo, grupo de simetría es SO(32)
    HE 10 Supersimetría entre fuerza y materia, solo con cuerdas cerradas, libre de taquiones, heterótica, difieren entre cuerdas de movimiento derecho e izquierdo, grupo de simetría E8×E8

    Las cinco teorías de supercuerdas consistentes son:

    La teoría de cuerdas Tipo I tiene una supersimetría en sentido diez-dimensional (16 supercargas). Esta teoría es especial en el sentido de que esta basada en una orientación abierta y cerrada, mientras el resto se basan en cuerdas con orientaciones cerradas.
    La teoría de cuerdas Tipo II tiene dos supersimetrías en sentido de 10 dimensiones (32 supercargas). Hay de hecho dos tipos de cuerdas Tipo II llamadas tipo IIA y IIB. Difieren principalmente en el hecho que la teoría IIA es no quiral (conservando la paridad), mientras que la teoría IIB es quiral (violando la paridad).
    La teoría de la cuerda heterótica está basada en un peculiar híbrido de una supercuerda de tipo I y una cuerda bosónica. Hay 2 tipos de cuerdas heteróticas que difieren en su diez-dimensional grupo de gauge: la cuerda heterótica E8×E8 y la SO(32). (el nombre heterotico SO(32) es un poco inexacta en el SO(32) del Grupo de Lie, las teorías son un cociente de Spin(32)/Z2 que no es equivalente a SO(32).)
    Las teorías quirales de gauge pueden ser inconsistentes en sus anomalías. Esto ocurre cuando un bucle del Diagrama de Feynman causa un rompimiento de la mecánica cuántica de la simetría de gauge. Anulando anomalías se limita a las posibles teorías de cuerdas.

    Integrando relatividad general con mecánica cuántica
    La relatividad general normalmente se refiere a situaciones que envuelven objetos masivos grandes en lejanas regiones del espacio-tiempo donde la mecánica cuántica se reserva para escenarios a escala atómica (regiones pequeñas de espacio-tiempo). Las dos son muy difícilmente usadas juntas, y el caso más común en donde se combina su estudio son los agujeros negros. Teniendo “picos de densidad” o máximo cantidades de materia posible en el espacio, y un área muy pequeña, las dos deben ser usadas en sincronía para predecir condiciones en ciertos lugares; aun cuando son usados juntos, las ecuaciones se desmoronan y brindan respuestas imposibles, tales como distancias imaginarias y menos de una dimensión.

    El mayor problema con su congruencia es que, a dimensiones menores a las de Planck, la relatividad general predice una certeza, una superficie fluida, mientras que la mecánica cuántica predice una probabilidad, una superficie deformada; que no son compatibles. La teoría de supercuerdas resuelve este requerimiento, remplazando la idea clásica de partículas puntuales con bucles. Esos bucles tendrían un diámetro promedio de una longitud de Planck, con variaciones extremadamente pequeñas, que ignora completamente las predicciones de la mecánica cuántica a dimensiones menores a las de Planck, y que para su estudio no toma en cuenta esas longitudes.

    Falsacionismo y teoría de supercuerdas

    La Teoría de cuerdas o la Teoría M podrían no ser falsables, según algunos críticos.[1] [2] [3] [4] ¿Habría que revisar el concepto de qué se considera científico o habría que desechar el falsacionismo propuesto por Popper como requisito para que una teoría pueda ser considerada científica? Si así fuera, ¿cómo sería posible delimitar con objetividad qué es ciencia y qué pseudociencia?Muchos científicos han declarado su preocupación de que la Teoría de cuerdas no sea falsable y que además, carezca de poder predictivo, y como tal, y siguiendo las tesis del filósofo de la ciencia Karl Popper, la Teoría de cuerdas sería equivalente a una pseudociencia.[5] [6] [7] [8] [9] [10]

    Tal y como se entiende en la actualidad, tiene un número gigantesco de posibles soluciones.[11]

    El filósofo de la ciencia Mario Bunge ha manifestado recientemente:

    La consistencia, la sofisticación y la belleza nunca son suficientes en la investigación científica.
    La Teoría de cuerdas es sospechosa (de pseudociencia). Parece científica porque aborda un problema abierto que es a la vez importante y difícil, el de construir una teoría cuántica de la gravitación. Pero la teoría postula que el espacio físico tiene seis o siete dimensiones, en lugar de tres, simplemente para asegurarse consistencia matemática. Puesto que estas dimensiones extra son inobservables, y puesto que la teoría se ha resistido a la confirmación experimental durante más de tres décadas, parece ciencia ficción, o al menos, ciencia fallida.
    La física de partículas está inflada con sofisticadas teorías matemáticas que postulan la existencia de entidades extrañas que no interactúan de forma apreciable, o para nada en absoluto, con la materia ordinaria, y como consecuencia, quedan a salvo al ser indetectables. Puesto que estas teorías se encuentran en discrepancia con el conjunto de la Física, y violan el requerimiento de falsacionismo, pueden calificarse de pseudocientíficas, incluso aunque lleven pululando un cuarto de siglo y se sigan publicando en las revistas científicas más prestigiosas.

    Mario Bunge, 2006.[12]
    La crítica principal de que es objeto la Teoría de cuerdas es de que sea, fundamentalmente, imposible de falsar, debido a su naturaleza intrínseca: tiene la suficiente flexibilidad matemática como para que sus parámetros se puedan moldear para encajar con cualquier tipo de realidad observada.[13] [14] Para ilustrar la confusa situación que domina este campo de investigación, baste citar el reciente escándalo Bogdanov, dos hermanos que consiguieron publicar en prestigiosas revistas científicas teorías absurdas y carentes de sentido. El físico alemán Max Niedermaier concluyó que se trataba de pseudociencia, escrita con una densa jerga técnica, para evitar el sistema de revisión por pares de la física teórica. Según el físico-matemático John Baez, su trabajo “es una mezcolanza de frases aparentemente plausibles que contienen las palabras técnicas correctas en el orden aproximadamente correcto. Pero no hay lógica ni cohesión en lo que escriben.” Según el físico Peter Woit en la prestigiosa revista Nature: “El trabajo de los Bogdanoff resulta significativamente más incoherente que cualquier otra cosa publicada. Pero el creciente bajo nivel de coherencia en todo el campo les permitió pensar que habían hecho algo sensato y publicarlo.”[15]

    citado en :http://es.wikipedia.org/wiki/Teor%C3%ADa_de_supercuerdas