|
De: IGNACIOAL (Mensaje original) |
Enviado: 20/08/2013 17:04 |
El Experimento EPR y el AZAR .
El Determinismo de Einstein , frente al Indeterminismo de Bohr
EINSTEIN : “Dios no juega a los dados”
BOHR : “Einstein, deja de decirle a Dios lo que debe hacer”
Dos físicos geniales Albert Einstein y Niels Böhr discreparon en sus teorizaciones científicas y tuvieron algunos enfrentamientos anecdóticos . Einstein era un fiel segudor de la visión de Laplace del Determinismo Científico . Mientras su colega Niels Bohr era partidario del Indeterminismo cuántico . Ambos tienen en común en que son conceptos ontológicos ( concernientes al SER ) , pero defienden argumentos distintos
ALBERT EINSTEIN / DETERMINISMO CIENTÍFICO . El determinismo supone procesos determinados por causas lineales . Implica que, independientemente de que se puedan conocer o no, siempre están perfectamente determinadas las posiciones y velocidades de las partículas en el universo en un instante dado del tiempo.Es siempre ABSOLUTO Y GLOBAL
Niega la LIBERTAD ( capacidad del ser humano para obrar según su propia voluntad, a lo largo de su vida ) , en las acciones humanas En el indeterminismo los conceptos de sistema, proceso y evento, juegan un papel fundamental, porque el AZAR es el resultado de una serie de causas no-lineales, que no están relacionadas.NIELS BOHR / INDETERMINISMO CUÁNTICO . Los acontecimientos no dependen de un proceso causal lineal , por necesidad , sino de un porceso no lineal , por AZAR , y por azar no es sin causas sino por CAUSAS NO COORDINADAS . Niega la fuerza de la necesidad absoluta de todos los procesos físicos y biológicos
Acepta el concepto antropológico de LIBRE ALBEDRIO . Nuestras acciones y decisiones no están determinadas, sino CONDICIONADAS ( por razones familiares , culturales - aprendizaje , sociales , familiares , laborales , jurídicas-legales ... )
"Si no somos capaces de hacer predicciones sobre el comportamiento de un núcleo atómico, imagínese cuánto más es el comportamiento fundamentalmente impredecible en todo el universo. Más allá de estos simples principios presumiblemente, cualquier historia alternativa del universo depende de los resultados de un número inimaginablemente grande de accidentes.". MURRAY GELL - MANN ( Descubridor del Quark - Premio Nobel de física 1969 ) .
Todo empezó en la conferencia de Solvay celebrada en 1927 , en Bruselas ( Bélgica ) Se cuenta que, a raíz de las discusiones sobre las implicaciones filosóficas de esta teoría, Einstein hizo su famosa objeción: “Dios no juega a los dados”, a lo que Bohr replicó, “Einstein, deja de decirle a Dios lo que debe hacer”.
PARA ALGUNOS LA FOTOGRAFÍA MÁS FAMOSA DE LA HISTORIA DE LA CIENCIA . QUINTA CONFERENCIA DE SOLVAY 1927 ( La fotografía ha sido coloreada con un procedimiento conocido como Maygrapefruit . Tenemos la oportunida de apreciar la Escena en color ) Acudieron los físicos más prestigiosos del mundo en ese momento , los padres de la Física cuántica y otros físicos reputados en otros campos .
|
|
|
Primer
Anterior
2 a 5 de 5
Siguiente
Último
|
|
¿ QUIÉN TENDRÍA LA RAZÓN ? - ¿ QUÉ ES EL AZAR ? :
El Experimento EPR
4:27 Paradoja De Albert Einstein
La paradoja de Einstein-Podolsky-Rosen, denominada «Paradoja EPR», consiste en un experimento mental propuesto por Albert Einstein, Boris Podolsky y Nathan Rosen en 1935. Es relevante históricamente, puesto que pone de manifiesto un problema aparente de la mecánica cuántica, y en las décadas siguientes se dedicaron múltiples esfuerzos a desarrollarla y resolverla. A Einstein (y a muchos otros científicos), la idea del entrelazamiento cuántico le resultaba extremadamente perturbadora. Esta particular característica de la mecánica cuántica permite preparar estados de dos o más partículas en los cuales es imposible obtener información útil sobre el estado total del sistema haciendo sólo mediciones sobre una de las partículas. Por otro lado, en un estado entrelazado, manipulando una de las partículas, se puede modificar el estado total. Es decir, operando sobre una de las partículas se puede modificar el estado de la otra a distancia de manera instantánea.
Es bien sabido que Einstein, a pesar de haber sido uno de los genios que contribuyeron a establecer la física cuántica mediante su artículo sobre el efecto fotoeléctrico, que le valió la obtención del Premio Nobel, fue durante toda su vida un firme detractor de las consecuencias filosóficas de la misma que se seguían de la interpretación de Copenhague.
Por el contrario, él era un fiel seguidor de la visión de Laplace del determinismo científico, que implica que, independientemente de que se puedan conocer o no, siempre están perfectamente determinadas las posiciones y velocidades de las partículas en el universo en un instante dado del tiempo. Por lo tanto, nunca pudo aceptar el indeterminismo cuántico, cuyo más firme partidario fue Niels Bohr, con quien mantuvo fuertes controversias.
Podemos datar en la Conferencia Solvay de 1927, celebrada en Bruselas, el origen de la misma, donde la anécdota cuenta que, a raíz de las discusiones sobre las implicaciones filosóficas de esta teoría, Einstein hizo su famosa objeción: “Dios no juega a los dados”, a lo que Bohr replicó, “Einstein, deja de decirle a Dios lo que debe hacer”.
Así pues, Einstein, descontento con esa aparente aleatoriedad en la naturaleza descrita por algunas interpretaciones de la física cuántica, apostó por la existencia de las variables ocultas como la forma más obvia de incorporar el Principio de Incertidumbre en la física, sin por ello renunciar al cómodo determinismo laplaciano, y fruto de ello fue una autentica batería de objeciones a las interpretaciones de Bohr y otros defensores de las tesis que se iban conformando como “oficialistas”. En general, casi todas ellas contribuyeron, contra lo esperado por Einstein a asentar todavía más la que pasó a llamarse interpretación de Copenhague, mediante el esfuerzo intelectual logrado al refutar las objeciones einstinianas.
Entre ellas, podemos destacar por las repercusiones posteriores, y porque durante mucho tiempo estuvo a punto de lograr sus objetivos, el famosísimo argumento EPR, propuesto por Albert Einstein, Boris Podolsky y Nathan Rosen en 1935, en un artículo publicado el 15 de Mayo de ese año en la revista Physical Review. Einstein figuraba como el primer autor del trabajo, acompañado por dos investigadores de postdoctorado del Instituto de Estudios Avanzados, Podolsky y Rosen. El título del mismo era “Can Quantum Mechanical Description of Physical Reality Be Considered Complete?” (¿”Puede considerarse completa la descripción de la realidad física que da la Mecánica Cuántica”?).
Sobre los autores, además, hay muchas notas curiosas, comenzando por su condición de judíos de tendencias progresistas. Así, Podolsky, nacido en Rusia y emigrado a los EE.UU., fue acusado posteriormente de espionaje a favor de la URSS, mientras que Rosen, con posterioridad a este artículo, trabajó en la Universidad de Kiev, también en la URSS durante dos años, después volvió a los EE.UU., para emigrar finalmente a Israel donde contribuyó a fundar la Academia de Ciencias y Humanidades.
En cuanto al artículo en sí, la redacción es de Podolsky y fue enviado para su publicación a Physical Review, que lo aceptó para su publicación sin cambios, sin que Einstein viera la versión final, por lo que el mismo tuvo algunas quejas. Así, en una carta a Schrödinger dice:
Por razones de lenguaje, este artículo fue escrito por Podolsky tras varias discusiones. Con todo, no salió todo lo bien que yo quería originalmente; más bien, el tema esencial estaba, por decir algo, cubierto por el formalismo [Gelehrsamkeit]. (Carta de Einstein a Erwin Schrödinger, 19 de junio de 1935. In Fine 1996, p. 35.)
El argumento EPR no pretendía mostrar que la Teoría Cuántica fuese incorrecta, sino “incompleta”, en el sentido de que no era una descripción fiel de la realidad, y que, por lo tanto, debía completarse introduciendo una serie de elementos, que Einstein denominó “variables ocultas”, y que, debidamente acomodados dentro del formalismo de la teoría, permitiesen elaborar predicciones deterministas no probabilistas. Esta actitud provenía de la idea de Einstein de que las probabilidades cuánticas tenían un origen subjetivo, y que aparecían como consecuencia de carecer de una información completa relativa a las propiedades de los sistemas estudiados. Lo que le llevó a no aceptar nunca lo que denominó fantasmagóricas acciones a distancia (spooky actions at a distance).
La descripción del argumento EPR se basa en el análisis de un experimento mental, es decir, un experimento conceptualmente consistente, aunque imposible de llevar a la práctica, al menos en el momento histórico en que se plantea.
En esencia, el experimento planteado consiste en dos partículas que interactúan alcanzando un estado denominado “entrelazado” (entangled). Tras los cual, dos observadores reciben cada una de las mismas, llamadas A y B. Si uno de ellos mide, por ejemplo, el spin de la partícula A y es “arriba”, entonces sabe cuál es el spin de la B, que será “abajo”. Pero la cuestión es determinar si dichos valores existían con anterioridad a la observación, o no. Dicho de otra forma:
- Interpretación de Copenhague. El spin de las dos partículas A y B no estaba predeterminado, estando ambas en una superposición de “arriba” y “abajo”. Al observar una de ellas, el sistema colapsa, y de manera aleatoria, alcanza cada una de ellas uno de los dos posibles valores.
- Interpretación de Einstein. El spin de cada partícula A y B estaba predeterminado, en forma de una variable oculta cuyo valor desconocemos. Así, una está en “arriba” y la otra en “abajo”. Al observar una de ellas, simplemente revelamos su valor preexistente, y conocemos el valor de la otra.
Es evidente que la interpretación de Einstein coincide con nuestro sentido común. Pero aún hay más, pues a lo anterior, todavía se añade el que las partículas pueden separarse tanto como se desee, por ejemplo, cada una en un extremo de la galaxia, y de tal forma que al observar una de ellas, entonces, de manera instantánea, la otra alcanza también su valor. ¿Cómo logra hacerlo? ¿Viaja dicha información a mayor velocidad que la luz? Estas paradojas de esas “acciones a distancia” eran, para Einstein, “cosas de duendes” en un sentido nada amable, pues algo que no precisa el transcurso del tiempo es algo que no puede estar en la esfera de la física, y por tanto es pura metafísica, a la que combatió con todas sus fuerzas.
El experimento EPR, durante un tiempo, fue un argumento bastante convincente en contra de los postulados de Bohr, el cual sólo tenía el argumento de que las matemáticas funcionaban para oponerse al mismo. Como durante ese tiempo no hubo manera de llevar a la práctica el experimento para determinar quien llevaba razón, sólo cabía echar mano del sentido común, que parecía estar de parte de Einstein.
Sin embargo era Einstein el equivocado. Una nueva formulación matemática fue llevada a cabo por John S. Bell, un físico del CERN en Suiza, que ideó un experimento que podía ser llevado a cabo, y que permitiría poder comprobar con certeza quien tenía la razón en esta duradera controversia. Para entonces, el año 1964, la teoría cuántica ya era lo suficientemente madura como para haberse distinguido de todas las otras teorías físicas previas, al punto de que la física anterior a 1900 era denominada “física clásica” y la física descubierta después de 1900 (relatividad y teoría cuántica, fundamentalmente) fue llamada “física moderna”. Así que, en cierto sentido, la historia de la ciencia está separada en dos partes; por un lado los primeros 46 siglos (si comenzamos, por decir algo, con Imhotep que construyó la primera pirámide, como el primer científico histórico conocido); y el último siglo, con la física cuántica por el otro.
La idea genial de Bell era no considerar un simple par de partículas, sino tratar de manera estadística un conjunto suficientemente grande, y establecer unas correlaciones que diferían en sus resultados, con diferentes predicciones para las hipótesis de Einstein y de Bohr. Con esta nueva formulación, el experimento fue llevado a cabo por Aspect, Dalibard y Roger en 1982, y supuso, después de cuarenta y siete años, la materialización práctica de aquel experimento mental expuesto en el artículo de 1935.
Para ello se partía de átomos de calcio en forma de gas, excitados por un rayo láser, como emisor de pares de fotones entrelazados. De entre ellos, algunos de los pares emitían sus dos componentes en direcciones opuestas, hacia donde estaban situados sendos filtros de polarización y detectores. Variando la inclinación de los filtros, las predicciones de los resultados eran distintas, lo que se denominó “desigualdades de Bell“, y así, ambas predicciones podían ser contrastadas con lo que tenía lugar en la realidad en experimentos controlados en el laboratorio.
Simplificando, quizá en exceso, podríamos decir que el hecho de realizar medidas en uno de los lados debía producir unas determinadas influencias medibles en el otro, si la interpretación de Copenhague era cierta, mientras que ambas medidas deberían ser independientes si lo era la hipótesis de Einstein. Simplificando aún más, y extrapolando al mundo macroscópico para visualizarlo mejor, eso sería similar, y tan asombroso, como el hecho de que yo bebiera de un vaso de cerveza, y con ello bajara el nivel en el del vecino. No obstante, y debido a la reversibilidad de las propiedades cuánticas, eso no altera las leyes de conservación puesto que, al beber de su cerveza el vecino, bajaría mi nivel en la misma medida, si ambos vasos estuvieran entrelazados.
Finalmente, la mecánica cuántica ha cambiado radicalmente la noción que tenemos de la realidad, lo cual, también, implica una nueva noción del concepto de causalidad que es posible que tenga profundas implicaciones, incluso de naturaleza filosófica. La ciencia clásica se construyó con el método cartesiano de analizar el mundo descomponiéndolo en partes, y uniendo después esas partes de acuerdo a leyes causales: el reduccionismo. La figura determinista del universo que así resulta estaba íntimamente relacionada con la imagen de la naturaleza funcionando como un reloj preciso, idea muy querida por Einstein. Sin embargo, en física cuántica esa figura mecánica y determinista ya no es posible. En palabras de Hawking: “Dios juega a los dados con el universo. Toda la evidencia lo señala como un jugador empedernido, que tira los dados siempre que tiene ocasión”. Podríamos añadir que, además, y como jugador honrado, no juega con ventaja y hasta él mismo desconoce el resultado que se obtendrá.
Como dijo el propio Bohr, quien no esté impactado con la teoría cuántica es que no la ha entendido. No obstante estas maravillas desconcertantes parece que, últimamente, también dan lugar para justificar la charlatanería en la última moda new age, donde los curanderos tradicionales se agarran a este nuevo y sugerente concepto, y ya tenemos hasta explicaciones cuánticas para pseudomedicinas como la homeopatía. Hoy, como siempre, aquello que no se entiende se confunde con la magia, pero también, como siempre, la ciencia es aún más maravillosa que la más fecunda imaginación, y nuevos retos como la computación cuántica, que surge de este extraordinario experimento, nos proporcionarán nuevos avances tecnológicos que mejoraran nuestra comprensión del universo, a la vez que nos producirán nuevos servicios para hacer más agradables y llevaderas nuestras vidas.
|
|
|
|
¿ QUÉ ES EL AZAR ?
El cálculo de probabilidades nos da las leyes de un sistema que se puede clasificar como aleatorio, por lo que el cálculo en sí mismo es determinista, aunque de forma diferente al determinismo fisicoclásico. Mientras que éste se refiere al determinismo de objetos individuales, las probabilidades se refieren al determinismo de conjuntos
El azar es una causalidad presente en diversos fenómenos que se caracterizan por causas complejas y no lineales. Dependiendo del ámbito al que se aplique, se pueden distinguir cuatro tipos de azar:
Azar en matemáticas. En matemáticas, puede existir series numéricas con la propiedad de no poder ser obtenidas mediante un algoritmo más corto que la serie misma. Es lo que se conoce como aleatoriedad. La rama de las matemáticas que estudia este tipo de objetos es la teoría de la probabilidad. Cuando esta teoría se aplica a fenómenos reales se prefiere hablar de estadística.
Azar en la física. Los sistemas de la física pueden incluir procesos deterministas y también indeterministas, es decir azarosos. En los sistemas indeterministas no se puede determinar de antemano cuál será el suceso siguiente, como sucede en la desintegración de un núcleo atómico. Esta dinámica, azarosa, es intrínseca a los procesos que estudia la mecánica cuántica, es decir aquellos subatómicos. Dentro de los procesos deterministas, también se da el azar en la dinámica de sistemas complejos impredecibles, también conocidos como sistemas caóticos.
Azar en biología. Las mutaciones genéticas son generadas por el azar. Las mutaciones se conservan en el acervo genético, aumentando así las oportunidades de supervivencia y reproducción que los genes mutados confieren a los individuos que los poseen. Normalmente las características de un organismo se deben a la genética y al entorno, pero también las recombinaciones genéticas son obra del azar.
Azar como encuentro accidental. [cita requerida] Esta situación se considera azar porque los procesos que coinciden son independientes, no hay relación causal entre ellos, aunque cada uno tenga una causa que actúe de modo necesario. Así, un macetero cae por una causa necesaria: la gravedad; pero es azaroso que en su trayectoria coincida con un peatón.
Azar frente a no predictibilidad Caos determinista se refiere a fenómenos que permiten cierta predictibilidad a nivel global, pero que analizados a pequeña escala son impredecibles. Se trabaja con descripciones estadísticas de conjuntos de grandes cantidades de elementos, cada uno de ellos impredecible de manera individual pero no así globalmente. En física estadística, por ejemplo, este concepto se puede encontrar en la interpretación estadística de Boltzmann de la segunda ley de la termodinámica. Los sistemas turbulentos son aquellos cuya evolución no es predecible a corto plazo debido a que variaciones infinitesimales en las condiciones provocan cambios exponenciales. Aleatoriedad y no predictibilidad en estos casos no son equivalentes. Éstos son un ejemplo claro de complejidad.
Cuando tratamos el tema del azar en un sentido cotidiano, por lo general, suele ser inquietante el significado que le damos a esta palabra, que no tenemos nada claro. En una primera aproximación a este término, el azar es simplemente el intento de poner orden en lo desconocido. Es decir, es intentar eliminar, tanto como se pueda, la ignorancia sobre determinados sucesos, y revestir lo que queda de un barniz matemático.
Todo el mundo está familiarizado, o cree estarlo, con la palabra azar, y pretendemos tener, al menos, alguna idea de su significado. Pero eso no es tan obvio, y bastaría hacer una sencilla encuesta entre las personas cercanas para comprobar que no todos serán capaces de dar esbozos del concepto. No obstante, podrán obtenerse respuestas del tipo “El azar ocurre cuando suceden cosas inesperadas”. Lo que viene a ser el reconocimiento claro de que se trata de una medida del desconocimiento.
Una definición más formal podría ser la siguiente:
"El azar es el agente que actúa definiendo un evento a posteriori de un experimento a partir de un conjunto de sucesos posibles a priori ".
Es decir, podemos considerar que un experimento sucede por azar si su resultado final no se puede determinar a priori de entre un conjunto de resultados posibles.
Dentro de los sucesos que podríamos caracterizar como gobernados por el azar, a su vez, podemos distinguir dos fenómenos diferenciados:
- El azar ontológico, en el cual la aleatoriedad forma parte del ser. Se considera esta situación cuando existen procesos que son irreductiblemente aleatorios, independientemente del conocimiento que tengamos del propio sistema, de forma que no se podrá reducir a causas deterministas.
- El azar epistemológico es aquel que se produce por el desconocimiento, bien sea por ignorancia o por incapacidad, para tratar sistemas complejos, que en principio responden a causas de naturaleza determinista.
Tradicionalmente, en la ciencia surgida de la Ilustración y hasta principios del siglo XX, se consideró que todo el azar era de tipo epistemológico, y que no existía el azar de tipo ontológico. Esto era así tanto para los partidarios del naturalismo, sosteniendo que todo era reducible a causas naturales, aunque fuesen desconocidas, y que veían dicha naturaleza como compuesta únicamente de causas físicas, y por tanto materia, sujeta a las propias leyes físicas. Pero también para los dualistas, que además de la materia sostenían la existencia de elementos de naturaleza metafísica, y en particular divina. Obviamente, un azar de tipo ontológico es incompatible con la aceptación de un ente entre cuyos atributos se encuentra el de omnisciente, que todo lo sabe.
Esta posición completamente determinista queda reflejada en los trabajos de Pierre Simon de Laplace, quien definió el primer corpus de conocimiento sobre este tema en su obra “Théorie analytique des probabilites“, publicada en 1820 y donde ya se establece esta disciplina de manera rigurosa, que se inició poco antes con los trabajos pioneros de Pascal y Fermat.
En este tratado ya enuncia su famosa regla de Laplace, que todo el que haya pasado por una enseñanza secundaria conoce: Si un experimento cualquiera puede dar lugar a un número finito de resultados posibles, y no existe ninguna razón que privilegie unos resultados en contra de otros, se calcula la probabilidad de un suceso aleatorio A, como el cociente entre el número de casos favorables a A, y el de todos los posibles resultados del experimento. El cociente entre los casos favorables dividido por los casos posibles.
En esa obra, la regla indicada aparece como el principio número uno de una serie de 10, que rigen todo el cálculo de probabilidades en las diferentes situaciones posibles. También, dentro del principio número 6 se ocupa de un argumento original de Pascal, que desde entonces es conocido como la "apuesta de Pascal" presentado como una nueva prueba de la existencia divina.
Dentro del estudio hace notar que el cociente entre el número de nacimientos de niños y de niñas difiere muy poco de la unidad. Y también hace notar que los fenómenos que dependen del azar, al multiplicarse, manifiestan una tendencia a aproximarse incesantemente a relaciones fijas que coinciden con las leyes de la probabilidad que expone, con el enunciado de la ley general de la probabilidad de los resultados indicados por un gran número de observaciones: “La integral tomada entre unos límites dados, y dividida por la misma integral extendida al infinito tanto positivo como negativo, expresaría la probabilidad de que la discrepancia de la verdad esté comprendida entre dichos límites”, la antesala de las leyes de los grandes números, que da lugar a la aplicación de rigurosos principios matemáticos para poner orden en este ámbito de lo desconocido. Además, también le da pie a investigar la aplicación del cálculo de probabilidades a la búsqueda de las causas de los fenómenos, mediante el esbozo de lo que serían más adelante las correlaciones.
|
|
|
|
En definitiva, del estudio del cálculo de probabilidades, Laplace se reafirma en su determinismo férreo, negando la existencia de un azar de características ontológicas. Así, cuando decimos que al lanzar una moneda tiene una probabilidad de 1/2 de salir cara, lo que queremos decir es que si repetimos el experimento un número de veces muy elevado, el cociente entre el número de caras y el total de los experimentos se aproxima a ese valor. No obstante, el propio Laplace afirma que, desde el instante en que la moneda se lanza, debido a la fuerza del impulso, a su dirección, a los rozamientos, y a la acción de la ley de la gravedad, está completamente predeterminado el resultado del experimento, si bien nos es completamente imposible realizar los cálculos pertinentes.
En ese sentido, para ilustrar sus ideas propuso que si pudiera existir un ser con capacidades sobrehumanas pero no sobrenaturales, es decir, capacidades superiores a la de cualquier persona pero que no violan ninguna ley fundamental de la Naturaleza, un ser que desde entonces es conocido como el “demonio de Laplace“, sería capaz de predecir con toda exactitud el comportamiento del sistema en cualquier tiempo futuro. En otras palabras, si el mundo obedeciera las leyes de Newton sería completamente determinista, y así, el citado demonio, sería capaz de conocer la posición y velocidad de todas las partículas del Universo en cualquier momento dado. Un demonio con estas capacidades, sobrehumanas pero no sobrenaturales, conocería el devenir de todo lo que existe, y conocería el más leve movimiento de cualquier cosa o persona que viviera en los próximos cien mil millones de años.
Por tanto, el azar en el sentido laplaciano del término, corresponde con el que hemos denominado como epistemológico. Así, hasta el siglo XX todo estaba claro, el mundo es determinista y la estadística es un simple truco que usamos para paliar nuestro desconocimiento o nuestra incapacidad de calcular cosas excesivamente complejas. Sin embargo a comienzos del siglo XX todo cambió, con el advenimiento de la mecánica cuántica, en donde se defiende que el resultado de algunos experimentos no se puede predecir con exactitud, sino sólo las probabilidades, no ya por desconocimiento, sino por características inherentes a la propia naturaleza.
Según la que se denominó como interpretación de Copenhague de la mecánica cuántica, en un experimento controlado en hasta sus más mínimos detalles, siempre hay un grado de aleatoriedad en el resultado con esas características. Muchos procesos físicos de carácter cuántico podrían ser irreductiblemente aleatorios, como las leyes de la desintegración atómica, que pueden predecir el número de núcleos de un cuerpo radiactivo que se desintegrarán en un período dado de tiempo, pero no cuándo lo hará cada uno de los núcleos concretos.
Es evidente que nos podemos plantear que eso también sea a causa de nuestro desconocimiento, y de hecho, esa fue siempre la primera opción. Tanto Einstein como Schrödinger, entre otros pioneros, defendían que había que completar la teoría para poder determinar así los resultados de manera exacta. Pero se equivocaban. Dicha interpretación del azar cuántico como desconocimiento se denominó de las “variables ocultas“, en el sentido de que debían existir unas variables cuyo valor no podíamos conocer, pero que estaban predeterminadas, en la misma forma que opera el mundo físico clásico. El mayor exponente de esta interpretación fue el artículo que publicó Einstein, junto a sus dos ayudantes, Podolsky y Rosen, donde proponían lo que se denominó experimento EPR, y que en su publicación inicial el año 1936 resultó demoledor para la interpretación de Copenhage.
En esencia, el experimento planteado consiste en dos partículas que interactúan alcanzando un estado denominado “entrelazado” (entangled). Tras los cual, dos observadores reciben cada una de ellas, llamadas A y B. Si uno de ellos mide, por ejemplo, el spin de la partícula A y es “arriba”, entonces sabe cuál es el spin de la B, que será “abajo”. Pero la cuestión es determinar si dichos valores existían con anterioridad a la observación, o no. Dicho de otra forma:
- Interpretación de Copenhague. El spin de las dos partículas A y B no estaba predeterminado, estando ambas en una superposición de “arriba” y “abajo”. Al observar una de ellas, el sistema colapsa, y de manera aleatoria, cada una de ellas alcanza uno de los dos posibles valores.
- Interpretación de Einstein. El spin de cada partícula A y B estaba predeterminado, en forma de una variable oculta cuyo valor desconocemos. Así, una está en “arriba” y la otra en “abajo”. Al observar una de ellas, simplemente revelamos su valor preexistente, y conocemos el valor de la otra.
Es evidente que la interpretación de Einstein es la que coincide con nuestro sentido común. Pero aún hay más, pues a lo anterior, todavía se añade el que las partículas pueden separarse tanto como se desee, por ejemplo, situar cada una en un extremo de la galaxia, y de tal forma que al observar una de ellas, entonces y de manera instantánea, la otra alcanza también su valor correspondiente. ¿Cómo logra hacerlo? ¿Viaja dicha información a mayor velocidad que la luz? Estas paradojas de esas “acciones a distancia” eran, para Einstein, “cosas de duendes” en un sentido nada amable, pues algo que no precisa el transcurso del tiempo es algo que no puede estar en la esfera de la física, y por tanto es pura metafísica, a la que combatió con todas sus fuerzas.
El experimento EPR, durante un tiempo, fue un argumento bastante convincente en contra de los postulados de Niels Bohr como avalista principal de la interpretación de Copenhage, el cual sólo tenía el argumento de que las matemáticas funcionaban para oponerse al mismo. Como durante mucho tiempo no hubo manera de llevar a la práctica el experimento para determinar quién llevaba razón, sólo cabía echar mano del sentido común, que parecía estar de parte de Einstein.
|
|
|
|
Esta nueva concepción del azar, diferente del considerado en la manera clásica, tiene su aplicación únicamente a escalas subatómicas, donde operan las leyes de la mecánica cuántica, y en particular a las escalas donde tiene lugar el Principio de Indeterminación de Heisenberg. Este tipo de azar no es trasladable, de manera directa, a fenómenos macroscópicos, lo que daría lugar a paradojas que desafían por completo, no ya al sentido común sino a la propia realidad. Así, es asumible que un determinado electrón, funcionando en su naturaleza de onda, pueda atravesar en el mismo instante dos rendijas diferentes, y sin perder su cualidad de partícula indivisible, lo que evidentemente contraría toda lógica de ocurrir con objetos macroscópicos. De la misma forma, volviendo al caso de los núcleos que se desintegran, es imposible saber si en un determinado tiempo un núcleo se desintegrará o no, pues eso ocurrirá, sin ningún tipo de causa, y con una determinada probabilidad de acuerdo a un azar intrínseco a su naturaleza; no obstante, cuando se tiene un conjunto muy elevado de ellos, que conforman un cuerpo físico manipulable, podemos predecir con rigurosa exactitud cual es la cantidad total de materia que se habrá desintegrado transcurrido un cierto tiempo, de tal forma, que el azar inicial ha sido transformado en una ley física de carácter necesario, y se ha recuperado, en cierta forma, el determinismo clásico del mundo físico.
Por todo ello, podemos concluir que existen dos tipos de significado que podemos darle al azar, cuando nos referimos a él desde un punto de vista científico. En primer lugar, un azar de características epistemológicas, que ocurre a escalas macroscópicas, procedente de nuestra incapacidad para comprender todas las variables que aparecen en procesos cuya naturaleza es determinista, y que por tanto representa una medida del desconocimiento del sistema, sin que ello impida que los sucesos en el mismo sucedan de una manera necesaria, atendiendo a las leyes naturales implicadas. Y por otro lado, existe otro tipo de azar, de características ontológicas, inherente a la propia naturaleza, y que tiene su efecto sólo a escala microscópica, donde operan las leyes de la mecánica cuántica. Este azar no es trasladable de manera directa a fenómenos macroscópicos, si bien es origen de diversos fenómenos que ocurren en ese ámbito.
Sin embargo era Einstein el equivocado. Una nueva formulación matemática fue llevada a cabo por John S. Bell, un físico del CERN en Suiza, que ideó un experimento que podía ser llevado a cabo, y que permitiría poder comprobar con certeza quién tenía la razón en esta duradera controversia. La idea genial de Bell era no considerar un simple par de partículas, sino tratar de manera estadística un conjunto suficientemente grande, y establecer unas correlaciones que diferían en sus resultados, con diferentes predicciones para las hipótesis de Einstein y de Bohr, y que pasaron a denominarse desigualdades de Bell. Con esta nueva formulación, el experimento fue llevado a cabo, por primera vez, por Alain Aspect y otros en París en 1982, y supuso, después de cuarenta y siete años, la materialización práctica de aquel experimento mental expuesto en 1936, que terminó por quitar la razón a Einstein. Asimismo, ha sido reiterado en innumerables ocasiones dando siempre el mismo resultado, mostrando que "Dios no sólo juega a los dados, sino que es un jugador honrado que desconoce los resultados que saldrán ". ( ES UN DECIR . Si fuese así ... ¿de que tipo de Dios estamos tratando ? ).
FERNANDO CUARTERO Prof. Informática en la Universidad de Castilla - La Mancha
1-http://es.wikipedia.org/wiki/Determinismo DETERMINISMO
2-http://es.wikipedia.org/wiki/Indeterminismo INDETERMINISMO
3-http://www.hablandodeciencia.com/articulos/2012/07/31/el-experimento-epr-einstein-podolsky-rosen/ EL EXPERIMENTO EPR / EINSTEIN - PODOLSKI - ROSEN / FERNANDO CUARTERO - Prof. Informática en la universidad de Castilla - La Mancha .
4-http://www.hablandodeciencia.com/articulos/2013/01/07/que-es-el-azar/ ¿ QUÉ ES EL AZAR ? . FERNANDO CUARTERO - Prof. Informática en la Universidad de Castilla - La Mancha .
5-http://es.wikipedia.org/wiki/Condicionamiento CONDICIONAMIENTO / CLÁSICO , OPERANTE , APRENDIZAJE VICARIO .
6-http://es.wikipedia.org/wiki/Libre_albedr%C3%ADo LIBRE ALBEDRÍO
7-http://www.taringa.net/posts/ciencia-educacion/16357129/Conferencia-Solvay-1927.html CONFERENCIA SOLVAY 1927 / LA FOTOGRAFÍA MÁS FAMOSA SE LA HISTORIA D LA CIENCIA - TARINGA .
|
|
|
Primer
Anterior
2 a 5 de 5
Siguiente
Último
|