|
General: Complejidad irreductible y especificada
Elegir otro panel de mensajes |
|
De: Cajeli (Mensaje original) |
Enviado: 05/02/2015 03:03 |
El criterio de complejidad irreductible es una apreciación surgida en microbiología, se refiere al número básico de partes que integran un sistema bilógico para que sea útil de la manera en que está especificado, o como está programado, por lo cual no podía provenir de organismos más simples fuera de ese conjunto que cumple su función. Este argumento no tiene refutaciones claras, debido a que se relaciona también con el concepto de la complejidad especificada, indica cómo las fuerzas solas de la naturaleza no podían programar las funciones que desempeñan los organismos más simples, aunque evolucionistas como Leslie Orgel sostuvieron que esta programación ya estaba en los caldos prebióticos.
La complejidad irreductible y especificada ya estaba en los primeros organismos, ese es el asunto. Fueron esas especificaciones iniciales las que permitieron acoples más elaborados aún para lograr más funciones; como ocurre en las proteínas que su estructura básica es tridimensional, de acuerdo con la función que desempeña, y a partir de allí puede establecer más enlaces ampliando su funcionamiento y logrando especializaciones, debido a que su programación inicial lo permite para que se haga de forma eficiente.
Existe una relación entre la secuencia, la estructura, estabilidad, y la función, aun en los modelos más básicos de las proteínas. Como todas las secuencias son igualmente improbables, toda secuencia aleatoria finalmente resulta en cualquiera, podría alegarse; pero no es la baja probabilidad después de todo, la prueba sería repetir la misma serie por segunda vez, y consecutivamente hasta lograr su estabilidad y la función que cumple.
|
|
|
Primer
Anterior
2 a 5 de 5
Siguiente
Último
|
|
De: Cajeli |
Enviado: 05/02/2015 03:23 |
Definiendo a la Complejidad Especificada —William Dembski
El término Complejidad Especificada tiene más de treinta años. Según mi conocimiento, Leslie Orgel, conocido por sus investigaciones sobre el origen de la vida, fue el primero en usarlo. La expresión apareció en su libro The Origins of Life, publicado en 1973, en donde él escribió, “Los organismos vivientes se distinguen por su complejidad especificada. Los cristales como el granito no califican como vivientes debido a su carencia de complejidad; mezclas azarosas de polímeros tampoco califican, por su carencia de especificidad”. Más recientemente, en su libro The Fifth Miracle, publicado en 1999, Paul Davies identifica a la complejidad especificada como la clave para resolver el problema del origen de la vida:
“Los organismos vivientes son misteriosos no por su complejidad per se, sino por su ajustada complejidad especificada. Para entender bien cómo la vida surgió de lo inanimado, no solo precisamos saber cómo es que llegó a concentrarse la información biológica, sino también como la información biológicamente útil vino a ser especificada”.
Sin embargo, ni Orgel ni Davies nos han aportado un cálculo analítico de la complejidad especificada. He provisto tal cálculo en The Design Inference (1998) y su continuación, No Free Lunch (2002). Aquí meramente lo tocaré de modo superficial. Orgel y Davies usaron el término complejidad especificadavagamente. En mi propia investigación lo he formalizado como un criterio estadístico para identificar los efectos de la inteligencia. La complejidad especificada, como lo desarrollo aquí, incorpora cinco ingredientes principales:
· Una versión probabilística de la complejidad, aplicable a los eventos.
· Patrones condicionalmente independientes.
· Recursos probabilísticos, los cuales vienen en dos formas: replicacionales y especificacionales.
· Una versión descriptiva de la complejidad, aplicable a los patrones.
· Un límite probabilístico universal.
Echemos un breve vistazo.
Complejidad Probabilística. Se puede ver a la probabilidad como una forma de complejidad. A fin de entender esto, considere una cerradura con combinación. Cuando mayor sea la cantidad de combinaciones posibles de la cerradura, más complejo será el mecanismo y, consecuentemente, mayor la improbabilidad de que el mecanismo sea abierto por azar. Por ejemplo, una cerradura con combinación cuyo dial se encuentra numerado del cero al treintainueve y que debe ser girada en tres direcciones alternativas tendrá 64,000 (es decir, 40 x 40 x 40) combinaciones posibles. Este número ofrece una medida de la complejidad para la cerradura con combinación, lo que también corresponde a 1 en 64,000 de probabilidad de que la cerradura sea abierta por azar (asumiendo que no se tiene ningún conocimiento previo de la combinación correcta). Una cerradura con combinación más compleja cuyo dial se encuentra numerado desde el cero al noventainueve y que debe ser girada en cinco direcciones alternativas tendrá 10,000,000,000 (es decir, 100 x 100 x 100 x 100 x 100) combinaciones posibles y por lo tanto 1 en 10,000,000,000 de probabilidad de ser abierta por azar. Por consiguiente, la complejidad y la probabilidad varían inversamente: cuanto mayor la complejidad, menor la probabilidad. La complejidad en complejidad especificada se refiere a la improbabilidad.
Patrones condicionalmente independientes. Los patrones que en presencia de complejidad o improbabilidad implican a una inteligencia diseñadora deben ser independientes del evento cuyo diseño está en cuestión. Es crucial aquí que los patrones no sean impuestos artificialmente sobre los eventos luego del hecho. Por ejemplo, si un arquero dispara flechas a un muro y luego pintamos blancos alrededor de las flechas de tal manera que estas queden clavadas en el círculo central, estamos imponiendo un patrón después del hecho. Cualquier patrón como este no es independiente de la trayectoria de la flecha. Por otro lado, si los blancos son colocados por adelantado (“especificados”) y luego el arquero les dispara con precisión, sabemos que no fue por azar sino más bien por diseño (apercibidos, por supuesto, de que dar en el blanco es lo suficientemente improbable). La forma de caracterizar esta independencia de patrones es a través de una noción probabilística de la independencia condicional. Un patrón es condicionalmente independiente de un evento si al sumar nuestro conocimiento del patrón a una hipótesis de azar no se altera la probabilidad del evento bajo esta hipótesis. Lo especificado de complejidad especificada hace referencia a tales patrones condicionalmente independientes. Estos son las especificaciones.
Recursos probabilísticos. Los recursos probabilísticos hacen referencia al número de oportunidades factibles que tiene un evento de ocurrir o ser especificado. Un evento aparentemente improbable puede convertirse en uno absolutamente probable una vez que se factorean los suficientes recursos probabilísticos. Por otro lado, tal evento puede permanecer improbable aún luego de que todos los recursos probabilísticos disponibles hayan sido factoreados. Piense en intentar repartirse a usted mismo una escalera flor (una mano de póker con el As, Rey, Reina, Jota y 10, todos del mismo palo). Dependiendo de cuantas manos pueda repartir, tal suceso, el cual es por sí mismo absolutamente improbable, puede permanecer improbable o volverse absolutamente probable. Si usted solo puede repartirse unas pocas decenas de manos, entonces con toda probabilidad usted no verá una escalera flor. Pero si puede repartirse a si mismo millones de manos, entonces será probable que la reúna.
Los recursos probabilísticos vienen en dos variedades: replicacionales y especificacionales. Los recursos replicacionales hacen referencia al número de oportunidades de ocurrencia de un evento. A fin de entender en que se encuentran basados estos dos tipos de recursos probabilísticos, imagine un gran muro con N blancos pintados, de igual medida y que no se encuentren superpuestos, y M flechas en su aljaba. Digamos que su probabilidad de darle por azar a cualquiera de estos blancos, tomados individualmente, con una única flecha es p. Entonces la probabilidad de acertar por azar a cualquiera de esos N blancos, tomados colectivamente, con una única flecha queda restringida por Np (es decir, N y p multiplicados); y la probabilidad de ensartar por azar a cualquiera de esos N blancos con al menos una de sus M flechas es limitada por MNp (es decir, M, N y p multiplicados); En este caso, el numero de recursos replicacionales corresponde a M (el número de flechas en su aljaba), y el número total de recursos probabilísticos corresponden al producto MN. Para un evento especificado de probabilidad p sea razonablemente atribuible al azar, el numero MNp no debe ser pequeño.
|
|
|
|
De: Cajeli |
Enviado: 05/02/2015 03:32 |
Complejidad Descriptiva. Por el hecho de ser patrones, las especificaciones exhiben varios niveles de complejidad. El grado de complejidad de una especificación determinará cuantos recursos especificacionales deberán ser factoreados cuando el indicador del nivel de improbabilidad requerido excluya al azar (vea el punto anterior). Cuanto más complejo sea el patrón, más recursos especificacionales deberán ser factoreados. Los detalles son técnicos e implican una generalización de lo que los matemáticos denominan la complejidad de Kolmogorov. No obstante, la intuición básica es simple. El bajo nivel de complejidad descriptiva es importante a la hora de detectar diseño ya que asegura que el evento cuyo diseño está en cuestión no fue descripto después del hecho y luego disfrazado, sino que ha sido descripto antes del hecho.
A fin de entender en que se basa esto, considere las dos secuencias siguientes resultantes de echar suerte con una moneda diez veces seguidas: CCCCCCCCCC y CCSCSSSCSC. ¿A cuál de estas dos estará más inclinado atribuir al azar? Ambas secuencias presentan la misma probabilidad, aproximadamente 1 en 1,000. No obstante, el patrón que especifica la primera secuencia es mucho más simple que el segundo. Para la primera secuencia el patrón puede ser especificado con la simple declaración “diez caras en una tanda”. Por otra parte, especificar el patrón de la segunda secuencia requiere una declaración relativamente larga, por ejemplo, “dos caras, luego seca, luego cara, luego seca tres veces, luego cara seguida de secas y caras”. Pienso a la complejidad descriptiva como una descripción de longitud mínima.
Para que algo exhiba complejidad especificada debe tener baja complejidad descriptiva (como la secuencia CCCCCCCCCC, que consiste de diez caras en una tanda) y alta complejidad probabilística (es decir, que la probabilidad sea muy baja). Es la combinación de baja complejidad descriptiva (un patrón fácil de describir en un orden relativamente corto) con elevada complejidad probabilística (algo altamente improbable) lo que hace a la complejidad especificada un triangulador efectivo de inteligencia. Pero la importancia de la complejidad especificada no concluye aquí.
Además de su lugar crucial dentro de la inferencia del diseño, la complejidad especificada también ha estado implícita en gran parte de la literatura de la auto-organización, un campo que estudia cómo los sistemas complejos emergen a partir de la estructura y la dinámica de sus partes. Debido a que la complejidad especificada hace un balance de baja complejidad descriptiva junto con una alta complejidad probabilística, la complejidad especificada se sitúa en la frontera entre el orden y el caos, que comúnmente es referida como el “límite del caos”. El problema con el puro orden (baja complejidad descriptiva) es que es predecible y poco interesante. Aquí un ejemplo sería un cristal que se dispone repitiendo el mismo patrón simple desde el comienzo hasta el final. El problema con el puro caos (alta complejidad probabilística) es que es desordenado y carente de interés. (Ningún patrón significativo emerge del puro caos. Aquí un ejemplo lo da la disposición de los escombros esparcidos por un tornado o una avalancha). Más bien, es justo en el límite del caos en donde las cosas interesantes suceden. Este es el lugar en donde se encuentra ubicada la complejidad especificada.
|
|
|
|
De: Cajeli |
Enviado: 05/02/2015 03:37 |
Limite probabilístico universal.
En el universo observable, los recursos probabilísticos son limitados. Los científicos estiman que, dentro del universo físico conocido, existen alrededor de 1080partículas elementales. Además, las propiedades de la materia son tales que las transiciones desde un estado físico a otro no pueden ocurrir en una tasa más rápida que 1045 veces por segundo. Esta frecuencia corresponde al tiempo de Planck, el cual constituye la unidad física de tiempo más pequeña. Finalmente, el universo en si mismo tiene una edad aproximada de 1025 segundos (asumiendo que el universo tiene entre 10 y 20 mil millones de años). Por consiguiente, si asumimos que cualquier especificación de un evento dentro del universo físico conocido requiere por lo menos una partícula elemental y que tales especificaciones no se generan más rápido que el tiempo de planck, entonces las constantes cosmológicas implican que el número total de eventos especificados a lo largo de la historia cósmica no exceden 1080 x 1045 x 1025 = 10150. Como consecuencia, cualquier evento especificado de probabilidad menor a 1 en 10150 quedará improbable, aun después de que todos los recursos probabilísticos concebibles del universo hayan sido factoredos. Por consiguiente, una probabilidad de 1 en 10150 representa el límite probabilístico universal. (Por detalles que justifican este límite probabilístico universal, vea mi libro The Design Inference).
Un límite probabilístico universal es impenetrable a cualquier cantidad de recursos probabilísticos que se coloquen contra este. En efecto, todos los recursos probabilísticos del universo físico conocido no pueden conspirar entre sí para dejar como probable un evento cuya probabilidad es menor que este límite probabilístico universal.
El limite probabilístico universal de 1 en 10150 es el más conservador dentro de la literatura. El matemático francés Emile Borel propuso 1 en 1050 como limite probabilístico universal, bajo el cual el azar puede ser excluido definitivamente. (Esto es, cualquier evento especificado de tal manera improbable que no pueda ser atribuido al azar). Los criptógrafos determinan la seguridad de los criptosistemas en términos de cualquier ataque que emplee todos los recursos probabilísticos que estén disponibles en el universo a fin de sabotear al criptosistema por azar.
En su informe sobre el rol de la criptografía en proveer seguridad a la información, el National Research Council dejó en 1 en 1094 su límite probabilístico universal, a fin de garantizar la seguridad de los criptosistemas contra cualquier ataque basado en el azar. (Vea el libro Cryptography´s Role in Securing the Information Society, deKenneth Dam y Herbert Lin). El cientifico informático Seth Lloyd dejo en 10120 como el máximo número de operaciones bit que el universo podría haber realizado a lo largo de toda su historia (Physical Review, 10 de junio de 2002). Este número corresponde a un límite probabilístico universal de 1 en 10120. Stuart Kauffman en su libro más reciente, Investigations (2000), llega a numeros similares.
Para que algo exhiba complejidad especificada debe, por consiguiente, coincidir con un patrón condicionalmente independiente (es decir, una especificación) de baja complejidad descriptiva, y en donde el evento que corresponde a este patrón presenta una probabilidad de ocurrencia menor al límite probabilístico universal —y por lo tanto exhibe complejidad probabilística elevada. La complejidad especificada es extensamente usada como un criterio para detectar diseño. Por ejemplo, cuando los investigadores del SETI (Búsqueda de Inteligencia Extraterrestre) buscan señales de inteligencia provenientes del espacio exterior, ellos buscan complejidad especificada. (Recuerde la película Contact en la cual el SETI detecta un patrón inteligente en una señal captada desde el espacio exterior, en donde se observa una secuencia larga de números primos. Tal secuencia muestra complejidad especificada.)
Autor: William Dembski -Tiene un Ph.D. en filosofía (Universidad de Illions en Chicago) y un Ph.D. en matematica (Universidad de Chicago). Es uno de los principales teóricos del Diseño Inteligente y ha escrito varios libros sobre la temática. Es autor del primer libro del Diseño Inteligente publicado por una editorial universitaria renombrada: The Design Inference: Elimitating Chance Through Small Probabilities. (Cambridge University Press, 1998). Es investigador del Discovery Institute.
|
|
|
|
Complejidad irreductible y especificada.
Nada de versículos. Eso está bueno. |
|
|
Primer
Anterior
2 a 5 de 5
Siguiente
Último
|
|
|
|
©2024 - Gabitos - Todos los derechos reservados | |
|
|