Su última visita fue: Sab Abr 30, 2016 7:42 am Fecha actual Sab Abr 30, 2016 7:42 am

Todos los horarios son UTC + 1 hora [ DST ]




 [ 115 mensajes ]  Ir a página Previo  1 ... 4, 5, 6, 7, 8  Siguiente
Autor Mensaje
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Mar Feb 03, 2015 1:08 am 
Desconectado
Casandra
Avatar de Usuario

Registrado: Vie Abr 03, 2009 1:07 pm
Mensajes: 59897
Ubicación: Laniakea
Malet, ¿estás traduciendo un libro completo? ¿Cuál? ¿No hay edición española ya traducida? Te lo pregunto porque es un tema que me gusta, y tengo intención de leer ese libro (si lo traduces del todo, claro).

_________________
Imagen


Arriba
 Perfil Email  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Mar Feb 03, 2015 8:25 am 
Desconectado
We are not done yet!

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 56588
Ubicación: I will show YOU the Dark Side
Ricardo Mella escribió:
Malet, ¿estás traduciendo un libro completo? ¿Cuál? ¿No hay edición española ya traducida? Te lo pregunto porque es un tema que me gusta, y tengo intención de leer ese libro (si lo traduces del todo, claro).



Sí, voy a traducirlo completo (si mongoleara menos aquí ya lo habría acabado). No he encontrado la traducción de este.

EL de Eagleton si está traducido. :mad2: Editorial Paidos (creo). Así que lo dejo.

Pero sus reflexiones sobre las relaciones entre cristianismo y socialismo y lo peligroso que es ese racionalismo ateo conformista y absurdamente optimista molan.

_________________


Iros todos a tomar por culo. Ya lo hago yo, yalo hago yo. Se tarda menos tiempo en hacerlo que en estar dando explicaciones.


Arriba
 Perfil Email  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Mar Feb 03, 2015 8:32 am 
Desconectado
Casandra
Avatar de Usuario

Registrado: Vie Abr 03, 2009 1:07 pm
Mensajes: 59897
Ubicación: Laniakea
Pues gracias por el curro, ¿pero qué libro es, cómo se llama?

_________________
Imagen


Arriba
 Perfil Email  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Mar Feb 03, 2015 9:23 am 
Desconectado
We are not done yet!

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 56588
Ubicación: I will show YOU the Dark Side
Ricardo Mella escribió:
Pues gracias por el curro, ¿pero qué libro es, cómo se llama?


De nada, hacer lo que a uno le gusta (sea lo que sea) no es trabajo (Mark Twain)

"God´s Undertaker: has science buried God". Uséase: "El Sepulturero de Dios: ¿Ha enterrado a Dios la Ciencia? Del Catedrático de matemáticas y filósofo de la ciencia John Lennox.

_________________


Iros todos a tomar por culo. Ya lo hago yo, yalo hago yo. Se tarda menos tiempo en hacerlo que en estar dando explicaciones.


Arriba
 Perfil Email  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Jue Feb 05, 2015 1:31 pm 
Desconectado
We are not done yet!

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 56588
Ubicación: I will show YOU the Dark Side
Pero no se había perdido sin embargo. Y reza:

“Aún me mantengo firme en mis convicciones sobre la impotencia del cruzamiento en relación con el origen de las especies. Considero la variación como demasiado ilimitada en los animales. Debes recordar que no es el cruzamiento ni la selección natural lo que ha hecho tantos individuos diferentes, sino simplemente la Variación (énfasis de Hooker) La selección natural sin ninguna duda ha acelerado el proceso, lo ha intensificado (por decirlo de algún modo) ha regulado las líneas conductoras, los lugares, etc, etc, etc en los que y a los que las razas han sido dirigidas y han acudido y el número de cada una de ellas y demás; pero supóngase un par de individuos con potencialidad de propagarse y un periodo de tiempo infinito para procrear, de modo que ninguno se pierde, o que, en suma, la Selección Natural ya no desempeña un papel en absoluto, y mantengo que después de generaciones tendrás individuos extremos totalmente diferentes unos de otros como si la Selección Natural hubiera extinguido a la mitad.

Si alguna vez sostuvo que la selección natural puede lograr una diferencia, es decir, crear un tipo, toda su doctrina es desmorona. La Selección natural tiene tan poco poder como las causas físicas para producir una variación; la ley de “lo mismo no producirá lo mismo” está en el corazón de todo, y es tan inescrutable como la vida misma. Eso es lo que Lyell y yo pensamos que no han logrado ustedes transmitir con suficiente vigor al público y a nosotros; y esta es la razón principal de que la mitad del mundo científico no acepte su doctrina. No han comenzado, como tal vez deberían haber hecho, atacando otras doctrinas antiguas y falsas como “lo mismo produce lo mismo”. El primer capítulo de su libro debía haberse dedicado a esta cuestión y a nada más. Pero hay algo de verdad que ahora puedo ver en mi objeción, que convierte la selección natural en una suerte de Deus ex Machina, pues de alguna manera lo hace rechazando considerar los hechos de una variación infinita e incesante. Sus ocho hijos no se parecen en nada uno a otro: no concuerdan en ninguna propiedad. ¿Cómo puede ser esto? Responde usted que muestran las diferencias heredadas de diferentes progenitores, bien, pero retrocedamos más, y más y más en el tiempo y llegamos al final al par original para el origen de las diferencias, y debe conceder lógicamente, que las diferencias en los hombres y mujeres originales de su especie eran iguales a la suma de la extremas diferencias entre los muy distintos individuos existentes de su especie, o que los últimos variaron a partir de alguna ley inherente que los atrapaba. ¿No soy un poco frío para darle lecciones de manera tan cándida”? (20)

Es interesante notar la fuerza con la que Hooker adscribe el “rechazo de la mitad del mundo científico” contra la teoría de Darwin por su percibido fracaso al enfrentarse a este argumento. La reacción de Darwin llegó en una carta (después del 26 de noviembre pero fechada el 20 de noviembre de 1862):

“Pero la parte de su misiva que para ser francos me dejó pasmado y atónito es aquella en la que afirma que toda diferencia que vemos podría haber ocurrido sin selección alguna. Estoy de acuerdo y siempre he estado de acuerdo con esto; pero ahora replanteado tema y lo ha contemplado desde un nuevo aspecto opuesto y nuevo, y cuando me llevó a él, quedé perplejo. Cuando digo que estoy de acuerdo, debe ser con la cautela de que bajo su punto de vista, como ahora, cada forma permanece durante largo tiempo adaptada a cierta condiciones fijas y que las condiciones de vida son en el largo plazo mudables; y en segundo lugar, que es más importante, que cada forma de individuos es un hermafrodita que se auto-fertiliza, de modo que cada diminuta variación no se pierde por el cruzamiento. Su manera de presentar el caso sería aún más chocante de lo que es, si la mente pudiera liar con esos números, es lidiar con la eternidad, piensa todas y cada una de los miles de semillas que dan lugar a su planta, y después cada una de ellas produce otras mil. Un globo que se extendiera hasta la más lejana estrella fija quedaría cubierto muy pronto. Incluso no puedo lidiar con la idea con las razas de perros, ganado, palomas o aves; y aquí debemos todos admitir el preciso rigor de su ilustración. Tales hombres, como usted y Lyell que piensan que hago un Dios de la selección natural han aportado fuertes argumentos contra mí. Y sin embargo no sé como hubiera podido poner, en todas las secciones de mi libro, frases más vigorosas. El título, como apuntaste una vez, podría haber sido mejor. Nadie pone objeciones a los agricultores que usan el lenguaje más vigoroso sobre su selección; y sin embargo todo botánico sabe que no produce la modificación que selecciona. La dificultad enorme que tuve durante años era entender la adaptación, y esto me hizo, no puedo sino pensar que de modo justo, insistir tanto en la selección natural. Dios me perdone por escribir tanto; pero no puedo ponderar lo mucho que su carta me ha interesado y cuán importante es para mi con mi libro en su forma presente a mano tratar de intentar obtener ideas claras”. (21)

Parece que Darwin siente toda la fuerza del argumento de Hooker hasta el punto de estar de acuerdo con ello aunque atónito por la forma en que es formulado. El argumento parece bastante importante porque hace surgir cuestiones muy serias sobre la clase de argumento que trata de hacer que las probabilidades de la evolución macro (o molecular) sean aceptables en el marco de las restricciones temporales aportadas por la cosmología contemporánea.

El argumento de Hooker, sin embargo, no es la única dificultad en los argumentos que invocan el mecanismo parecido a una ley de la selección natural. De forma completamente independiente de aquel, investigaremos en el capítulo 10 desde una perspectiva matemática algunos de los argumentos desarrollados por Dawkins y otros para simular la forma en la que tal “ley” podría llevarse a cabo, y encontraremos que son deficientes por muy diferentes razones.

Por supuesto, el argumento de Hooker no afecta al tipo de variaciones micro de la clase que observó Darwin. Por tanto la siguiente pregunta que uno debería formular es:

El límite de la evolución.

Aunque algunos biólogos se resisten a diferenciar entre macro y micro evolución, los términos se usan con frecuencia para distinguir, a grandes rasgos entre la evolución por debajo y más allá del nivel de las especies, existiendo un debate sobre donde debería trazarse la línea. (22)

La resistencia a realizar esa distinción surge con frecuencia debido a que el proceso evolutivo se considera como un conjunto sin costuras, que la macro-evolución es simplemente lo que resulta de los procesos micro operando durante prolongados periodos de tiempo. Este es el punto de vista de “gradualistas” como Dawkins y Dennett. Pide el principio clave de si la evolución realmente es un conjunto sin costuras o no; si por ejemplo, los mecanismos selectivos que, digamos, pueden dar cuenta razonable de las variaciones en la longitud de los picos de los pájaros o de la resistencia de las bacterias a los antibióticos pueden dar cuenta igual de la existencia de los pinzones o las bacterias en primer lugar. En otros términos, la cuestión crucial es esta, ¿hay una “frontera” para la evolución?

Una declaración que ejemplifica el valor de la distinción entre micro y macro evolución la hace Paul Wesson:

“Las enormes innovaciones evolutivas no son bien comprendidas. Ninguna ha sido observada y no tenemos idea de cuales pueden estar produciéndose ahora. No hay un registro fósil adecuado de ninguna” (23)

En contraste con lo anterior, las variaciones micro debidas a la mutación y a la selección natural han sido y son observadas.

Al profano inteligente le parece que hay considerables dificultades aquí: A.P. Hendry y M.T. Kinnison lo exponen de esta manera:

“La evolución se ve dividida frecuentemente en dos categorías: micro y macro. La primera obviamente implica una pequeña cantidad de cambio y la última una gran cantidad. La dificultad estriba en decidir donde debería trazarse la frontera entre las dos, o si representan o no el mismo proceso (actuando sobre diferentes escalas temporales) y si la dicotomía es útil o válida o no… ¿Son los eventos macro (grandes cambios morfológicos o la especiación) simplemente el resultado acumulado de los mecanismos micro (micro-mutaciones, selección, flujo genético, deriva genética) o la macroevolución precisa de algún tipo de mecanismo cualitativamente distinto? La historia de este debate es larga, embrollada y muy acre en ocasiones”. (24)

El problema que vemos aquí claramente es que extrapolar a partir de lo observado a lo no observado está preñado de peligros. S.F. Gibbert, J.M. Opitz y R.A. Raff sostienen que:

“La micro-evolución contempla adaptaciones que atañen sólo a la supervivencia del más apto, pero no la llegada del más apto. Como Goodwin (1995) apunta: “el origen de las especies, el problema de Darwin, sigue sin resolver”, (25) y de este modo se hace eco del veredicto del genetista Richard Goldschmidt: “los hechos de la micro-evolución no bastan para un entendimiento de la macroevolución”. (26)

Incluso darwinistas convencidos, como John Maynard Smith y E. Szathmary, exponet de forma similar:

“No hay razón teórica alguna que nos permita esperar que las líneas evolutivas incrementaran la complejidad con el tiempo; tampoco existe evidencia empírica de que esto ocurra”. (27)

Siegfried Scherer de la Politécnica de Munich sugiere que los seres vivos pueden clasificarse en ciertos tipos básicos, una clasificación ligeramente más amplia que la de las especies. Un “tipo básico” se define como una agrupación de seres vivos conectados directa o indirectamente mediante la hibridación, sin consideración a si los híbridos son estériles o no. (28) Esta definición incorpora los conceptos tanto genéticos como morfológicos de las especies, y según Scherer, las investigaciones hasta ahora indican que “en conjunto en el dominio accesible experimental de la evolución micro (incluyendo la investigación en crianza artificial y en la formación de las especies) todas las variaciones han permanecido dentro de los confines de los tipos básicos”. (29)

Tales comentarios dan peso al punto de vista del biólogo y filósofo Paul Erbrich:

“El mecanismo de selección mutación es un mecanismo de optimización” (30) Es decir, permite a un sistema viviente ya existente adaptarse selectivamente a cambiantes condiciones ambientales del mismo modo o muy parecido en el que los algoritmos genéticos facilitan la optimización en ingeniería. No crea, sin embargo, nada radicalmente nuevo.

Un biólogo eminente cuyas investigaciones le convencieron de que existían límites a lo que podían hacer la mutación y la selección natural y le llevaron a abandonar la síntesis neo-darwiniana fue Pierre Grassé de la Sorbona en París, que era Presidente de la Academia Francesa y editor del seminal trabajo de 28 volúmenes llamado Tratado de Geología. El gran genetista Theodosius Dobzhansky tenía a Grassé en gran estima:

“Se puede estar en desacuerdo con Grassé, pero no dejar de prestarle atención… su conocimiento del mundo vivo es enciclopédico” (ibídem)

Describío el libro de Grassé, L’évolution du vivant (31) como “un ataque frontal a toda clase de Darwinismo. Su finalidad era “destruir el mito de la evolución como un fenómeno simple, comprendido y explicado” y mostrar que la evolución es un misterio sobre lo que poco se sabe, y tal vez, se puede saber”. (32)

En su libro Grassé observó que las moscas de la fruta siguen siendo moscas de la fruta a pesar de las miles de generaciones que se han engendrado y de todas las mutaciones que han padecido. De hecho la capacidad de variación en el depósito genético parece acabarse pronto en el proceso, un fenómeno llamado homeostasis genética. Parece haber una barrera más allá de la cual la crianza selectiva no podrá pasar debido al comienzo de la esterilidad o al agotamiento de la variabilidad genética. Si existen límites incluso a la cantidad de variación que los mejores criadores pueden lograr, la implicación clara es que la selección natural es probable que logre mucho menos. No es sorprendente que defendiera que la Microevolución no puede tener el peso que con frecuencia se le atribuye.

El trabajo más reciente sobre la bacteria E. coli, respalda esto. En esta investigación no se observaron cambios innovadores reales a lo largo de 25.000 años de la bacteria E. Coli. El Bioquímico Michael Behe apunta que ahora se han estudiado más de 30.000 generaciones de E Coli, equivalentes a alrededor de un millón de años humanos y el resultado neto es que la evolución ha producido:

“En su mayor parte devolución. Aunque algunos detalles marginales de algunos sistemas han cambiado durante esas 30.000 generaciones la bacteria ha arrojado repetidamente fragmentos de su patrimonio genético, incluyendo la habilidad para construir algunos de los bloques de construcción del ARN. Aparentemente arrojar maquinaria molecular sofisticada pero costosa ahorra la energía de la bacteria. Nada de una elegancia remotamente similar ha sido construida. La lección del E. coli es que es más fácil para la evolución romper cosas que fabricarlas”. (34)

Esta observación, que se halla completamente en consonancia con las conclusiones que extrajo Hoyle con sus cálculos matemáticos, es parte de las pruebas que Behe aduce para sugerir que la investigación en la biología muestra que hay una “frontera” en la evolución, esto es, que hay límites a lo que la selección natural y la mutación puede hacer. Defiende que los científicos ahora están en mucha mejor posición para determinar estos límites puesto que el fundamento genético de las mutaciones ya es comprendido. Aplica ese conocimiento a un caso particular que ha sido objeto de un ingente estudio. Escribe:

“Gracias al enorme tamaño de su población, tasa de reproducción y nuestro conocimiento de la genética, el mejor test para la teoría de Darwin es la historia de la Malaria”.

Behe apunta que cientos de diferentes mutaciones que han conferido alguna resistencia a la malaria han ocurrido en el genoma humano y se han extendido en nuestra población mediante la selección natural. Estas mutaciones, dice, han sido celebradas justamente como algunos de los mejores ejemplos de la evolución darwiniana pero las pruebas también muestran que existen “límites radicales a la eficacia de la mutación aleatoria”. (35) Esos estudios han rendido resultados inesperados:

“Los procesos darwinianos son incoherentes y están muy constreñidos. La batalla entre el depredador y su presa (o entre parásito y huésped) que con frecuencia ha sido pintada por los escritores darwinistas como una productiva carrera de armamentos y un ciclo de mejoras en ambos bandos, es en realidad un ciclo destructivo, más parecido a la guerra de trincheras, donde las condiciones se deterioran…. Como un pasmoso borracho ciego que se cae después de un paso o dos, cuando más de un simple paso diminuto se precisa para una mejora evolutiva, la mutación genética ciega es muy difícil que la encuentre. Y extrapolando a partir de los datos sobre un enorme número de parásitos de la malaria permite a grandes rasgos pero con seguridad estimar los límites de la evolución darwiniana con respecto a toda la vida sobre la tierra a lo largo de miles de millones de años anteriores. (36)

Mediante una mutación que implica la deriva de dos aminoácidos, la malaria ha desarrollado resistencia a la droga cloroquina. Las posibilidades de que esto ocurra son alrededor de una en 100.000.000.000.000.000 (1 en 10 elevado a 20) y sin embargo ocurrió, porque existe un vasto número de células parásitas en el cuerpo infectado de una persona (alrededor de un billón) y alrededor de un mil millones de personas infectadas en el mundo cada año. Behe llama a los grupos mutantes de este grado de complejidad grupos CCC (grupos de complejidad de cloroquina) Calcula que deberíamos tener que esperar cien millones de veces diez millones de años, que es muchos cientos de miles de veces la edad del universo, antes de que tal mutación ocurriera en el grupo de población muy inferior de los seres humanos.

Deduce que uno no esperaría que un CCC doble (esto es un grupo de mutación dos veces más complejo que un CCC) se mostrara como resultado de un proceso darwiniano en cualquier fase de la historia de la vida en la tierra:

“Por lo tanto si encontramos rasgos en la vida que han precisado un CCC doble o más, entonces podemos inferir que probablemente no surgieron como resultados de procesos darwinianos”.

Después argumenta con detalle que “la vida bulle con tales rasgos” (37) ofreciendo como uno de estos impresionantes ejemplos los elegantes sistemas de control, o las redes regulatorias genéticas que están implicadas en la construcción de los cuerpos animales. (38)

Nos presenta un paralelo interesante:

“Así como la física del siglo XIX presumía que la luz la empujaba el éter, así la biología darwiniana moderna postula que la mutación aleatoria y la selección natural construyeron la maquinaria elaborada dela célula. Desgraciadamente la incapacidad de comprobar la teoría ha perjudicado su evaluación crítica y ha llevado a una rampante especulación. Sin embargo, aunque ciertamente hubiéramos deseado que ocurriera de otro modo, en los pasados 50 años la naturaleza misma ha realizado despiadadamente el equivalente biológico al experimento Michelson-Morley (39) Llámalo el M-H (experimento malaria HIV) con mil millones de veces la potencia de fuego de los enclenques laboratorios donde trabajan los humanos este experimento ha barrido el planta buscando la capacidad de la mutación aleatoria y la selección natural para construir maquinaria biológica coherente y no ha encontrado nada. ¿Por qué no hay ninguna evidencia del fabuloso “relojero ciego”. La explicación más simple es que el relojero ciego no existe”. (40)

¿Qué dicen los matemáticos?

Los matemáticos cada vez están más interesados en la bilogía, especialmente desde la revolución en la biología molecular. La biología matemática es una disciplina en expansión. Uno de los primeros intentos significativos de un debate de alto nivel entre un grupo de biólogos y matemáticos eminentes que estaban interesados en la biología se celebró en el Instituto Wistar en Filadelfia en 1966. Una tentativa de cuantificar las probabilidades de la posibilidad de la evaluación gradualista mediante la acumulación de micro-mutaciones llevó a un fascinante intercambio entre el matemático Stanley Ulam y los biólogos Sir Peter Medawar y el presidente de la conferencia, C.H. Waddington.

Ulam defendió sobre la base de sus cálculos matemáticos que era extremadamente improbable que el ojo pudiera haber evolucionado mediante numerosos pequeños cambios mutantes puesto que no había sencillamente tiempo disponible. Sir Peter Medawar replicó: “creo que la forma en la que ha tratado esto es una curiosa inversión de lo que normalmente sería el proceso de razonamiento científico. Es ciertamente un hecho que el ojo ha evolucionado y que, como dice Waddington, esto muestra que la formulación de Ulam está equivocada”. El biólogo Ernst Mayr después comentó: “Así que todo lo que digo es que tenemos tanta variación en todas estas cosas que de algún modo u otro ajustando estas cifras llegaremos a resolverlo. Nos conforta saber que la evolución ha ocurrido” (41)

Este intercambio tan pasmoso es muy revelador. Pues ciertamente es una “curiosa inversión” del proceso científico normal asumir la verdad de lo que tienes que probar y sobre esa base desacreditar la evidencia que se presenta contra ello. Lo que el intercambio mostró es que, par los biólogos presentes, no tenía importancia la evidencia matemática y no les afectaba a la hora de considerar que podría haber fallos en sus supuestos sobre la evolución.

Los cálculos de Ulam fueron apoyados por Marcel-Paul Schützenberger, un catedrático de matemáticas de París y miembro de la Academia Francesa de Ciencias. Objetó lo que consideraba un aceptación demasiado “fácil” de la evolución por parte de los biólogos y fue retado por Waddington “tu argumento es simplemente que la vida debió surgir mediante una creación especial” a lo que Schützenberger, junto con otros gritó “no”. Dos cosas quedan claras de este intercambio: en primer lugar que los matemáticos insistían que su pensamiento no tenía otras motivaciones que la ciencia, y en segundo lugar que los argumentos que usaban eran consistentes con la visión de que existía un Creador (o por lo menos eso pensaban sus colegas biólogos)

El Astrofísico y matemático Sir Fred Hoyle realizó algunos cálculos que le llevaron a poner en tela de juicio la valided de extrapolar de la micro a la macroevolución:

“Pues me pareció claro que la teoría darwiniana no podía ser correcta en términos amplios, una cuestión sin embargo permanecía, pues encontraba difícil aceptar que la teoría pudiera ser completamente incorrecta. Cuando las ideas se basan en observaciones, como era ciertamente el caso con las ideas de Darwin, era corriente que fueran válidas al menos en la escala de las observaciones. Es cuando se hacen extrapolaciones más allá de la escala de la observación que surgen dificultades. Así que la cuestión que se presentaba era determinar hasta que punto la teoría era válida y exactamente a partir de que punto era inválida”: (42)

La conclusión de Fred Hoyle a partir de sus argumentos matemáticos es característicamente brisca:

“Bien, como el sentido común sugeriría, la teoría darwiniana es correcta en lo pequeño, pero no en lo grande. Los conejos proceden de otros conejos ligeramente diferentes, pero no de una sopa primigenia o de patatas. De donde proceden en primer lugar es un problema que aún hay que resolver, como muchas otras cosas a escala cósmica” (43)

Hoyle, por tanto, rechazaba el aserto segundo. No creía que la evolución diera cuenta de la existencia de toda la complejidad de la vida.

El registro fósil.

La impression de que la micro evolución tiene alcance limitado se confirma por los comentarios de Wesson y otros al efecto de que el registro fósil no ofrece buenos ejemplos de macroevolución. Esto puede sonar sorprendente para mucha gente puesto que es una impresión general en la opinión pública que una de las mas poderosas pruebas en pro de la evolución es el registro fósil. Y con todo esta impresión no se corresponde en absoluto con lo que se encuentra en la literatura científica. Ciertamente, ya desde el principio, los opositores más dedicados a Darwin eran los paleontólogos. El mismo nos da las razones de esto: concierne a la ausencia de formas de transición en el registro fósil, que su teoría haría esperar. Escribió en “El Origen de las Especies”:

“El número de variedades intermedias, que habían existido anteriormente en la tierra, debería ser verdaderamente enorme. ¿Por qué entonces no está repleta cada formación geológica y cada estrato repleto de estos eslabones intermedios? Ciertamente la geología no revela cualquier cadena orgánica graduada, y esto, quizás, es la más patente y grave objeción que puede presentarse contra mi teoría”. (44)

El zoólogo Mark Ridley comenta sobre la situación:

“El registro fósil del cambio evolutivo en el seno de linajes evolutivos simples es muy deficiente. Si la evolución es verdadera, las especies se originan mediante cambios en especies ancestrales: uno debería esperar poder ver esto en el registro fósil, pero la verdad es que rara vez se ve. Y en 1859 Darwin no pudo citar un sencillo ejemplo”. (45)

¿Cuál es pues, el resultado de cerca de un siglo y medio de actividad intensiva en este ámbito desde la época de Darwin. El paleontólogo David Rapu del Field Museum de Historia Natural, que aloja una de las mayores colecciones de fósiles del mundo dijo:

“Ya han pasado 120 años desde Darwin y nuestro conocimiento del registro fósil se ha expandido en gran medida. Tenemos ahora un cuarto de millón de especies fosilizadas, pero la situación no ha cambiado mucho. El registro de la evolución es aún sorprendentemente irregular y, irónicamente, tenemos incluso menos ejemplos de transición evolutiva que teníamos en los tiempos de Darwin” (46)

Stephen Jay Gould dijo:

“La extremada rareza de formas de transición en el registro fósil persiste como el secreto profesional de la paleontología” (47)

Su compañero paleontólogo, Niles Eldredge, del Museo Americano de Historia Natural, añade:

“Cuando contemplamos la introducción de una novedad evolutiva, se suele mostrar con un bang, y con frecuencia sin ninguna evidencia firme de que los fósiles no evolucionaran en otro lugar. La evolución no puede descansar siempre en otra cosa. Y sin embargo es así como el registro fósil ha chocado a mucho solitario paleontólogo que busca aprender algo sobre la evolución- (48)

De hecho, Eldredge hace la siguiente admisión, realmente sorprendente:

“Los paleontólogos hemos dicho que la historia de la vida apoya la historia del cambio adaptativo gradual sabiendo todo el rato que no es así” (49)

¿Pero por qué? Que razón concebible puede haber para que los miembros de la comunidad científica oculten lo que saben que es verdad, a menos que fuera algo que apoyara una visión del mundo que ya hubieran decidido de antemano que no es aceptable?

¿Qué, entonces revela el registro fósil? Gould escribió:

“La historia de la mayoría de las especies fósiles incluye dos rasgos particularmente incoherentes con la idea de que evolucionaron gradualmente-

-La Estasis. La mayoría de las especies no exhiben un cambio de dirección durante su estancia en la tierra. Aparecen en el registro fósil como si tuvieran un aspecto bastante parecido a cuando desaparecen; el cambio morfológico con frecuencia es limitado y sin dirección.

-La aparición súbita. En algún área local una especie no surge gradualmente mediante una continuada transformación a partir de sus ancestros; aparece de súbito y “completamente formada” (50)

La lectura del registro fósil de Gould y Eldredge que revela breves periodos de cambio rápido, seguido por largos periodos de estasis, llevó a su desarrollo de la teoría del “equilibrio disperso” para tratar de explicarla. La idea es que los prolongados periodos de estasis se quebrantan esporádicamente por súbitos “saltos” macroevolutivos enormes. Como un espectacular ejemplo de tales saltos, Gould, en su celebrado libro “Las maravillas de la vida” (51) describe como todos los principales filos (rangos taxonómicos) que tenemos hoy, además de una buena cantidad que se han extinguido, aparecieron muy súbitamente en la llamada Explosión Cámbrica. Por supuesto, la cuestión de lo que causó estos súbitos “saltos” es otra cuestión e incrementa los problemas para los defensores de que los procesos micro son un motor adecuado para la evolución a gran escala.

Es interesante y tal vez algo irónico que la teoría del equilibrio disperso fuera abrazada por algunos pensadores marxistas mucho antes de que tuviera algún fundamento en la ideología, puesto que parecía encajar con su método de pensamiento dialéctico. Ellos argumentaban que cuando la tesis y la antítesis chocan, la nueva síntesis ocurre rápidamente bajo la forma de un salto en vez de un periodo prolongado y gradual. Esto es otro ejemplo de cómo las cosmovisiones y la ideología pueden influenciar la ciencia.

Simon Conway Morris, FRS, de la Universidad de Cambridge, es más templado que Gould en su enfoque de la explosión Cámbrica, pero sin embargo piensa que dicha explosión se produjo:

“Las formas de transición entre especies pueden ser observadas hoy en día y puede inferirse que existieron en el pasado. Sin embargo el resultado neto está muy lejos de una alfombra sin costuras en una forma que permitiera a un investigador leer el árbol de la vida simplemente encontrando ejemplares intermedios, vivientes y extintos, que conectaran el principio todas las especies. Por el contrario, los biólogos están mucho más impresionados por lo discreto de la forma orgánica, y la ausencia general de formas intermedias” (52)

La teoría del equilibro disperso contrasta totalmente con el enfoque gradualista de los darwinistas ultras como John Maynard Smith, Richard Dawkins y Daniel Dennett. Ciertamente, la lucha entre los dos grupos ha tenido tintes vitriólicos. Los gradualistas, como hemos visto, sostienen que la micro evolución se convierte con el tiempo en macro evolución. Por lo tanto creen que cada acumulación lenta de diminutos pasos evolutivos a lo largo de eones de tiempos puede sumarse en un enorme paso innovador. Niles Eldredge les acusa de no estar fuertes en paleontología. Su argumento es que a los gradualistas les preocupa entender como la información genética se modifica a través del tiempo, y que simplemente afirman que “la historia evolutiva es el resultado de la selección natural, que obra sobre la variación genética disponible” (53) En otras palabras, simplemente extrapolan lo que observan en el presente a lo que pudo suceder en el tiempo geológico anterior.

“Y eso”, continúa Eldredge, “a mis ojos de paleontólogo es simplemente no suficientemente convincente. La simple extrapolación no funciona. He encontrado que en los 60 traté en vano de documentar ejemplos del tipo de cambio lento direccional que todos pensábamos que debería hallarse puesto que Darwin nos dijo que la selección natural debía dejar precisamente esas señales… Encontre por el contrario que una vez que las especies aparecen en el registro fósil no tienden a cambiar mucho en absoluto. Las especies permanecen imperturbablemente, implacablemente resistentes al cambio de forma habitual, y con frecuencia durante millones de años”.

Este veredicto, que está tan alucinantemente en contradicción con el entendimiento popular de los fósiles, es apoyado por Colin Patterson, FRS:

“Diré esto. No existe un fósil tal (un fósil que es ancestral o de transición) a partir del que uno pudiera realizar un argumento a prueba de fugas” (54)

Es interesante además que Patterson dijera esto en conexión con el Archaeopteryx, cuyos restos fosilizados estaban bajo su cuidad en el museo de historia natural y que con frecuencia son citados como ejemplo de una especie transicional entre los reptiles y los pájaros. Esta es una razón por la que es importante distinguir conceptualmente entre formas intermedias y formas de transición. Una forma intermedia es precisamente eso: una forma que podría, bajo los criterios de algún esquema dado de clasificación, ser situada “entre” dos entradas A y B de esa clasificación, sin ninguna implicación necesaria de si ha descendido de A y era un ancestro de B. Una forma intermedia sólo sería de transición si pudiera demostrarse que hubiera descendido de A y fuera un ancestro de B. Para establecer esas relaciones, por supuesto, debería exhibirse algún mecanismo que fuera demostradamente adecuada para la tarea.

Ciertamente se dice con frecuencia en la literatura que lo normal es que el registro fósil sea incompleto, en particular porque las partes blandas corporales no se fosilizan con facilidad por razones obvias. Sin embargo, los paleontólogos son bien conscientes de esto y con todo piensan que la incompletitud del registro fósil no puede ser toda la historia. James Valentine en su importante estudio “Sobre el origen de los Phyla”(55) escribe:

“Muchas de las ramas (del árbol de la vida) tanto grandes como pequeñas, son cripto-génicas (no pueden rastrearse hasta sus ancestros) Algunos de estos vacíos seguramente son causados por lo incompleto del registro fósil (capítulo 5) pero no pueden ser la única razón para la naturaleza criptogénica de algunas familias, muchos órdenes de invertebrados, todas las clases de invertebrados y todos los fila mesozoicos”.

También debería apuntarse a este respecto, que si bien es cierto que las partes corporales blandas raramente queda preservadas, hay algunos recientes hallazgos espectaculares de embriones preservados de esponjas en el Precámbrico cerca de Chengjiang en China.

Su existencia, según el paleobiólogo marino Paul Chien y sus colegas, creaba un problema real: si los estratos precámbricos son capaces de preservar embriones de cuerpos blandos de organismos, por qué no contienen también los precursores de los animales cámbricos? ¿Acaso la preservación de los embriones blandos no hace más probable la preservación del animal completamente maduro?” (56)

Por supuesto también se podría decir que la interpretación del registro fósil podría muy bien complicarse por consideraciones genéticas. Se están realizando estudios intensivos sobre la conexión entre los genes y la morfología (en particular los genes Hox) y se está sugiriendo, por ejemplo, por Simon Conway Morris, que una vez que los animales que poseen un elevado grado de complejidad existen, entonces cambios genéticos relativamente pequeños pueden desencadenar cambios morfológicos bastante grandes. Pero incluso aquí advierte que hay que ser cautelosos:

“Si bien pocos dudan que el desarrollo de la forma está infra-escrito en los genes, al presente no tenemos casi idea de cómo la forma emerge en realidad a partir del código genético” (57=

Sus observaciones sirven para recalcar lo importante, para el debate completo, que es la cuestión del origen del propio código genético, una cuestión a la que dedicaremos el capítulo 8.

¿Qué podemos decir los que no somos expertos en este campo del registro fósil? Seguramente el hecho de que tales pensadores prominentes como los que hemos citado estén expresando preocupaciones sobre aspectos fundacionales de la teoría, en particular sobre la extrapolación del presente al pasado, indicaría, como mínimo, que los fósiles no tienen la fuerza para apoyar la teoría neo-darwiniana a nivel macro que comúnmente se les atribuye. Es por tanto seguramente claro a partir del debate anterior que la macroevolución, por decir lo menos, no pertenece inequívocamente a la categoría que Lewontin, Dennett y otros le asignan. Tenemos ahora dos importantes razones para afirmar que la macroevolución no goza del mismo estatus que el hecho de que la tierra orbita alrededor del Sol. En primer lugar, la afirmación de que la Tierra orbita el sol es una materia afirmada por la observación. Este no es el caso con la afirmación de Lewontín de que los “pajaros proceden de “no-pajaros”” (sea lo que sea lo que pudieran haber sido estos últimos). El proceso nunca has sido observado. En segundo lugar, el hecho de que la tierra orbita el Sol no es sólo una cuestión de observación, sino una cuestión de observación repetida. La afirmación de Lewontin sobre el origen de las aves concierne a un acontecimiento irrepetible, no observado y pasado Poner un fenómeno no observado y no repetible en la misma categoría que uno observable y repetido parecería un error tan craso y elemental, que uno no puede evitar preguntarse si es su ya mencionado miedo a una impronta divina el que desempeña un papel en su razonamiento, y que el prejuicio materialista se está imponiendo al sentido (científico) común.

El parentesco genético, ¿una objeción formidable?

En este momento, si no antes, se nos acusará de no tomar en cuenta la mayor y más patente objeción a la idea de que hay una frontera a la evolución darwiniana. Sofisticados métodos de computación para comparar la estructura de las secuencias del ADN en una colección de organismos han mostrado notables correspondencias entre los genomas, con enormes secciones del ADN en organismos diferentes que son casi idénticas. Se argumenta que esta investigación, que es autónoma con respecto al registro fósil o la anatomía comparada, demuestra sin ningún género de duda la íntima relación genética de todos los seres vivientes, y permite situarlas en un árbol ancestral común. Este pasmoso triunfo de la biología molecular, se afirma, constituye la más abrumadora evidencia de la verdad de la síntesis neo-darwiniana.

Sin embargo, si existe alguna verdad en lo que hemos expuesto hasta ahora en este capítulo, la última afirmación va mucho más allá de las pruebas. Una cosa es decir que hay parentesco genético; y otra es decir que la mutación y la selección natural son los únicos mecanismos envueltos en la producción de ese parentesco. Behe no tiene objeción alguna contra lo primero, pero su trabajo junto con los argumentos precedentes muestran que, puesto que hay un límite a la evolución se sigue que mucho más está implicado en la génesis del parentesco genético que la selección y la mutación. Dicho de otro modo, la síntesis neo-darwiniana no puede tener el peso genético que se le atribuye. Hace falta algo más, y ese algo más es un insumo de una inteligencia diseñadora.

Antes de profundizar en la materia, no obstante, vale la pena realizar unos cuantos comentarios sobre el parentesco genético. Sobre el parentesco en abstracto, el zoólogo Mark Ridley hace la importante observación que resultará familiar a los matemáticos:

“El simple hecho de que las especies puedan clasificarse jerárquicamente en géneros, familias y demás no es un argumento en pro de la evolución. Es posible clasificar cualquier serie de objetos en una jerarquía, ya será su variación evolutiva o no” (58)

Los coches, por ejemplo, pueden jerarquizarse. Pero todos los coches constan de partes similares debido a que esas partes son esenciales para su funcionamiento, y porque se construyen según un diseño común, no porque han descendido unos de otros.

Desde esta perspectiva, el parecido en las secuencias del ADN podría igualmente ser interpretado de forma lógica como evidencia de un diseño común. Ciertamente, el antepasado común podría haber sido diseñado, de modo que los conceptos no son mutuamente excluyentes. Por ejemplo, Francis Collins, aunque está en desacuerdo con Behe sobre la frontera de la evolución, sugiere sin embargo que, aunque desde nuestra perspectiva “la evolución podría parecer que ha sido guiada por el azar, desde la perspectiva de Dios el resultado sería completamente especificado”. (59)

De modo similar el paleo-biólogo evolutivo de Cambridge Simon Conway Morris se muestra insatisfecho por el reduccionismo de los ultra darwinianos que “habiendo erigido un sistema naturalista que no puede poseer en si mismo cualquier propósito final, aún permite un sentido de significado en el que puede descansar”. (60)

Conway Morris piensa que podría muy ben existir algún aspecto análogo en la biología al ajuste fino de la física que debatimos en el capítulo 3 y cita la insistencia de van Till en que “No son simplemente los valores numéricos de ciertos parámetros los que tienen que ser “correctamente exactos” para que la vida se desarrolle. No, es la completa economía formativa del universo la que debe estar “correctamente exacta”. Conway Morris concluye que “no sólo es el universo extrañamente apto para un fin, sino que también, como he argumentado en este libro, es la capacidad de la vida para navegar hasta sus soluciones” (61)

Esto ciertamente no suena como un relojero ciego, sino más bien como un navegante de amplias miras. En un libro más reciente, Conway Morris afirma lo mismo de la convergencia evolutiva:

“Ciertamente, mientras que nuestro conocimiento, especialmente de la bioquímica y de la función de la proteína continua expandiéndose, mi propio sentido de asombro sólo puede aumentar. Si el relojero es ciego, tiene una forma inerrante de encontrar el camino en los inmensos laberintos del espacio biológico. E incluso si no sabe a donde va, ¿aún sabe? (62)

Conway Morris por lo tanto nos describe su asombro:

“Invariablemente las palabras tienden a adjetivos que muestran estupefacción: sorprendente, pasmoso, notable, alucinante, incluso misterioso y fabuloso, suelen ser respuestas comunes. Como he apuntado en otros lugares, aunque pronunciadas por Darwinistas leales, esas exclamaciones parecen revelar una cierta inquietud. Esto, conjeturo, como poco refleja una renuencia a aceptar que la evolución pueda tener un grado de direccionalidad y quizás, en el investigador más alerta, hace renacer sus peores temores a la resurrección de un fin”.

La consecuencia de esto es que dentro del paradigma evolutivo existe evidencia creciente de que “la evolución puede que sea considerablemente menos aleatoria de lo que comúnmente se supone” (63) Además, si hay una frontera a la evolución, como sugieren Behe y otros, entonces la evidencia es que el navegador no consiste en el azar (y uno debería añadir) la selección natural en solitario.

Un insumo informativo (inteligente) parecería ser necesario.

¿Al sugerir que el parentesco genético implica un insumo de información, estamos volviendo una vez más al Dios de las Lagunas? Bien, desde el punto de vista científico por supuesto que no, si eso es lo que demandan las pruebas. Además de eso un simple experimento mental podría arrojar cierta luz sobre el problema.

Imagina un biólogo molecular afincado en un remoto planeta dentro de cinco millones de años analizando la estructura del ADN de distintas variedades de trigo del temprano siglo XX que los arqueólogos encontraron adherida a un fragmento de roca vagando en el espacio. Supongamos que no conoce que es un fragmento del planeta conocido como la tierra después de que fuera destruido por la colisión con un cometa un millón de años antes.

Su análisis molecular muestra que las diferentes especies parecen estar emparentadas porque su ADN es muy similar, de hecho idéntico en largas secciones, así que atribuye las diferencias a la selección natural y a la mutación aleatoria aunque las diferencias no parezcan aún encajar completamente en un patrón explicativo comprendido hasta entonces. Poco tiempo después, los arqueólogos del espacio encuentran un fragmento de texto en otra roca que vaga por el espacio y al final consiguen interpretar su (para ellos) lenguaje extremadamente primitivo que dice “Smith alteró la estructura del trigo con el fin de aumentar la cosecha”. Llevan este fragmento de texto decodificado al biólogo molecular: “Esto parece sugerir que una de tus dos muestras de trigo no fue producida por un proceso material no guiado sino que implicó mutaciones no aleatorias, esto es, que fue deliberadamente diseñado”. “Absurdo”, responde “esto es un mito de alguna civilización primitiva antes desconocida. Contempla el carácter primitivo de su lenguaje comparado con nuestra ciencia. Eso no es ciencia de verdad. Y en cualquier caso mi investigación está siguiendo una línea muy prometedora y pienso que pronto podremos ver que la ocasión y la necesidad pueden dar cuenta perfectamente de lo que observo. No estoy dispuesto a creer en un “Smith de los vacíos” que acabaría con la ciencia.

Y sin embargo los que vivimos en el siglo XXI sabemos que tal “Smith” existe en verdad. La inteligencia humana ha producido cosechas genéticamente modificadas.

El interés de este experimento mental radica en el hecho de que, incluso en el caso de que se pudiera argumentar razonablemente que sólo el azar y la necesidad estuvieran implicados en producir la segunda modalidad de trigo, la inteligencia estuvo implicada en ello. Es decir, no podemos incluso descartar en ese caso la implicación de una inteligencia externa a ese nivel.

Por supuesto, para afirmar la implicación de una inteligencia sobrenatural, sería correcto pedir muchas más pruebas, del tipo de las asociadas con las fronteras de la evolución, y, de forma más importante, con el origen de la vida misma. Como veremos en el siguiente capítulo.

Ciertamente cabe esperar ciertos parecidos, tanto genéticos como morfológicos, sea cual sea la hipótesis que uno adopte, ya sea el diseño o la ascendencia común o una combinación de ambos.

Stephen Meyer sostiene que la hipótesis de la ascendencia común es metodológicamente equivalente a la del diseño común en el sentido de que cualquier acusación de ser científica o poco científica puede realizarse contra cualquiera de ellas. Pues por ejemplo, postular un diseñador no observado no es más poco científico que postular pasos macroevolutivos no observados. (644)

Es seguramente muy evidente que la “evolución de los vacíos” está al menos tan extendida como el “Dios de los Vacíos”.

Behe concluye su examen de las distintas explicaciones que se han ofrecido para la prolífica complejidad de la vida diciendo:

“Concluyo que otra posibilidad es más probable: los sistemas elegantes, coherentes y funcionales de los que depende la vida son el resultado de un diseño deliberado e inteligente” (65)

Y su razonamiento no es el del “Dios de los Vacíos”. Lejos de ello. Su argumento de que la selección natural actuando sobre mutaciones aleatorias, aunque es responsable de las “variaciones sobre un tema” presentes en el mundo vivo, no es capaz de dar cuenta de la riqueza de la innovación genética genuina que yace más allá de la frontera de esas variaciones observadas, mientras que la inteligencia si puede dar cuenta de ella, y esto está basado en el entendimiento de la sofisticad biología molecular implicada no en la ignorancia de la misma.

Resulta interesante que el destacado ateo Thomas Nagel quede impresionado por esos argumentos. Hace notar que los biólogos evolutivos regularmente dicen que están seguros de que las mutaciones aleatorias bastan para dar cuenta de los complejos sistemas químicos que observamos en las cosas vivas, y sin embargo siente que hay mucho de pura retórica en sus argumentos y juzga que la evidencia no es suficiente para descartar un insumo inteligente (66)

Ciertamente, como ya he mencionado, hay destacados biólogos como Francis
Collins y Simon Conway Morris que no están de acuerdo con Behe sobre la materia de la frontera de la evolución. Es importante, por tanto, darse cuenta que esto no significa que tales biólogos compren la historia naturalista completa. Lejos de ellos.

Francis Collins expresa su insatisfacción con el término “evolución teista” sobre la base de que “Relegar la creencia de uno en Dios a un adjetivo sugiere una prioridad secundaria, con el énfasis primario puesto en el nombre, a saber “evolución”. Entonces, después de rechazar una serie de posibles descripciones que implican palabras como “creación” o “inteligencia” o “diseño” por temor a la confusión, decide finalmente emplear el término BioLogos. Bios a través del logos.

Estoy de acuerdo que el uso de ciertos términos puede ser confuso y desorientador pues están llenos de diversos tipos de “equipajes”: Y con todo parecería que la idea fundamental de una inteligencia diseñadora nunca está muy lejos. Ciertamente, es difícil imaginar una descripción más evocadora y acta para especificarla que el Logos.

Para resumir el argumento hasta ahora, la afirmación de que el ateísmo puede deducirse de la biología evolutiva es falsa. En primer lugar, por la razón lógica de que no puedes deducir una visión del mundo de una ciencia; y en segundo lugar, por que los avances científicos desde la época de Darwin no apoyan la noción de que el relojero ciego de la mutación y la selección natural den cuenta de la existencia y variedad de toda la vida. Ciertamente, el mecanismo de mutación y la selección da cuenta de muchas de las variaciones que Darwin y nosotros observamos, pero su alcance está circunscrito. Parecería haber un límite a la evolución, una frontera más allá de lo cual el relojero ciego no pudiera hacer nada.

Además, incluso entre aquellos que son escépticos respecto de la existencia de tal frontera, hay científicos destacados que apuntan a la misteriosa capacidad de los procesos naturales para navegar hacia soluciones complejas como evidencia de la implicación del Logos.

La complejidad inimaginable de los sistemas vivos y sus mecanismos reguladores que los revela la biología molecular, seguramente tiene la misma impronta de una inteligencia diseñadora que el universo con ajuste fino de los que tales mecanismos dependen en última instancia.

Es fácil olvidar que con todo lo dicho anteriormente, se ha asumido la existencia de la vida. Dawkins a veces te da la impresión (especialmente en el Relojero Ciego) que el mecanismo que descubrió Darwin explica tanto la existencia de la vida como sus variaciones. Esto es por supuesto falso, como después admite en el Espejismo de Dios. Después de todo, en la síntesis neodarwiniana, la selección y la mutación presuponen la existencia de un replicador mutante. Ahora defenderemos que el origen de la vida plantea un reto todavía más formidable al naturalismo que la frontera de la evolución.

La biogénesis será la materia de nuestro siguiente capítulo.

(Fin del capítulo VI)

_________________


Iros todos a tomar por culo. Ya lo hago yo, yalo hago yo. Se tarda menos tiempo en hacerlo que en estar dando explicaciones.


Arriba
 Perfil Email  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Vie Feb 06, 2015 9:21 pm 
Desconectado
We are not done yet!

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 56588
Ubicación: I will show YOU the Dark Side
Lennox iba bien, tenía algunos puntos interesantes, sobre todo el capítulo sobre la cosmología y el ajuste fino, y el reduccionismo científico, etc. Pero si alguien lee esto, a mi también me pareció que había que ser un poco ingenuo o tener cojones en el mal sentido de la expresión, para citar a Behe, sobre todo después del juicio ese donde quedó "un pelín" desacreditado. Me parece lo más flojo de un libro en su conjunto muy interesante para un ateo como servidor.

Pero seguiré traduciéndolo porque a pesar de este capítulo último en concreto el libro es al menos food for thought.

_________________


Iros todos a tomar por culo. Ya lo hago yo, yalo hago yo. Se tarda menos tiempo en hacerlo que en estar dando explicaciones.


Arriba
 Perfil Email  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Lun Feb 09, 2015 3:34 pm 
Desconectado
We are not done yet!

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 56588
Ubicación: I will show YOU the Dark Side
El origen de la vida.

“Cualquiera que te diga que sabe como la vida comenzó en la tierra hace 3.500.000.000 de años es o un necio o un fullero. Nadie lo sabe”.

Stuart Kauffman

“Ha acabado siendo extremadamente difícil empezar a pensar en construir una teoría naturalista de la evolución del primer organismo replicante”.
Anthony Flew

La complejidad de la célula viviente.

Nuestro primer objetivo en este capítulo es hacernos una idea de la vasta complejidad de la célula viviente y a continuación centrar nuestra atención en un aspecto de ella, la naturaleza de la complejidad del ADN.

Según el genetista Michel Denton la ruptura entre lo inerte y lo viviente representa “la más dramática y fundamental de las discontinuidades de la naturaleza. Entre una célula viviente y los más complejos y ordenados sistemas no biológicos, como un cristal o una bola de nieve, hay una sima tan vasta y absoluta como pudiera ser posible concebir”. (1)

Incluso la más diminuta de las células bacterianas, que pesa menos que uno en un billón de un gramo, es “una verdadera fábrica miniaturizada que contiene miles de piezas exquisitamente diseñadas de complicada maquinaria molecular, compuesta de 100 mil millones de átomos, mucho más complicada que cualquier máquina construida por el hombre y absolutamente sin rival en el mundo de lo inerte. (2)

Además, según Denton, parece que hay pocas pruebas de evolución en las células:

“La biología molecular ha mostrado igualmente que el diseño básico del sistema celular es esencialmente el mismo en todos los sistemas vivos de la tierra, desde las bacterias a los mamíferos. En todos los organismos los papeles del ADN el ARN y las proteínas son idénticos. El significado del código genético es asimismo virtualmente idéntico en todas las células. El tamaño, la estructura y los componentes y el diseño de la maquinaria sintética de las proteínas es prácticamente el mismo en todas las células. En términos de su diseño bioquímico básico, por tanto, ningún sistema vivo puede concebirse como primitivo o ancestral con respecto a cualquier otro sistema, ni existe la más ligera evidencia empírica de una secuencia evolutiva entre todas las increíblemente diversas células en la tierra (3)

Este punto de vista es apoyado por el ganador del premio nobel Jacques Monod, que cita Denton:

“No tenemos la menor idea de cómo podría haber sido la estructura de una célula primitiva. El sistema vivo más simple conocido, la célula bacteriana, en el conjunto de su plan químico es igual que el de otros seres vivos. Emplea el mismo código genético y el mismo mecanismo de traducción que poseen, por ejemplo, las células humanas. Por tanto las células más simples disponibles para que las investiguemos no son primitivas en absoluto… no hay vestigios discernibles de estructuras verdaderamente primitivas”. (4)

De este modo las propias células exhiben un tipo similar de “estasis” que aquel al que nos referíamos en el capítulo anterior en conexión con el registro fósil.

Complejidad irreducible.

“Siempre hemos subestimado las células”, dice Bruce Alberts, Presidente de la Academia Nacional de Ciencias de EEUU. “Toda la célula puede contemplarse como una fábrica que contiene una elaborada red de líneas de montaje interconectadas, cada una de las cuales se compone de un grupo de enormes máquinas de proteínas… ¿Por qué denominamos a las largas agrupaciones de proteínas que subyacen a la función celular, máquinas de proteínas? Precisamente porque, como máquinas inventadas por los humanos para tratar eficazmente con el mundo macroscópico, estas agrupaciones de proteínas contienen partes que se mueven con una elevada coordinación”. (56)

Es difícil para nosotros conseguir alguna clase de idea de la extremadamente ocupada y absurdamente compleja actividad que sucede dentro de una célula viviente, que contiene dentro de su membrana quizás 100 millones de proteínas de 20.00 clases diferentes y sin embargo toda la célula es tan diminuta que un par de cientos podrían colocarse en el punto de la letra “i”.

La célula es incansablemente productiva puesto que sus muchas líneas de montaje micro-miniaturizadas producen sus cuotas interminables de máquinas de proteínas. La existencia de estas exquisitamente constituidas máquinas moleculares es una poderosa prueba para algunos científicos de una inteligencia diseñadora. Destacado entre ellos es el bioquímico Michael Behe, que estudia estás “máquinas” en un libro que ha generado mucha polémica y críticas. (7)

Uno de los ejemplos que aporta es el del diminuto motor impulsado por ácido (descubierto en 1973) que impulsa el flagelo bacteriano, un mecanismo parecido a una hélice que permite a las bacterias nadar, y muestra que este motor, tan pequeño que 35.000 puesto en fila ocuparían sólo un milímetro, consiste de 40 partes de proteínas que incluyen un rotor, incluyendo un rotor, un estator, bujes y un eje de transmisión. Behe defiende que la ausencia de cualquiera de estas partes evitaría que funcionara el motor. Es decir, que el motor es irreduciblemente complejo, es un “sistema único compuesto de varias partes que interactúan, bien acopladas, que contribuyen a la función básica, en la que la eliminación de una de las partes ocasiona que el sistema deje de funcionar en la práctica (8)

Una ilustración simple del concepto la aporta una humilde planta para ratones. Todos sus cinco o seis componentes deben estar presentes para que funcionen. Esto significa, como apunta Behe que “ningún sistema irreduciblemente complejo puede producirse directamente (es decir, mediante la mejora continua de la función inicial, que sigue funcionando con el mismo mecanismo) mediante ligeras y sucesivas modificaciones de un sistema precursor, pues cualquier precursor de un sistema complejamente irreducible por definición no tiene una pieza, y es por definición no funcional”:

Parecería obvio que la existencia de máquinas biológicas irreduciblemente complejas presentaría un reto formidable para la teoría evolutiva, como vio el propio Darwin cuando escribió:

“Sí pudiera demostrarse que cualquier organismo complejo en existencia no se hubiera podido formar por modificaciones ligeras, numerosas y sucesivas, mi teoría se vendría completamente abajo” (9)

Este punto lo repite Dawkins en “El Relojero Ciego”, (10) que dice que si se encontrara un organismo de ese tipo “dejaría de creer en el Darwinismo” (11)

Behe responde al reto de Darwin defendiendo que existen muchas máquinas moleculares irreduciblemente complejas, como el flagelo. Es claro a partir de la definición que establecer que cualquier sistema particular es irreduciblemente complejo implica probar un hecho negativo; y esto, como se sabe, es bastante difícil. No es sorprendente, por tanto, que Behe (que debe notarse, parece no tener ningún problema con la idea Darwiniana de descendencia con modificación) haya provocado una tormenta de controversia (12) con su afirmación de que “ la evolución molecular no se basa en la autoridad científica. No ha publicación en la literatura científica, en revistas prestigiosas de especialistas o libros, que describa como la evolución molecular de cualquier sistema biológico, real y complejo o puso suceder o incluso podría haber sucedido. Hay afirmaciones de que dicha evolución sucedió, pero ninguna está apoyada por cálculos o experimentos pertinentes… a pesar de secuencias comparativas y modelos matemáticos, la evolución molecular nunca ha abordado adecuadamente la cuestión de cómo llegaron a ser las estructuras complejas. De hecho la teoría de la evolución molecular darwiniana no ha publicado nada, y por lo tanto debería perecer. (13)

James Shapiro, un bioquímico de la Universidad de Chicago, admite igualmente que no existen narrativas detalladas de la evolución de cualquier sistema fundamental celular o bioquímico; sólo una variedad de especulaciones más o menos caprichosas. Incluso en la recensión extremadamente crítica de Behe de Cavalier-Smith, se concede el punto de Behe de que no existen modelos bioquímicos detallados. Stephen Jay Gould, que no tenía simpatías conocidas por el argumento de Behe, reconocía no obstante la importancia del concepto de complejidad irreducible:

“La ciencia clásica, con sus preferencia por la reducción a unos pocos factores controladores de causalidad, prosperó de forma triunfal con sistemas relativamente simples como el movimiento planetario o la tabla periódica de los elementos. Pero los sistemas irreduciblemente complejos, es decir, la mayoría de los fenómenos más interesantes de la biología, la historia y la sociedad humana, no pueden ser explicados de este modo. Necesitamos de una nueva filosofía y de nuevos modelos, y estos deben provenir de una unión de las humanidades y las ciencias como se definen tradicionalmente”. (14)

Es interesante que Gould hable de “una nueva filosofía” y no simplemente de nuevos métodos científicos, una cuestión que también resulta de interés a Behe. Para Behe, lo inadecuado de la síntesis darwiniana reside en el hecho de que no puede, siquiera en principio, explicar el origen de la complejidad irreducible. Defiende que la existencia de la complejidad irreducible al nivel de la máquina molecular apunta sin muchas dudas a un diseño inteligente:

“Para cualquier persona que no se sienta obligada a investigar causas no inteligentes, la conclusión más obvia es que muchos sistemas bioquímicos fueron diseñados. No fueron diseñados ni por las leyes de la naturaleza ni por el azar y la necesidad, más bien, fueron planeados. El diseñador sabía el aspecto que tendrían sistemas cuando fueran completados, y después tomó los pasos siguientes para construirlos. La vida en la tierra, a su nivel más fundamental, en sus componentes más críticos, es el producto de una actividad inteligente”. (15)

Además Behe recalca que sus conclusiones se infieren de forma natural de los datos, y no de libros sagrados o creencias sectarias. No precisan de nuevos principios de lógica o de ciencia, sino que fluyen de las pruebas aportadas por la bioquímica en combinación en la forma en la que normalmente realizamos inferencias de diseño. Esto es una tesis de tan largo alcance que deberemos examinarla con más detalle más tarde.

Pero, en primer lugar, en tanto que aún hay una batalla sobre si Behe ha probado lo que dice o no (y teniendo en cuenta lo que está en juego, la batalla es probable que dure mucho tiempo) vamos a volver a mirar lo que está detrás de la compleja estructura de las máquinas moleculares. Eso nos lleva de inmediato a la cuestión del origen de la vida misma.

Ha habido muchas teorías sobre el origen de la vida. Dos de las más destacadas son las de los escenarios del “replicador primero” y el del “metabolismo primero”.

Richard Dawkins atrajo una extendida atención al primero de estos escenarios en su superventas el Gen Egoísta:

“En algún momento una molécula particularmente notable se formó por accidente. La llamaremos el Replicador. Puede no haber sido la célula más grande o la más compleja, pero tenía la extraordinaria propiedad de poder crear copias de si misma”. (16)

Sin embargo, en las páginas siguientes veremos lo poco probable que es que este y otros modelos del origen de la vista parecen ser a luz de la investigación realizada en los 30 años transcurridos desde que se publicó el libro de Dawkins.

Los bloques de construcción de la vida.

Las máquinas moleculares como el flagelo están compuestas de proteínas, que a su vez están compuestas de lo que con frecuencia se denomina los ladrillos básicos de construcción de los sistemas vivos, los aminoácidos, 20 de los cuales aparecen en los organismos vivos. Una de las cuestiones cruciales en la biología es: ¿cómo surgen estos?

El famoso bioquímico Ruso A. I. Oparin sugirió en los años veinte que la atmósfera de la tierra primigenia se componía esencialmente de metano, amoniaco, hidrógeno y vapor de agua, y que la vida había surgido como resultado de reacciones químicas que ocurrieron entre esta atmósfera y las sustancias químicas que había en la tierra con la ayuda de la radiación ultravioleta del Sol y de otras fuentes de energía naturales como un relámpago. En 1952, el estudiante de 22 años Stanley Miller realizó un famoso experimento para comprobar la sugerencia de Oparin en el laboratorio, aplicando descargas eléctricas a una mezcla química que simulaba lo que se pensaba que sería la atmósfera de la tierra temprana. Después de dos días Miller halló una cosecha de aminoácidos del 2 por ciento. La experimentación subsiguiente ha producido todos menos uno de los 20 aminoácidos necesarios para la vida. (17)

De forma bastante comprensible, esos experimentos fueron celebrados con gran entusiasmo como la solución al problema del origen de la vida. Parecía como si los ladrillos de la vida se pudieran obtener con facilidad mediante procesos naturales no guiados. Sin embargo la marea de esta euforia ha bajado a la luz de subsiguientes grandes dificultades que han surgido debido a una comprensión más profunda de la química implicada.

En primer lugar, el consenso de opinión entre los geoquímicos sobre la composición de la atmósfera temprana de la tierra ha cambiado. Ahora piensan que no contenía cantidades significativas de amoniaco, metano o hidrógeno necesarias para producir una atmósfera fuertemente decreciente como precisaba la hipótesis de Oparin, sino que era mucho más probable que hubiera consistido de nitrógeno, dióxido de carbono y vapor de agua. También hay pruebas de cantidades significativas de oxígeno libre. (18) Esto cambia el cuadro completamente, pues hay razones teóricas y prácticas por las que los aminoácidos no podían formarse en esta atmósfera, como ha sido confirmado experimentalmente.

La presencia de oxígeno, por ejemplo, inhibiría la producción de biomoléculas cruciales, y ciertamente incluso degradaría las que pudieran existir. En breve, por tanto, las pruebas sugieren que la atmósfera de la Tierra temprana hubiera en realidad sido hostil a la formación de aminoácidos. (19)

Supongamos ahora que queremos hacer una proteína con 100 aminoácidos (y sería una proteína corta, la mayoría son como poco tres veces más largas) Los aminoácidos existen en dos formas quirales que son imágenes especulares de cada una, denominadas formas L y D. Esas dos formas aparecen en igual número en los experimentos de simulación pre-bióticos, de modo que la probabilidad de obtener una u otra de estas formas es aproximadamente ½. Sin embargo, la gran mayoría de las proteínas que se encuentran en la naturaleza contienen sólo la forma L. La probabilidad de obtener cien aminoácidos de la forma L es por tanto (1/2) elevado a 100, lo que es alrededor de una posibilidad en 10 elevado a 30. Además, nuestros aminoácidos tienen que juntarse. Una proteína funcional requiere que todos los enlaces sean de un cierto tipo, enlaces peptídicos, con el fin de que se pliegue en la estructura tridimensional correcta. Y sin embargo en la simulaciones prebióticas no más de la mitad de los enlaces son enlaces peptídicos. Así que la probabilidad de un enlace peptídico es alrededor de ½, y de nuevo la probabilidad de obtener 100 de tales enlaces es de una entre 10 elevado a 30. Así que la probabilidad de obtener 100 ácidos L al azar con enlaces peptídicos es alrededor de 1 en 10 elevado a 60. En todas las formas conocidas de vida, la quiralidad de las moléculas y los enlaces peptídicos se mantienen mediante la maquinaria molecular.

En ausencia de tales moléculas complejas procesadoras de información en el estado pre-biótico, la quiralidad variable, la secuencia de aminoácidos y los enlaces no llevarían a estados plegados reproducibles que son esenciales para la función molecular.

Por supuesto que una proteína corta es mucho menos complicada que la célula más simple, para esa las probabilidades serían mucho más pequeñas. Sin embargo, ya en esta sección, las pequeñas probabilidades que hemos obtenido son chocantemente similares a aquellas que hemos enunciado en la sección sobre el ajuste fino del universo. Los mismos ladrillos de la vida muestran el tipo de prueba a partir de la cual podemos inferir que nuestros cuerpos están ajustados finamente para la vida.

El físico Paul Davies, apunta que existen inmensos problemas termodinámicos para producir las cadenas peptídicas de aminoácidos. La Segunda Ley de la Termodinámica describe la tendencia natural de los sistemas cerrados a degenerar, a perder información, orden y complejidad, es decir, a incrementar su entropía. El calor pasa de caliente a frío, el agua fluye hacia abajo, los coches se oxidan, etc. Ahora bien la segunda ley tiene un carácter estadístico: no excluye absolutamente que los sistemas físicos vayan contra la corriente y hacia arriba, pero las probabilidades de eso son bastante escasa. Davies dice:

“Se ha estima que, dejada a sus propios recursos, una solución concentrada de aminoácidos necesitaría un volumen de fluido del tamaño del universo observable para ir contra la marea termodinámica, y crear un simple y pequeño polipéptido de forma espontanea. Claramente, barajar aleatoriamente las moléculas sirve de poco cuando la fleche de la direccionalidad apunta al camino equivocado”. (20)

Además existe un gran problema con el tiempo puesto que el tiempo disponible para esa “barajada molecular” es mucho más breve de lo que piensa mucha gente. Según las estimaciones actuales hay relativamente poco tiempo, menos de 1.000.000.000 de años después de la formación de la tierra, que fue más o menos hace 4.500.000.000 de años para que la vida surgiera (como quiera que fuera) puesto que los restos de organismos unicelulares han sido hallados en las rocas más antiguas.

El problema principal. El origen de la estructura de las proteínas.

Pero incluso esos problemas (y no son cosa baladí) palidece, casi son triviales por comparación, con el mayor problema de todos. Este tiene que ver con la forma en que las proteínas se componen de aminoácidos. Pues las proteínas no se hacen simplemente mezclando los aminoácidos correctos en las proporciones correctas, como podríamos mezclar un ácido inorgánico con un alcaloide para producir sal y agua. Las proteínas son construcciones inmensamente especializadas y complicadas de largas cadenas de moléculas de aminoácidos y no pueden producirse simplemente inyectando energía en la materia prima que se necesita para su construcción.

Paul Davies lo expresa de modo gráfico:

“Hacer una proteína simplemente inyectando energía es como hacer explotar un cartucho de dinamita bajo una pila de ladrillos y esperar que se forme una casa. Puedes liberar la suficiente energía para levantar los ladrillos, pero sin canalizar la energía a los ladrillos de un modo controlado y ordenado, hay pocas esperanzas de producir algo que no sea un desastre caótico” (21)

Una cosa es hacer ladrillos y otra muy distinta organizar la construcción de una casa o fábrica. SI tienes que hacerlo, podrías empezar a construirla empleando las piedras que te encuentres en el suelo, en las formas y tamaños que tienen debido a causas naturales. Sin embargo, la organización del edificio precisa de algo que no está contenido en las piedras. Requiere la inteligencia del arquitecto y la habilidad del constructor. Lo mismo ocurre con los ladrillos de la vida. El ciego azar no haré el trabajo de colocarlas juntas en un modo específico. El químico orgánico y biólogo molecular A.G. Cairns-Smith lo expresa de este modo:

“El ciego azar… es muy limitado… puede producir fácilmente el equivalente de las letras y de pequeñas palabras, pero es muy incompetente cuando la cantidad de organización aumenta. Muy pronto, da igual el tiempo que esperes o la masiva cantidad de recursos que tengas” (22)

Cairns-Smith emplea aquí la analogía de las letras y las palabras y con toda razón puesto que el rasgo crucial que caracteriza a las proteínas es que los aminoácidos que las componen deben estar exactamente en los lugares adecuados de la cadena. Contempla los aminoácidos como las veinte letras de un alfabeto. Entonces la proteína es una palabra increíblemente “larga” en la que cada “letra” aminoácido debe estar en el sitio correcto. E decir, el orden en el que los aminoácidos están dispuestos en la cadena es la cuestión vital, no simplemente el hecho de que estén allí, así como las letras en una palabra o las pulsaciones en un programa de ordenador, deben estar en el orden correcto para que la palabra signifique lo que deba significar, o para que el programa funcione. Una sola letra mal puesta y la palabra sería otra o una tontería; una simple mala pulsación en un programa de ordenador, y dejará de funcionar.

La idea de este argumento es muy clara a partir de simples consideraciones probabilísticas. Entre los muchos diferentes tipos de aminoácidos hay 20 que están implicados en hacer proteínas, así que si tenemos un estanque con las 20 la probabilidad de obtener el aminoácido correcto en un lugar específico en la proteína sería 1/20. De este modo la probabilidad de obtener 100 aminoácidos en el orden correcto sería (1/20) elevado a 100, que es alrededor de 1 en 10 elevado a 130, y por lo tanto extremadamente pequeña. (23)

Pero eso es sólo el comienzo, y además un comienzo muy modesto. Porque estos cálculos conciernen a una sola proteína. Y sin embargo la vida como la conocemos precisa de cientos de miles de proteínas, y se ha calculado que la probabilidad de que estas se produzcan por azar es mayor que 10 elevado a 40.000 a 1. Sir Fred Hoyle como es bien conocido comparó estas probabilidades para la formación espontánea de la vida como la posibilidad de que un tornado entre en una chatarrería y monte un Boeing 747. (24)

Y esto no es más que una versión actualizada de una observación realizada por Cicerón alrededor del año 46 antes de cristo cuando cita al estoico Balbo que veía las inmensas dificultades asociadas con el origen azaroso de algo parecido al lenguaje con mucha claridad:

“Si un incontable número de copias de las 21 letras del alfabeto, hechas de oro o de lo que quieras, se arrojaran juntas a un receptáculo y después se agitarlas las tiraras al suelo, ¿sería posible que produjeran los anales de Ennio? Dudo que el mero azar pudiera producir un solo verso”. (25)

Justamente. El ciego azar sencillamente no sirve, un sentimiento que es objeto de un consenso universal entre científicos sean o no sean naturalistas, pero un consenso sobre el que tenemos que decir más cosas.

Escenarios de auto-organización.

Existe un interés incrementado en la idea de que la solución al problema del origen de la vida descansa en el fascinante concepto de la auto-organización.

Por ejemplo, los Premios Nobel Ilya Prigogine y Isabelle Stengers han defendido que el orden y la organización pueden surgir espontáneamente a partir del caos y el desorden. (26) El tipo de caos en el que están interesados es el que exhiben los sistemas termodinámicos que son conducidos lejos del equilibrio y empiezan a exhibir un comportamiento no lineal de tal clase que un pequeño cambio en un insumo puede desencadenar consecuencias desproporcionadamente enormes. El más famoso ejemplo de esto es el llamado “efecto mariposa” en el que el aleteo de la mariposa en una parte del mundo desencadena una serie de acontecimientos que provocan una tormenta tropical en otro sitio. Tales sistemas, como el clima, que son extremadamente sensibles a cambios en las condiciones iniciales y son por tanto inherentemente impredecibles se llaman sistemas caóticos. Prigogine muestra que inesperadamente pueden ser producidos inesperados patrones ordenados. Uno de los mejores ejemplos de esto es la convección Rayleigh-Bénard en la que el calor que fluye suavemente a través de un líquido cambia súbitamente en una corriente de convección que reorganiza él liquido de modo que un patrón parecido a un panal compuesto de celdas hexagonales aparece, que parece como las famosas formaciones rocosas de la Escalera de los Gigantes en Irlanda del Norte.

Otro ejemplo que se cita con frecuencia es la reacción Belousov-Zhabotinski que exhibe una ruptura de la simetría temporal, más que espacial. Este fenómeno, ocurre, por ejemplo, cuando el ácido malónico se oxida por el bromato de potasio con la ayuda de dos catalizadores, el sulfato de cerio y la ferroina. Si la mezcla se mantiene a alrededor de 25 grados Celsius, y se agita constantemente cambiará repetidamente de color del rojo al azul (27) a intervalos aproximadamente de un minuto de modo que la reacción funciona como una especie de reloj químico con un periodo notablemente regular. Esta reacción es tan fascinante que una breve y extremadamente simplificada explicación es necesaria.

Imaginemos por tanto una reacción en la que la sustancia A se está convirtiendo en la sustancia B. Representamos esto como:

1. A >> B

Supongamos que esta es seguida por una segunda reacción, llamada reacción auto-catalítica:

2. A+B >> 2B

Aquí B está actuando como catalizador puesto que cada molécula de B en la izquierda reaparece en la derecha. Pero hay más B que con la que empezamos de modo que la tasa de la reacción 2 depende de la cantidad de producto formado y así tenemos un bucle de retroalimentación positiva que acelera la reacción, de aquí el término auto-catalítico. Ahora complicamos la situación y a la vez la hacemos mucho más interesante introduciendo dos reacciones más:

3. B+C >> 2C
4. C >> D

La reacción 3 es una reacción auto-catalítica adicional, pero esta vez tiene el efecto de reducir la cantidad de B y funciona en la dirección opuesta a la 2. Podemos imaginar la cuarta reacción como produciendo un residuo D. Los ingredientes finales que necesitamos para completar el cuadro son un indicador que se vuelve rojo en presencia de B y azul en presencia de C. Ahora comenzamos la reacción con más en proporción en términos de concentración de A y C. Entonces, puesto que las tasas de reacción son proporcionales a las concentraciones de los reactivos, a reacción 2 dominará inicialmente a la reacción 3. De este modo la concentración de B subirá y la mezcla será roja. Pero la reacción auto-catalítica 3 acabará haciéndose cargo y reducirá la concentración de B y el color pasará a ser azul debido al dominio de C. Pero ahora entra en juego la reacción cuatro y se como C, de modo que B acaba dominando una vez más y tenemos otro cambio de color. Al final el proceso se detendrá en cuanto A se agote o D congestione el sistema. Podríamos dejarlo seguir, es decir, mantener el sistema lejos del equilibrio, aportando más A y eliminando D.

De este modo, en cada uno de esos sistemas, se genera orden y algunos piensan que de algún modo esos procesos nos dan una idea de cómo podía haber empezado la vida. (28)

En una vena similar, Robert Shapiro y otros sugieren un escenario de “metabolismo” o “pequeña molécula” para el origen de la vida, es decir, uno que no contiene inicialmente un mecanismo para la herencia y que por lo tanto implica pequeñas moléculas más que moléculas enormes portadoras de información como el ADN o el ARN. Shapiro habla de la génesis de:

“… una clase de vida… definida como la creación de un mayor orden en regiones localizadas mediante ciclos químicos conducidos por un flujo de energía”. (29)

Sin embargo, el destacado experto en el origen de la vida Leslie Orgel nos ofrece una evaluación analítica en profundidad de tales ciclos, en particular de la obra de Kauffman. Argumenta a partir de la química que su existencia es muy poco razonable. Escribe:

“Me parece claro que la existencia de una secuencia de reacciones catalíticas que podrían constituir un ciclo auto-catalítico es una condición necesaria para que el ciclo funcione en una forma sostenida, pero no es una condición suficiente. Es también necesario que las reacciones secundarias que podrían perturbar el ciclo sean evitadas. No es completamente imposible que existan suficientes agentes químicos minerales específicos para cada una de las reacciones del ciclo inverso del ácido cítrico, pero la probabilidad de una serie completa de tales agentes ocurriendo en una localización única en la tierra primitiva en ausencia de agentes químicos provocadores de reacciones perturbadoras secundarias me parece extremadamente remota. La falta de especificidad más que la eficacia inadecuada puede ser la barrera predominante a la existencia de ciclos auto-catalíticos de prácticamente cualquier tipo”.

Y dice además:

“¿Por qué debería creer uno que una agrupación de minerales que son capaces de catalizar cada uno de los muchos pasos del ciclo inverso del ácido cítrico estaba presente en algún sitio en la tierra primitiva, o que ese ciclo se organizó misteriosamente en cuanto a la topografía en una superficie de sulfuro metálico?”

En un interesante comentario sobre una obra específica acerca de la auto-organización química comenta:

“Ghadiri y sus colaboradores… demostraron la auto-organización de redes de reacciones de ligazón cuando son usados más de dos cuidadosamente diseñados insumos de péptidos. Esos hallazgos no pueden apoyar la teoría de Kauffman a menos que la síntesis pre-biótica de los específicos insumos de péptidos 15mer y 17mer a partir de aminoácidos monoméricos pueda explicarse. De otro modo, los experimentos de Ghadiri ilustran el “diseño inteligente” del insumo de los péptidos, no la auto-organización espontanea de aminoácidos que se polimerizan… Ninguna de estas posibilidades, ni de otras con las que estoy familiarizado, explican como una compleja interconectada familia de ciclos capaces de evolución puede surgir o por qué debería ser estable”.

Su conclusión es que:

“Las síntesis pre-bióticas que han sido investigadas experimentalmente casi siempre conducen a la formación de mezclas complejas. Los esquemas propuestos de replicación de los polímeros es poco probable que prosperen salvo con insumos de monómeros razonablemente puros. Ninguna solución del problema del origen de la vida será posible hasta que el vacío entre los dos tipos de química se cierre. La simplificación de mezclas de productos mediante la auto-organización de secuencias de reacciones orgánicas, cíclicas o no, ayudaría enormemente, como lo haría el descubrimiento de polímeros replicantes simples. Sin embargo, las soluciones ofrecidas por los partidarios de los escenarios genéticos y metabólicos que dependen de la química hipotética de “si mi abuela tuviera ruedas” es poco probable que sean de alguna ayuda”. (30)

El problema central.

La visión de que tales procesos, incluso si ocurrieran contra todas las probabilidades que oponen los químicos, del algún modo nos dan una penetración en el origen de la vida misma acaba inevitablemente en dificultades mucho mayores que tienen que ver con la naturaleza de la complejidad exhibida por la estructura de las proteínas que mencionamos al final de la última sección. Pues el problema central no es producir el tipo de orden que se ve en un cristal, en un panal o incluso en una reacción Belousov-Zhabotinski. Es el de producir los tipos de estructuras parecidas al lenguaje y cualitativamente diferentes formadas por la compleja ordenación de aminoácidos que forma una proteína. Paul Davies (132) expone la diferencia con mucha claridad:

“La vida no es en realidad un ejemplo de auto-organización. La vida es en realidad especificada, es decir, una organización genéticamente dirigida. Las cosas vivientes reciben instrucciones de su software genético codificado en su ADN o ARN. Las células de convección se forman espontáneamente por la auto-organización. No hay un gen para la célula de convección. La fuente del orden no está codificada en un software, sino que puede rastrearse a las condiciones límite en el fluido… En otras palabras, el orden de la célula de convección se impone externamente, a partir del entorno del sistema. Por contraste, el orden de una célula viviente deriva del control interno… la teoría de la auto-organización hasta ahora no ofrece ningún indicio de cómo se puede realiza la transición entre la organización espontanea o auto-inducida- que incluso en los ejemplos no biológicos más elaborados aún implica estructuras relativamente simple, y la organización genética, extremadamente compleja y basada en la información de las cosas vivas” (31(

Stephen Meyer presenta así la material:

“Los teóricos de la auto-organización explican muy bien lo que no hace falta explicar. Lo que necesita ser explicado no es el origen del orden… sino el origen de la información” (32) Es el concepto de la información el que está en el corazón del problema, a cuyo entendimiento debemos consagrar nuestra atención en lo que queda de este libro.

Uno de los más eminentes científicos que trabaja en el origen de la vida, resumió su posición como sigue:

“Existen varias teorías sostenibles sobre el origen del material orgánico en la Tierra primitiva, pero en ningún caso es convincente la evidencia que las apoya. De igual modo, ciertos escenarios alternativos podrían dar cuenta de la auto-organización de una entidad auto-replicante a partir de material orgánico pre-biótico, pero todas aquellas que están bien formuladas se basan en síntesis químicas hipotéticas que son problemáticas” (33)

Orgel por tanto se hace eco del punto de vista de Klaus Dose, también un destacado investigador sobre el origen de la vida, que hace diez años hizo la siguiente evaluación:

“Más de 30 años de experimentación sobre el origen de la vida en los campos de la evolución química y molecular han llevado a una mejor percepción de la inmensidad del problema del origen de la vida en la Tierra más que su solución. Al presente todas las discusiones sobre las principales teorías y experimentos en este caso acaban o en tablas o en una abierta confesión de ignorancia” (34)

Sir Francis Crick, que no es precisamente conocido por sus simpatías por lo milagroso, escribió, sin embargo:

“El origen de la vida casi parece un milagro, tantas son las condiciones que tenían que satisfacerse para que se produjera”. (35)

Todo esto le lleva a uno a pensar que el veredicto de Stuart Kauffman del Instituto Santa Fe es válido:

“Cualquiera que te diga que sabe como la vida comenzó en la tierra hace 3.500.000.000 de años es o un necio o un fullero. Nadie lo sabe”. (36)

Y hace poco, Francis Collins ha dicho lo mismo:

“¿Pero de dónde provienen los organismos auto-replicantes en primer lugar? Es justo decir que hoy en día no lo sabemos. Ninguna hipótesis en el presente se acerca siquiera a explicar como en el espacio de meramente 150 millones de años el entorno pre-biótico que existía en el planeta dio lugar a la vida. Esto no es decir que no se han propuesto hipótesis razonables, pero la probabilidad estadística de que den cuenta del origen de la vida aún parece remota” (37)

_________________


Iros todos a tomar por culo. Ya lo hago yo, yalo hago yo. Se tarda menos tiempo en hacerlo que en estar dando explicaciones.


Arriba
 Perfil Email  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Lun Feb 09, 2015 4:26 pm 
Desconectado
Si Ockham tenía una navaja, yo tengo un bate
Avatar de Usuario

Registrado: Mar Ago 02, 2005 8:43 pm
Mensajes: 15474
Algunos detalles:

Traer como argumento de autoridad a un prémio nobel de 1965 y fallecido en 1976es un poco de aquella manera. La biología molecular y la comprensión del funcionamiento del ADN y del ARN a avanzado un poco desde entonces.

Traer como argumento de autoridad a Behe ya es la repanocha. Todas sus frikadas han sido rebatidas sobradamente. El único sustento que consigue Behe es que aún no hay modelos suficientemente detallados. Lo cual simplemente significa que no se ha investigado suficientemente al respecto, no que la teoría sintética de la evolución es incorrecta.

Que los geólogos ahora afirmen que su hipótesis sobre la composición de la atmósfera terrestre ha cambiado en absoluto invalida la teoría de Oparin, que afirma que en determinados ambientes los aminoácidos se pueden formar espontaneamente. La hipótesis de los geólogos es eso, una hipótesis, y puede volver a cambiar a la luz de nuevos descubrimientos, peros los aminoácidos de Miller siguen ahí. Y como nos enseña Seldon Cooper, la geología no es una ciencia, la física si.
Además, pretender la imposibilidad estadística para cuestionar la formación de cadenas de aminoácidos es no tener idea de las dimensiones temporales que se manejan a esta escala. Mil millones de años de ná. Y no, no se barajan todas las cartas de nuevo cada vez que se crea un aminoácido. Una vez más, la evolución premia a los más aptos.

El argumento de que si un aminoácido de una cadena es erroneo toda la proteína falla, es simple y evidentemente falso. La prueba es la misma evolución. Si no hubiese errores en las proteínas, no existirían las mutaciones que impulsan la evolución.

Una y otra vez vuelve a la estadística para explicar la evolución, con la misma precisión que si explicase un motor diesel comparándolo con una hoguera. La evolución premia las combinaciones exitosas, que quedan maomenos fijadas. No es ni mucho menos azar puro.

Por último, vuelven una y otra vez a la petición de principìo con la posibilidad de pasar de las moléculas orgánicas básicas a estructuras autorreplicantes que pudiesen dar origen a la vida, ignorando la sobradamente conocida existencia de los priones, que son exactamente eso, moléculas protéicas autorreplicantes, sin mayor complejidad.

_________________
Sostiene Pereira que quienes no se encuentren a gusto aquí pueden marcharse tan libremente como cuando se registraron.
VULNERANT OMNES, ULTIMA NECAT
"... da igual, seré el agua fría de la tormenta..."


Arriba
 Perfil Email  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Lun Feb 09, 2015 4:52 pm 
Desconectado
We are not done yet!

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 56588
Ubicación: I will show YOU the Dark Side
Ya he dicho que los capítulos de la cosmología hasta cierto punto molaban, pero cuando se mete con la evolución y cita a Behe... en fin.

De todos modos no todos los que cita son de hace 30 años. Collins, por ejemplo, no.

_________________


Iros todos a tomar por culo. Ya lo hago yo, yalo hago yo. Se tarda menos tiempo en hacerlo que en estar dando explicaciones.


Arriba
 Perfil Email  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Lun Feb 09, 2015 6:30 pm 
Desconectado
Demasiado patriota
Avatar de Usuario

Registrado: Mar Ene 08, 2008 10:17 am
Mensajes: 19198
Ubicación: La Antiespaña
goldstein ataca de nuevo.




and what about the crusades?

_________________
Imagen
Éste soy yo, entrando en el hilo que has abierto, a leer todos y cada uno de tus posts:
Imagen
http://i46.tinypic.com/30dfdxy.jpg
http://i46.tinypic.com/34pcio5.jpg


Arriba
 Perfil  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Mar Feb 10, 2015 5:54 pm 
Desconectado
We are not done yet!

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 56588
Ubicación: I will show YOU the Dark Side
Capítulo 8.

El Código Genético y su origen.

“Lo que hay en el núcleo de cada ser vivo no es un fuego, un aliento divino, o una “chispa de vida”. Es información, palabras, instrucciones… Piensa en mil millones de caracteres digitales discretos… Si quieres entender la vida, piensa en la tecnología digital”.

Richard Dawkins

“El concepto de información de nuclear tanto en la genética como en la teoría evolutiva”.

John Maynard Smith

Información en la célula.

Con el fin de comprender con más claridad aún las cuestiones implicadas en la meditación sobre el origen de la vida, debemos ir más allá del nivel de las proteínas al nivel molecular donde encontramos otro ladrillo fundamental de la vida que es mucho más complejo que la proteína, la molécula del ADN. Uno de los mayores descubrimientos científicos de todos los tiempos ha sido la comprensión de la naturaleza y significación de esta macro-molécula portadora de información. Pues una célula viva no es mera materia. Es materia repleta de información. Según Richard Dawkins:

“Lo que hay en el núcleo de cada ser vivo no es un fuego, un aliento divino, o una “chispa de vida”. Es información, palabras, instrucciones… Piensa en mil millones de caracteres digitales discretos… Si quieres entender la vida, piensa en la tecnología digital”. (1) (2)

El contenido informativo del ADN es fundamental para la vida, pero hay más cosas fundamentales que el ADN. Para empezar, el ADN no está vivo el mismo. Pero Dawkins tiene razón en que debemos pensar sobre la información comprendiendo el papel fundamental que representa en el negocio de la vida. El ADN que porta información se contiene en el núcleo celular y almacena las instrucciones necesarias para construir las proteínas en el organismo funcional. Es la molécula hereditaria que contiene las características que pasan a nuestra descendencia. Como un disco duro de ordenador, el ADN contiene la base de datos de información y el programa que ofrece un producto específico. Cada una de las 10 a 100 billones de células en el cuerpo humano contiene una base de datos mayor que la enciclopedia británica. Hemos sido testigos en las últimas décadas de la aceptación, de mala gana al principio, pero después completa, por parte de los biólogos moleculares, del lenguaje y la metodología de la teoría de la información que les vino impuesta por el reconocimiento de la naturaleza y función del código genético. Ahora hablamos tan contentos de una célula viva como una máquina procesadora de información puesto que esto es precisamente lo que es, una estructura molecular con capacidad de procesar información. (3)

Esto supone un interesante desarrollo intelectual porque significa que la naturaleza de la información biológica puede ser explorada empleando los conceptos y resultados de la teoría de la información.

Sin embargo, no nos precipitemos a investigar todo esto antes de formarnos algún tipo de esquema en nuestras mentes de lo que es la molécula del ADN y como porta información.

¿Qué es el ADN?

Las letras son las siglas del Ácido Desoxirribonucleico. Es una molécula muy larga con una estructura de doble hélice cuyo descubrimiento hizo que Crick y Watson ganaran el premio nobel. Se parece a una escalera espiral compuesta de una cadena muy larga de moléculas mucho más simples denominadas nucleótidos. Hay diez de ellos en cada rotación completa de la espiral. Los nucleótidos consisten en un azúcar llamado ribosa junto con un grupo de fosfatos a partir del cual un átomo de oxigeno ha sido eliminado (lo que explica el prefijo dexoxi-) y en una base. Las bases, como se denominan son cuatro agentes químicos, Adenina, Guanina, Citosina y Timina, o A, G, C y T par simplificar y ellos (tan sólo) diferencian un nucleótido del siguiente. Las primeras dos bases son purinas y las dos segundas son pirimidinas. Los escalones de la escalera se forman a partir de los pares de la base, donde las dos moléculas pares de base que forman los extremos de cada escalón dado se mantienen juntas por enlaces de hidrógeno. Existe una regla por la que A está invariablemente emparejada con T y C con G, es decir, una purina siempre enlaza con una piramidina.

Por lo tanto, si una parte de la doble hélice comienza como AGGTCCGTAATG… la otra parte comenzará como TCCAGGCATTAC… Las dos partes son pues complementarias, si sabes una parte, puedes averiguar la otra. Veremos la importancia de esto en un momento.

Por supuesto, el etiquetado de los nucleótidos en las partes es arbitrario en el sentido de que podríamos por ejemplo asignar cuatro números a los mismos, digamos, 1,2,3,4 o 2,3,6,7 (o ciertamente cualesquiera símbolos distintivos) y podríamos después tomar para empezar la primera parte antes mencionada como 133422341143… o 255733572275…, respectivamente. Así se podría asignar un número único a cada molécula de ADN (normalmente un número extremadamente largo, como veremos más abajo, a partir del cual la secuencia de bases puede leerse.

Así como una secuencia de letras en un alfabeto corriente de uno de los lenguajes escritos del mundo puede portar un mensaje que depende de la precisa ordenación de las letras, así la secuencia de bases en la espina dorsal del ADN (la secuencia de escalones en la escalera, si se quiere) porta un mensaje preciso escrito en un alfabeto de cuatro letras A, C, G, T. Un gen es una larga cadena de estas letras que porta la información para una proteína de modo que un gen puede interpretarse como una serie de instrucciones, como un programa, para hacer esa proteína. El modo en que funciona la codificación es que cada grupo de estos nucleótidos, llamado un codón, codifica un aminoácido. Puesto que hay cuatro nucleótidos, hay 43=64 posibles triples disponibles para codificar los 20 aminoácidos. Resulta que uno y el mismo aminoácido puede tener más de uno (hasta seis en realidad) de triples diferentes codificando para ello. Es esta codificación la que ha hecho surgir el concepto del código genético. El genoma consiste en una completa serie de genes. Los genomas, o más bien el ADN que los codifica, son en general enormes. El ADN de una bacteria E. coli tiene cuatro millones de letras y llenaría 1000 páginas de un libro, mientras que el genoma humano tiene 3.500.000.000 de letras y llenaría una biblioteca entera (4)

Es interesante que la longitud real del ADN que está enrollada muy ajustadamente en una simple célula del cuerpo humano es más o menos dos metros. Puesto que hay alrededor de 10 billones de células en el cuerpo humano la longitud total del ADN es la alucinante cantidad de 20 billones de metros.

En aras de la precisión, debería apuntarse que, aunque con frecuencia pensamos en el ADN en un organismo dado como el genoma, en términos estrictos, el genoma en realidad sólo ocupa un parte del ADN, en realidad una parte relativamente pequeña, de hecho (el 3% en los humanos) El 97% restante del ADN, llamado el ADN no codificador, ha sido denominado “ADN Basura” pero parece que va quedando claro que está muy lejos de ser basura pues parec responsable de la regulación del mantenimiento y de la reprogramación de los procesos genéticos pero también contiene segmentos muy móviles del ADN llamados transposones que pueden fabricar copias de si mismos y desplazarse a diferentes localizaciones del genoma con efectos variables, incluyendo posiblemente inhabilitar a los genes y activar genes inactivos hasta entonces (5) Otro uso interesante que se ha dado al ADN no codificador es la técnica forense de huella genética descubierta por Alec Jeffreys en 1986.

¿Cómo el ADN hace que aparezcan las proteínas?

El ADN reside en el núcleo de la célula, que está protegido por una membrana. Para que ocurra, algo, para que la célula “viva”, la información contenida en el ADN debe transportarse al citoplasma, el área de la célula fuera del núcleo donde funciona la maquinaria celular, la planta de montaje de la célula, si se quiere. Esa información se necesita, por ejemplo, para la construcción de encimas en el citoplasma mediante máquinas moleculares llamadas ribosomas. ¿Así que como la información del DNA consigue que los ribosomas fabriquen una encima? Se consigue mediante la operación de otro larga molécula de ácido nucleico llamado ácido ribonucleico (ARN) que es muy parecido al ADN salvo que por lo común no tiene dos partes aunque posee un grupo de hidróxilo (OH) más que el ADN. Como el ADN tiene cuatro bases: tres de ellas son nuestros viejos amigos, A, G y C, pero el cuarto es un recién llegado, el uracilo (U) que reemplaza el T del ADN. Lo que ocurre en primer lugar es que el ADN dentro del núcleo “descomprime” en el medio separando las dos ramas. Esto es facilitado por el hecho de que los enlaces de hidrógeno entre las partes son débiles comparadas con los enlaces que conectan las bases en cada parte del ADN. A continuación una parte del ADN se trascribe a ARN, el llamado “mensajero ARN” (mARN). Como resultado surge una parte del ARN que es complementaria con la parte del ADN el la que T se reemplaza por U en el proceso. Ocasionalmente (bastante ocasionalmente, de hecho) se producen errores en el proceso de copia que llevan a la proteína modificada. El mARN viaja a través de la pared del núcleo al citoplasma donde el pasmosamente complejo proceso de traslación tiene lugar.

La rama del mARN puede concebirse como una suerte de cinta magnética de ordenador y el ribosoma una máquina que construye una proteína a partir de la información contenida en esa cinta. Para hacer eso el ribosoma se mueve a lo largo de la parte del mARN “leyendo” la información contenida en la misma mientras lo hace. Es como una grabación magnética en un ordenador, o una máquina de Turing.

Como una computadora lee los codones, que recordemos que son grupos de tres letras consecutivas, en el orden que aparecen en la cinta, así que por ejemplo AAC UGC UUG…
La siguiente tarea para el ribosoma es encontrar los aminoácidos que corresponden a estos codones (En este caso, la asparagina, la cisteína y la leucina) Parecen estar nadando en la vecindad del ribosoma atados por enlaces esteres a las moléculas (llamadas transferencias ARN, tARN) que parecen cruces. Si, por ejemplo, la asparagina está atada a un brazo de tal molécula entonces el otro extremo de este brazo está atado a lo que se llama el anticodon que se corresponde al codón AAC, es decir, UUG. Cuando el ribosoma lee cualquier codón particular, “pesca” por allí el correspondiente anticodon, lo atrapa en su red y después quita el aminoácido pegado a él. El ribosoma después une ese aminoácido a aquello que ya ha sido montado. De este modo emerge gradualmente la nueva proteína. Estos diminutos mecanismos, tan pequeños que sólo pueden ser “vistos” por un Microscopio atómico, pero no con el microscopio óptico corriente, tienen un orden de sofisticación alucinante, como una simple ojeada a un manual de biología molecular confirmará. La naturaleza de su complejidad es tal que incluso evolucionistas convencidos como John Maynard Smith y Eörs Szathmary confiesan que:

“La maquinaria traslativa existente es al mismo tiempo tan compleja, tan universal y tan esencial, que es difícil ver como podría haber existido, o como podría haber existido la vida sin ella” (6)

Casi diez años más tarde encontramos al micro-biólogo Carl Woese lamentando que incluso los humanos con toda su inteligencia no pueden construir tales mecanismos:

“No podemos comprender como crear novedad de la nada… esa es una cuestión para los biólogos del futuro”. (7)

Es muy importante con todo esto darse cuenta de que aunque el ADN da lugar a las proteínas, la replicación del ADN mismo no puede proceder sin la existencia de una serie de proteínas. Robert Shapiro, reconocido experto en la química del ADN, nos recuerda que las proteínas, aunque se construyen siguiendo instrucciones codificadas en el ADN, son enormes moléculas que son químicamente muy diferentes del ADN:

“La narrativa anterior trae a la mente el viejo acertijo: ¿qué fue antes el huevo o la gallina? El ADN tiene la receta para la construcción de proteinas. Pero esa información no puede ser recuperada o copiada sin el auxilio de las proteínas. ¿Qué gran molécula apareció antes, las proteínas (la gallina) o el ADN (el huevo) (8)

En un pasaje maravillosamente ilustrativo (citado en la versión on-line) explica vívidamente los problemas que surgen ahora:

“Muchos químicos, enfrentados con estas dificultades, han huido de la hipótesis de primero el ARN como si fuera un edificio en llamas. Un grupo, sin embargo, aún cautivado por la visión de la molécula que se auto-copia, ha optado por una salida que lleva a parecidos peligros. En esas teorías revisadas, un replicador más sencillo surgió primero y gobernó la vida en el mundo “pre-ARN”

Se han propuesto variantes en las que las bases, el azúcar o la entera espina dorsal del ARN han sido reemplazadas por sustancias más simples, más accesibles para las síntesis pre-bióticas. Presumiblemente, el primer replicador también tendría las capacidades catalíticas del ARN. Como no se ha descubierto hasta ahora rastro alguno de ese hipotético replicador y catalizador primigenio en la biología moderna, el ARN debe haberse apoderado completamente de todas sus funciones en un momento dado en cuanto surgió. Además, la espontanea aparición de tal replicador sin la ayuda de un químico (9) se enfrenta a cosas tan poco posibles que empequeñecen las que existen en la preparación de una mera sopa de nucleótidos. Presumamos que una sopa enriquecida con los ladrillos de todos esos replicadores propuestos de algún modo se ha montado, en condiciones que favorecen su conexión en cadenas. Estarían acompañadas de hordas de ladrillos defectuosos, cuya inclusión arruinaría la capacidad de la cadena para actuar como replicador. La unidad defectuosa más simple haría de terminator, un componente que tuviera sólo un “brazo” disponible para la conexión, más que los dos precisos para apoyar un posterior crecimiento de la cadena. No hay razón para presumir que una naturaleza indiferente no combine unidades al azar, produciendo una inmensa variedad de índole hibrida, cadenas terminadas, más que la cadena mucho más larga de geometría uniforme de espina dorsal necesitada para apoyar las funciones replicantes y catalíticas. Se pueden hacer cálculos de probabilidad, pero prefiero una variación de una analogía muy manida. Figúrate un gorila (con brazos muy largos) y un inmenso teclado conectado a un procesador de texto. El teclado contiene no sólo los símbolos empleados en lengua inglesa y en las europeas sino también un enorme exceso extraído de cualquier otra lengua conocida y de todos los tipos de símbolos que tiene un ordenador normal. Las probabilidades para el montaje espontáneo de un replicador en la “piscina” que he descrito puede ser comparada con las que el gorila tendría de componer, en inglés, una receta coherente para la preparación del Chili con Carne” (10) Con similares consideraciones en mente Gerald F. Joyce del Instituto de Investigación Scripps y Leslie Orgel del Instituto Salk concluyeron que la aparición espontanea de las cadenas del ARN en la Tierra sin vida, “casi parece un milagro”. Y yo extendería esta conclusión a todos los sustitutos propuestos del ADN que he mencionado antes”.

La conclusión de Shapiro (en la versión impresa) es inequívoca e ilustrativa:

“El ADN el ARN las proteínas y otras moléculas enormes elaboradas deben ser separadas como partícipes en el origen de la vida”.

Notamos que ya hemos considerado las objeciones a su propuesta alternativa del “metabolismo primero”.

¿Todo está en los genes?

Necesitamos detenernos aquí, puesto que, al hablar de la complejidad de las moléculas ricas en información como el ADN y el código genético es fácil dar la impresión de que los genes te dicen todo lo que significa ser humano.

Ciertamente, durante muchos años los biólogos han considerado un “dogma central” como lo denominó Francis Crick, que el genoma da cuenta completamente de las características heredadas de un organismo. Esto inevitablemente dio alas a la índole de bio-determinismo que consideraba responsables a los genes individuales de una variedad completa no sólo de enfermedades humanas sino también de toda suerte de características desde la predisposición a la violencia a la obesidad y a la habilidad matemática.

Una jerarquía de complejidad.

Sin embargo, cada vez hay más pruebas de que es muy poco probable de que este sea el caso. Pues el genoma humano parece contener sólo 30.000 o 40.000 genes. Esto fue muy sorprendente para muchas personas, después de todo la maquinaria celular humana produce alrededor de 100.000 proteínas diferentes de modo de uno podría esperar que al menos ese número de genes las codificara. Sencillamente hay demasiados pocos genes para dar cuenta de la increíble complejidad de nuestras características heredadas, por no hablar de las grandes diferencias entre, digamos, las plantas y los seres humanos. Por esa razón el genetista Steven Jones advierte:

“Un chimpancé puede compartir del 98 del ADN con nosotros pero eso no significa que sea humano en un 98%: no es humano en absoluto, es un chimpancé. ¿Y el hecho de que tengamos genes en común con un ratón o con una banana dice algo de la naturaleza humana? Algunos sostienen que los genes nos dirán lo que realmente somos. La idea es absurda”. (11)

Tomemos, por ejemplo el hecho de que los genes pueden “apagarse” o “encenderse) y eso en ciertas fases del desarrollo de un organismo. El control de ese cambio se acomete principalmente mediante secuencias llamadas “promotores” que usualmente están cercanas al comienzo del gen. Imaginemos un organismo con genes, cada uno de los cuales puede hallarse en dos estados, encendido o apagado, expresado o inexpresado, en terminología genética. Entonces hay claramente 2n estados de expresión. Supongamos ahora que tenemos los organismos A y B con 32.000 y 30.000 genes, respectivamente. Entonces el número de estos de expresión para A es 232.000 y para B es 230.000. Por lo tanto A tiene 22000 veces más estados de expresión que B, y esto es un número muy grande, mayor de hecho que el número de partículas elementales que se estima que hay en el universo (alrededor de 280)

Por lo tanto una diferencia relativamente pequeña en el número de genes podría dar cuenta de las enormes diferencias en el fenotipo (características observables) del organismo. Pero esto es sólo un comienzo puesto que el supuesto básico en nuestro último cálculo de que los genes están “on” o “off” es demasiado simplista, especialmente si pensamos en organismos más complejos. Los genes de tales organismos tienden a ser más “inteligentes” en el sentido de que tienen un rango mucho más amplio de máquinas moleculares que pueden construir y controlar. Por ejemplo, pueden expresarse en parte, es decir, ni completamente on ni completamente off. Esos mecanismos de control son capaces de responder al entorno celular al determinar hasta que punto un gen debería ser cambiado. De este modo son como ordenadores miniaturizados de control por propio derecho. Y, puesto que el grado en que están conectados o no varía, los cálculos anteriores deben ser revisados drásticamente al alza. El efecto de las proteínas operando sobre las proteínas significa que entramos ahora en una jerarquía de niveles agudamente crecientes de complejidad incluso al nivel inferior que es difícil de entender.

Pero aún hay mucha más complejidad en el almacén, puesto que ahora es evidente que un largo grupo de genes pueden estar implicados en cualquier rasgo particular o función, su correspondencia es muchos-con-uno más que uno con uno. Las razones para esto se están empezando a comprender.

Barry Commoner, Científico Decano y Director del Proyecto de Genética Crítica en el Centro para la Biología de los Sistemas Naturales en la City University de Nueva York, en su artículo:
“Deshaciendo el mito del ADN” (12) enuncia tres descubrimientos que apoyan la tesis de que hay más en la vida que el ADN:

-Empalme alternativo. Commoner sugiere que una de las afirmaciones claves del “dogma central”, la hipótesis de la secuencia de Crick, que la secuencia del nucleótido de un simple gen codifica la secuencia de aminoácidos de una simple proteína puede tener que ser sometida a una considerable revisión. Pues se ha demostrado que un simple gen puede dar lugar a muchas variantes de proteínas mediante un proceso denominado empalme alternativo, que puede suceder cuando la secuencia de nucleótidos de un gen está siendo transferida al ARN mensajero. En otras palabras, no hay una correspondencia de uno a uno entre genes y proteínas. Lo que sucede es que un grupo especial de hasta 150 proteínas junto con cinco moléculas de ARN conocidas como un espliceosoma se montan en varios lugares en el mARN y forman una máquina molecular que corta el mARN en segmentos, que después se recombinan en varios ordenes diferentes. Algunas veces ciertas piezas pueden quitarse y otras ser añadidas. Cualquier material recombinado de ese modo porta una secuencia que difiere de la original. De este modo con la técnica de copia-pega del empalme alternativo, un solo gen puede dar lugar a muchas proteínas diferentes: existe por ejemplo, tal gen en el oído interno de las palomas y los seres humanos que pueden dar lugar a 576 proteínas diferentes. (13) También hay un gen en la mosca de la fruta que se sabe que da lugar a 38.016 proteínas diferentes.

Commoner apunta las devastadoras implicaciones de este descubrimiento para la creencia de que la información genética que viene con la secuencia original de ADN termina inalterada en la secuencia de aminoácidos de la proteína. Crick ha afirmado que “el descubrimiento de un único tipo de la célula de hoy” en la que la información genética que pasa de la proteína al ácido nucleico o de la proteína a la proteína “conmovería toda la base intelectual de la biología molecular” (14) Pero eso es justo no que está ocurriendo aquí, nueva información genética se produce en el ARN por el proceso de empalme, un proceso que implica las proteínas del espliceosoma. De este modo uno no puede predecir sencillamente el efecto de un gen singular especificando las instrucciones de su secuencia de nucleótidos. El proceso de empalme tiene el efecto de editar esas instrucciones y así permitir que hagan surgir una multiplicidad de significados. Y los errores en el empalme han sido demostrados por Shin Kwak de la universidad de Tokyo en 2002 como la causa más probable de la esclerosis lateral amiotrópica, una enfermedad fatal paralizante.

El proceso de empalme solía considerarse extraño. Sin embargo, se ha observado que la frecuencia de la incidencia del empalme alternativo se incrementa con la complejidad del organismo en cuestión y ahora se estima que hasta el 75% de los genes humanos están sometidos a este proceso. Es claro que la cantidad de información adicional añadida por el empalme alternativo es enorme y por lo tanto ya no resulta sorprendente que puedan existir enormes diferencias entre organismos con series de genes muy similares.

-Corrección de errores.

La increíblemente precisa duplicación del ADN no se logra sólo con el ADN: depende de la presencia de la célula viva. En su entorno normal en la célula el ADN se replica con, a grandes rasgos un error en tres mil millones de nucleótidos (recordar que el genoma humano tiene una longitud de tres mil millones de nucleótidos) Sin embargo, por si misma en una probeta la tasa de error sube dramáticamente a 1 en 100. Cuando, aún en una probeta, se añaden las encimas proteínicas adecuadas, la tasa de error se hunde a 1 en 10 millones. La tasa final de error bajo depende de la suma de aún más proteínas bajo la forma de enzimas “reparadoras” que detectan y corrigen errores (15)

El proceso de replicación del ácido nucleico depende por tanto de la presencia de esas encimas proteínicas y no simplemente del ADN.

James Shapiro hace un interesante comentario sobre el sistema de reparación:

“Ha sido una sorpresa aprender cuan concienzudamente las celdas se protegen a si mismas precisamente contra el tipo de cambio genético accidental que, según la teoría convencional, es la fuente de la variabilidad evolutiva. En virtud de su lectura de errores y sistemas de reparación, las células vivas no son víctimas pasivas de las fuerzas aleatorias de la química y la física. Dedican gran cantidad de recursos a suprimir la variación genética aleatoria y tienen la capacidad de fijar el nivel de mutabilidad de trasfondo localizada ajustando la actividad de sus sistemas de reparación”. (16)

¿Qué vino primero, el huevo o la gallina?

Una implicación muy importante de la existencia del empalme alternativo y de los mecanismos de reparación de errores es que el ADN parecía depender de la vida para existir, más que la vida del ADN, poniendo así en tela de juicio la noción común de que la vida se originó en una secuencia del ARN al ADN (el escenario del mundo ARN) Commoner lo dice tajantemente:

“El ADN no creó la vida; la vida creó el ADN”. Miller y Levine dicen más:

“El más grande bloque que tropieza al tratar de cruzar el puente entre lo inerte y lo vivo aún permanece. Todas las células vivientes están controladas por información almacenada en el ADN que es transcrita en ARN y convertida en proteína. Es un sistema muy complicado y cada una de esas tres moléculas requiere las otras dos, o bien para componerlas o para ayudarles a funcionar. El ADN por ejemplo porta información pero no puede hacer uso de esa información o incluso copiarse sin el auxilio del ARN y de la proteína.” (17)

Parece existir aquí una simbiosis irreducible que los modelos simplistas de los orígenes no pueden reflejar. Otro ejemplo parecido lo aporta Leslie Orgel del Instituto Salk de Estudios Biológicos:

“No hay acuerdo en hasta que medida el metabolismo podría desarrollarse independientemente del material genético. A mi juicio no hay fundamento en la química conocida par ala creencia de que largas secuencias de reacciones puedan organizarse de modo espontaneo, y hay muchas razones para creer que no pueden. El problema de lograr suficiente especificidad, ya sea en una solución acuosa o en la superficie de un mineral, es tan grave que la probabilidad de cerrar un ciclo de reacciones tan complejo como el ciclo inverso del ácido cíclico, por ejemplo, es negligible” (18)

-La geometría de las proteinas.

Cuando se fabrican las proteínas se pliegan en una precisa configuración geométrica tridimensional de la que la actividad química subsiguiente depende. Se solía suponer que, una vez que su secuencia de aminoácidos estaba determinada, la proteína “sabía” como plegarse en la forma correcta. Sin embargo ahora se sabe que algunas proteínas necesitan otras proteínas “acompañantes” para ayudarlas a plegarse correctamente, o si no serían químicamente inactivas.

Además, existen proteínas, los priones, que no tiene ácido nucleico que están implicadas en enfermedades cerebrales degenerativas como la enfermedad de las vacas locas. La investigación ha mostrado que un prion penetra en una proteína corriente del cerebro que procede a replegarse de conformidad con la estructura tridimensional del prion. El proceso produce a partir de la proteína replegada un prion adicional que es quasi-infeccioso y provoca una reacción en cadena letal. La cosa más extraña e interesante es que el prion y la proteína del cerebro sobre la que actúa tienen la misma secuencia de aminoácidos y con todo una es peligrosa e infecciosa mientras que la otra es normal y “saludable”. Esto sugiere que la estructura plegada debe ser en parte independiente de la secuencia de aminoácidos. Esto por supuesto significa que al estimar el contenido de la información de la proteína la geometría tridimensional del plegado tendría que ser tenida en cuenta, un problema de proporciones que aturden la mente.

A la luz del hecho de que bastante de esto era conocido de los científicos durante algún tiempo, Commoner pregunta como el dogma central ha seguido vigente. Su respuesta es:

“En cierta medida la teoría ha sido protegida de las críticas mediante un dispositivo más común a la religión que a la ciencia, el disenso, o meramente el descubrimiento de un hecho discordante, es un delito punible una herejía que puede llevar al ostracismo profesional. Gran parte de este sesgo puede atribuirse a la inercia institucional, a la falta de rigor, pero hay otras razones, más insidiosas, por las que los genetistas moleculares pueden estar satisfechos con el estatus quo; el dogma central les ha dado una explicación tan satisfactoria y seductoramente simplista que parecía sacrílego abrigar dudas. El dogma central era sencillamente demasiado bueno para que no fuera verdad”.

Parecería por tanto que hay mucho más en lo que significa ser humano que lo que hay en los genes.

_________________________________________________________________


Me queda un cacho del capítulo 8, como mis conocimientos de bioquímica se limitan a lo poco que recuerdo hasta segundo de bachillerato y los libros de divulgación de Asimov y Dawkins y el capítulo este es más trénico, si alguno lo lee y detecta alguna burrada que me corrija (mía en la traducción, alguna posible del autor aparte)

GOlds, ahora sí que habla de tus priones. :P

Me quedo flipado con lo increíblemente compleja e interesante que es la movida esta genética, y que haya gente tan lista que medio lo entienda. Puede que no sea Dios, pero desde luego el tiempo y la materia prima hacen verdaderos milagros, si la descripción que he tratado de traducir es un buen reflejo de la cosa.

Como diría Dawkins en su metáfora bastante buena, climbing mount improbable.

Creo que he perdido tiempo leyendo sobre política. Hay cosas más interesantes en el mundo. :P

_________________


Iros todos a tomar por culo. Ya lo hago yo, yalo hago yo. Se tarda menos tiempo en hacerlo que en estar dando explicaciones.


Arriba
 Perfil Email  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Mar Feb 10, 2015 5:57 pm 
Desconectado
We are not done yet!

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 56588
Ubicación: I will show YOU the Dark Side
Al menos tiene una cosa buena: puede que no crea en Dios después del libro, pero que me voy a pillar un manual de bioquímica para dummies, eso seguro.

_________________


Iros todos a tomar por culo. Ya lo hago yo, yalo hago yo. Se tarda menos tiempo en hacerlo que en estar dando explicaciones.


Arriba
 Perfil Email  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Mar Feb 10, 2015 5:59 pm 
Desconectado
We are not done yet!

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 56588
Ubicación: I will show YOU the Dark Side
Lol, pos existe.

Imagen

_________________


Iros todos a tomar por culo. Ya lo hago yo, yalo hago yo. Se tarda menos tiempo en hacerlo que en estar dando explicaciones.


Arriba
 Perfil Email  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Mar Feb 10, 2015 6:02 pm 
Desconectado
We are not done yet!

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 56588
Ubicación: I will show YOU the Dark Side
Y gracias a Golds por leerlo, aunque sea para atizar al autor que traduzco. Es un detalle.

_________________


Iros todos a tomar por culo. Ya lo hago yo, yalo hago yo. Se tarda menos tiempo en hacerlo que en estar dando explicaciones.


Arriba
 Perfil Email  
 
 Asunto: Re: El enterrador de Dios: John Lennox
NotaPublicado: Lun Feb 16, 2015 2:16 pm 
Desconectado
We are not done yet!

Registrado: Mar May 30, 2006 1:18 pm
Mensajes: 56588
Ubicación: I will show YOU the Dark Side
La proteómica.

La jerarquía de niveles de complejidad no se detiene con la traducción del código genético a proteínas. Pues las proteínas pueden ser modificadas de muchas maneras e incluso cortarse y empalmarse del mismo modo que lo hacen las moléculas mARN. Esto ha hecho nacer la disciplina de la proteómica, donde el proteoma es una serie completa de todas las proteínas y variantes de proteínas en una célula. Esclarecer su abrumadora complejidad, mucho mayor que la del genoma, es uno de los más grandes retos intelectuales con los que se enfrenta la ciencia.

El procesamiento de información en la célula.

Así, cuanto más se estudia una célula viviente, más aspectos parece tener en común con uno de los productos de la inteligencia humana más sofisticados y de alta tecnología: los ordenadores. Salvo que la capacidad de procesamiento de información de la célula supera con mucho cualquier cosa que puedan hacer los ordenadores actuales. Bill Gates dijo que “El ADN es como un programa de ordenador, pero mucho, mucho más avanzado que cualquier software que hayamos creado jamás” (19)

En su libro Gödel, Escher, Bach, el matemático Douglas Hofstadter escribe lo siguiente:

“Una pregunta natural y fundamental que hay que formular cuando se aprende como funcionan estos increíbles y complicadamente entrelazados fragmentos de software y hardware es: ¿cómo pudo empezar en primer lugar?.... de simples moléculas a células completas, desafía los poderes de nuestra imaginación. Hay varias teorías sobre el origen de la vida. Todas pasan por alto la más central de las cuestiones centrales: ¿Cómo se originó el código genético, junto con los mecanismos para su traducción? La pregunta no resulta más fácil por el hecho de que el código se considere extremadamente antiguo. Werner Loewenstein, que ha ganado internacional renombre por sus descubrimientos en la comunicación entre células y la transferencia de información biológica, dice:

“Este vocabulario genético se remonta a mucho, mucho tiempo. No parece haber cambiado ni jota en dos mil millones de años; todos los seres vivos en la tierra, de las bacterias a los humanos, usan el mismo código de 64 palabras” (21)

Pensemos en un aspecto de este complejo de problemas, el origen del software genético ADN. Se propone a veces que la generación de la información genética se facilita por ciertas afinidades químicas entre las moléculas que portan esa información. Sin embargo, hay una sencilla razón lógica por la que eso no puede ser así. Piensa en el alfabeto. En inglés existe la regla de que a una q le debe seguir una u. Imagina que hay similares afinidades entre otros pares de letras. Resulta claro de inmediato que cuantas más afinidades tengas entre las letras del alfabeto, menos expresiones puedes escribir. La libertad para escribir las letras en casi cualquier orden es crucial para tener un léxico rico. Igual sucede con el ADN. Y lo que pasa con las bases de nucleótidos (A,C,G,T) es que pueden posicionarse esencialmente al azar. Si hubiera alguna afinidad entre ellas, su potencial de portar información quedaría drásticamente reducido.

Las bases están enlazadas a la espina dorsal del ARN mediante enlaces Fuertes covalentes. Pero las dos ramas complementarias del ADN se mantienen juntas mediante relativamente débiles enlaces químicos, o sea enlaces de hidrógeno entre las bases complementarias. Michael Polanyi explica la implicación de esto:

“Suponga que la estructura presente de la molécula de ADN se debiera al hecho de que los enlaces de sus bases fueran mucho más vigorosos de lo que serían para cualquier otra distribución de bases, luego tal molécula no tendría contenido informativo. Su carácter de código sería erradicado por una abrumadora redundancia… cualesquiera que sean los orígenes de la configuración del ADN, sólo puede funcionar como código si su orden no se debe a las fuerzas de la energía potencial. Debe ser tan indeterminado físicamente como la secuencia de palabras en una página escrita” (22)

La palabra operativa aquí es “físicamente”. Como vimos antes, el mensaje no es derivable a partir de la física y la química del papel y la tinta.

Hubert Yockey, autor del influyente estudio La Teoría de la Información y la Biología (23) confirma este juicio:

“Los intentos de relacionar la idea de orden… con la organización biológica o la especificidad deben ser considerados como un juego de palabras que no puede aguantar un cuidadoso escrutinio. Las macro-moléculas informativas pueden codificar mensajes genéticos y por lo tanto llevar información debido a que la secuencia de bases o residuos es muy poco afectada, si es que lo es en absoluto, por factores físico-químicos” (24)

El texto genético no se genera por la química de los enlaces entre las molécualas.

¿Y si las explicaciones en términos de enlaces químicos no funcionan, qué otra posibilidades hay? Una apelación simplista a procesos darwinianos no parece ser una solución pues estamos hablando de la abiogénesis, el origen de la vida, y sea lo que sea lo que puedan hacer los procesos darwinianos, es muy difícil ver como podrían funcionar en ausencia de vida. Pues para que la selección natural haga algo necesita de la existencia de un replicador mutante. La hemos citado el aforismo bien conocido de Theodosius Dobzhansky: “La evolución pre-biótica es una contradicción en los términos”.

Aunque parezca anticuado a muchos ahora, nos hace cautelosos cuando empleamos términos como “evolución molecular” que pueden entenderse que implican que estamos suponiendo de forma encubierta que tenemos a nuestra disposición el mismo proceso (replicación, y sólo tiene sentido la selección natural si actúa sobre ella) cuya existencia estamos tratando de explicar. Como apunta John Barrow, James Clerk Maxwell había observado ya en 1873 que los átomos eran “poblaciones de partículas idénticas cuyas propiedades no actuaban mediante la selección natural y cuyas propiedades determinaban si la vida podría existir” (25)

Sin embargo continúan los intentos de resolver el problema del origen de la vida usando argumentos darwinianos que se apoyan únicamente el azar y la necesidad. Para ponerlos en contexto necesitamos considerar algunas contribuciones matemáticas adicionales al debate.

Capítulo 9.

Cuestiones de información.

“La vida es información digital”.
Matt Ridley

“El problema del origen de la vida es claramente equivalente en lo básico al problema del origen de la información biológica”
Bernd-Olaf Küppers


“Nuestra tarea es encontrar un algoritmo, una ley natural, que lleve al origen de la información”.

Manfred Eigen

Una máquina no crea información nueva, pero realiza una transformación muy valiosa de información conocida.

Leonard Brillouin

¿Qué es la información?

Hemos estado usando libremente la palabra información en este libro. Pero ya es hora de abordar este concepto fundamental de modo más detallado. En el lenguaje cotidiano usamos la palabra información para describir algo que ahora conocemos y que antes no conocíamos, decimos que hemos recibido información. Hay muchos métodos de transmitir información: de palabra, por escrito, mediante lenguaje de signos, encriptada, etc.

El problema viene cuando tratamos de cuantificar la información. Sin embargo la teoría de la información ha realizado progresos considerables lo que es de suma importancia para nuestra consideración de la naturaleza de lo que hemos denominado información genética.

Comencemos explorando la noción intuitiva de que la información reduce nuestra incertidumbre. Por ejemplo, llegamos a un hotelito donde hemos hecho una reserva y vemos que solo hay ocho habitaciones. Después, suponiendo que todas las habitaciones son parecidas y que no hemos pedido una habitación particular, habrá una probabilidad de 1 entre 8 de que se nos asigne cualquier habitación particular. Esta probabilidad es una clara medida de nuestra incertidumbre. Cuando se nos da la información de que nos ha tocado la habitación 3, digamos, esa incertidumbre desaparece.

Una de las maneras en las que podemos medir la información que hemos recibido es averiguar el menor número de respuestas de sí o no que tenemos que preguntar con el fin de averiguar que habitación nos ha tocado. Si meditamos un poco nos convenceremos que el número es tres. Decimos que hemos recibido tres trocitos de información o que necesitamos tres trocitos de información para hallar nuestra habitación. Observamos que 3 es la potencia a la que tenemos que elevar 2 para obtener 8. (esto es 8=2 elevado a 3) o, expresándolo al revés, 3 es el logaritmo de 8 en base 2 (esto es 3=log 2 elevado a 8) Es fácil generalizar este argumento para ver que si hay n habitaciones en el hotel, entonces la cantidad de información precisa para especificar una habitación concreta es log 2n.

Piensa ahora en un mensaje de texto escrito en inglés, que consideraremos como una lengua escrita en frases que consisten en palabras y espacios de modo que nuestro alfabeto consiste en 16 letras más un espacio de modo que hacen falta 27 símbolos. Si esperamos un mensaje en nuestro móvil, la probabilidad de recibir cualquier símbolo (letra o espacio) es 1/27. La información añadida por cada símbolo de texto es log227 (= 4.76 approx). Observamos aquí que la cantidad de información transmitida es relativa al tamaño conocido del alfabeto. Por ejemplo, si sabemos que nuestro mensaje de texto puede contener números además de letras y espacios entonces nuestro alfabeto tiene 37 letras. Por lo tanto la información representada en cada símbolo recibido es ahora log237 (= 5.2 approx).

En todo esto el número 2 desempeña claramente un papel especial. De hecho el símbolo “alfabeto” empleado en la computación consiste en dos símbolos 0 y 1. Es fácil ver que 2 es el número mínimo de símbolos necesario para codificar cualquier alfabeto. Por ejemplo, si pensamos que el inglés precisa 26 letras más un espacio entonces cadenas binarias de una longitud de cómo mucho 5 (25 = 32 > 27) bastarán para codificarlo todo y sobra sitio, podríamos codificar el símbolo de espacio como 00000 y poner A = 00001, B = 00010,
C = 00011, etc.

Información sintáctica y semántica.

Ahora introducimos una idea muy importante que a veces es un poco complicadilla que entre en nuestra cabeza desde el principio. Supongamos que obtenemos el siguiente “mensaje” en nuestro móvil: ZXXTRQ NJOPW TRP. Este mensaje tiene una longitud de 16 símbolos y por lo tanto, haciendo los cálculos usuales, obtenemos un contenido de información de 16log227 bits. Pero dices: “Eh, espera un momento: esto es absurdo puesto que no he recibido ningún mensaje en absoluto. No hay información alguna en este galimatías”.

Bueno, por supuesto, el mensaje podría estar codificado, podría haber un mensaje oculto. Supongamos que no es el caso. ¿Qué ocurre? Hemos llegado al punto en que la información en el sentido que estábamos discutiendo no tiene ya nada que ver con el significado. La llamamos información sintáctica.

A primera vista esto parece contra-intuitivo desde la perspectiva de nuestra experiencia cotidiana; y por lo tanto necesita una explicación más detallada. Supón que de dicen que esperes un mensaje en tu móvil
También te dicen que hay cuatro posibles símbolos que puedes recibir (~ # * ^) y que el mensaje tendrá una longitud de cinco símbolos. Miras al monitor y lo que ves es: : ^ ^ # ~ *.

¿Cuánta “información” has recibido?

Bueno, ninguna en el sentido de que no tienes ni idea de lo que significa, ciertamente, no sabes si significa algo en absoluto. Pero en el sentido sintáctico has recibido información. Hay cuatro símbolos posibles. De modo que la probabilidad de que obtengas uno en particular es 1/4 y la información aportada por cada símbolo recibido es dos bits. El mensaje total consistente en cinco símbolos contiene 10 bits. Dicho de otro modo: si contamos cuantos posibles “mensajes” (esto es, cadenas de cinco símbolos) puedes recibir hallamos que es 210. Ahora sabes lo que es el mensaje (no lo que significa) Tú no lo sabías antes. Así que, en ese sentido, has recibido información.

Pensemos otra vez en las comunicaciones electrónicas cotidianas a través de un canal, por ejemplo, una línea telefónica corriente. En cualquier momento dado varias clases de “información” pueden fluir a través de ella: la voz, el fax, los datos, todo tipo de símbolos electrónicos. Algunos de ellos tendrán significado para algunas personas y no para otras (por ejemplo, una persona que hable chino no transmitirá información en el sentido semántico a otra que no hable chino) y otras serán cadenas de símbolos aleatorios que representan ruidos en la línea generados por efectos electrónicos aleatorios que no portan significado alguno.

Un ingeniero informático no está interesado en el significado de lo que va a través del canal. No está interesado en las secuencias específicas que se transmiten sino más bien en cosas como la capacidad del canal, cuántos símbolos (de la clase que sea) pueden enviarse a través de él en un segundo; la fiabilidad del canal, es decir, la probabilidad de que un símbolo sea enviado erróneamente, por ejemplo debido a un ruido en el canal, la posibilidad de corrección de errores, etc. Y esas cosas nos afectan a todos: muchos de nosotros nos frustramos con la lentitud de las comunicaciones en hogares que no tienen un buen ancho de banda.

Así que medir la información sintáctica es muy importante y la teoría asociada con esto se llama la Teoría de la Información de Shannon, por Claude Shannon que la desarrolló y demostró ciertos resultados matemáticos sobre la capacidad de un canal ruidoso que son el fundamento de la teoría de la comunicación de la que hoy depende nuestra sociedad.

Contemplemos otro ejemplo cotidiano para asegurarnos de que hemos captado la idea. Vas a una biblioteca y pides un libro de nefrología. El bibliotecario puede que nunca haya oído hablar de esta disciplina. Pero como cadena de símbolos la palabra nefrología contiene 10 log227 bits de información y si le das al bibliotecario estos bits de información puede escribirlos en su ordenador y decirte que deberías mirar en la sección de la biblioteca tal y cual, (46) donde encontrarás tres libros sobre el tema. Es decir, que actúa como un canal para comunicar la información a su sistema de indexación aunque para él, la cadena de símbolos nefrología no tenga connotación semántica en absoluto.

En este ejemplo, la palabra nefrología se trata por el bibliotecario a un nivel puramente sintáctico, ni sabe ni necesita saber lo que significa la palabra. La única información que necesita es la cadena de letras de la que se compone: simplemente trata la palabra como una cadena sin sentido de letras de un alfabeto. Sin embargo para ti como médico la palabra nefrología tiene sentido, transmite no sólo información sintáctica sino información semántica (la semántica deriva del término griego para signo, de hay semiótica, la teoría de los signos)

Medir la información semántica es un problema más difícil de abordar matemáticamente y no se ha descubierto ningún medio que haya tenido éxito hasta ahora. Esto es poco sorprendente porque tenemos el hecho bien conocido de que el significado de un texto depende en gran medida del contexto. Si me ves recibiendo en mi móvil el mensaje SÍ, puedes muy bien conjeturar que es una respuesta a una pregunta que he formulado, pero no puedes saber si la pregunta es “¿tienes un billete para el partido de fútbol de esta noche?” o “¿te casas conmigo?” El significado del mensaje simplemente no puede ser determinado sin un previo conocimiento del contexto. En otras palabras hace falta mucha más información para interpretar cualquier fragmento dado de información.

La información y el ADN.

Ahora apliquemos algunas de estas consideraciones a la biología molecular. Pensemos en la cadena de “letras” que encontramos en el alfabeto químico de la molécula de ADN. Supón que eres un biólogo molecular y sabes (algo de) lo que significa la cadena de letras en el sentido de que puedes dividirlas en genes y decir que proteínas codifica, etc. Esto es, para ti, la cadena tiene una dimensión semántica. Para ti el ADN exhibe precisamente el mismo tipo de complejidad especificada de un lenguaje puesto que el orden de las letras en un gen especifica el orden de la secuencia de aminoácidos en la proteína. (2)

Pero para mi no: yo no veo la cadena más que como una larga lista de símbolos sin sentido ACGGTCAGGTTCTA… pero aun tiene perfecto sentido que hable de que conozco el contenido de la cadena de símbolos en el sentido sintáctico o de Shannon. Ciertamente, a pesar del hecho de que no entiendo el significado de la cadena, puedo averiguar precisamente cuanta información sintáctica necesitas darme para que pueda reproducir la cadena con precisión. El alfabeto genético consiste en cuatro letras de modo que cada letra que me lees (o me envías por el ordenador) implica dos bits de información. Así, por ejemplo, el ADN en un genoma humano que más o menos tiene 3500.000.000 de letras contiene 7.000.000.000 de bits de información. Si me las dan puedo escribir el ADN sin tener ni idea del significado de lo que he escrito.

Un aspecto muy importante de la investigación del genoma es el de encontrar patrones específicos que pueden repetirse en un genoma dado, o encontrar secuencias específicas que son comunes a varios genomas.

La razón para examinar una secuencia especifica puede muy bien estar motivada por consideraciones semánticas, pero la búsqueda real informática de ella en la enorme base de datos que se forma por el genoma procede al nivel de la información sintáctica.

Complejidad.

Hasta ahora en este capitulo no hemos mencionado el concepto de complejidad. Sin embargo podemos ver de inmediato que decir que el genoma humano contiene 7.000.000.000 de bits de información nos da ya alguna idea de su complejidad. Pero sólo alguna. Piensa, por ejemplo, en la siguiente cadena binaria: 001001001001001001001001…

Asumamos que esto continua hasta un total de 6000.000.000 de dígitos (queremos un número divisible por tres) Entonces podemos ver, que, desde nuestra perspectiva, contiene 6.000.000.000 de bits de información. ¿Es por lo tanto (casi) tan complejo como el genoma humano? Claramente no. Pues vemos de inmediato que consiste en un patrón repetido, el triple 001 se repite una y otra vez. Por lo tanto, en un sentido, toda la información contenida en la cadena se contiene en la proposición “repite el triple 001 2.000.000.000 de veces”. Este proceso mecánico de repetición es un ejemplo de lo que los matemáticos llamamos algoritmo (3). El tipo de proceso que los programas de ordenador están diseñados para implementar. En este caso podríamos, por ejemplo, escribir un programa sencillo como sigue: “Para n = 1 a 2.000.000.0000 escribir 001. Stop. Ahora he necesitado sólo 39 pulsaciones para escribir este programa (en inglés) y eso nos da una impresión mucho más precisa de la cantidad de información contenida en la cadena de dígitos binarios que su longitud real de 6.000.000.000 de dígitos.

Otro ejemplo que transmite esta idea intuitivamente es el que sigue: considera la cadena de letras ILOVEYOUILOVEYOUILOVEYOUILOVEYOU… y supón que la cadena contiene 2.000.000.000 de repeticiones de las tres palabras I LOVE YOU. Claramente la información (en sentido semántico esta vez) contenida en la cadena ya está contenida en las primeras tres palabras (aunque se podría afirmar que la repetición conlleva un énfasis). En cualquier caso la plena información sintáctica se da por el programa ‘Para n=1 a 2.000.000.000 escribir ILOVEYOU. Stop’ y podríamos portanto obtener una mucha major medida del contenido informative simplemente contando el número de bits de información sintáctica contenida en el programa (corto) que en el texto (largo)

Teoría algorítmica de la información.

Esta “compresión” una cadena dada se símbolos (dígitos binarios, letras, palabras, etc) en un espacio (mucho) más corto mediante un programa de ordenador es la idea fundamental detrás de lo que se denomina la teoría algorítmica de la información. La palabra algoritmo deriva del nombre del matemático Mohammed Ibn-Musa Al-Khwarizmi, que trabajó en la famosa Casa de la Sabiduría en Bagdad en el siglo IX. Un algoritmo es un procedimiento efectivo, un modo de conseguir que se haga algo en un número de pasos finito. Por ejemplo la fórmula x = (–b} √(b2– 4ac))/2a nos ofrece un procedimiento efectivo para calcular la raíz de la ecuación cuadrática ax2+ bx + c = 0, donde a, b, c son números. Es por tanto, un algoritmo.

De modo similar, los programas de ordenador (software) son algoritmos que permiten al hardware del ordenador realizar el procesamiento de información. En general, los programas de ordenador contendrán muchos algoritmos, cada uno dirigiendo su propio trocito de computación efectiva. La Teoría Algorítmica de la Información (TAI) fue desarrollada por
Kolmogorov y Chaitin como un medio de comprender y manejar la complejidad, en particular del contenido informativo o la complejidad de una secuencia específica, considerando el tamaño del algoritmo preciso para generar esa secuencia. (4)

Según la TAI, por tanto, el contenido informativo de X, (donde X es, por ejemplo, una cadena de dígitos binarios, o una cadena de dígitos ordinarios o de letras en cualquier alfabeto, etc) es el tamaño de H(X) en bits del programa más breve que puede generar X.

Ahora considera una segunda cadena generada por un mono que está moneando con un teclado: Mtl3(#8HJD[;ELSN29X1TNSP]\@… Y supón, también, que tiene una longitud de 6.000.000.000 de letras, esto es, la misma longitud que las cadenas que hemos considerado. Está claro que, puesto que la cadena es esencialmente aleatoria, cualquier programa escrito para generarla será esencialmente de la misma longitud que la propia cadena. Esto es, esta cadena es algorítmicamente imposible de comprimir. Ciertamente esta imposibilidad de comprensión algorítmica es un buen medio de definir lo que significa la aleatoriedad. Asimismo, esta cadena es sumamente compleja sobre la base de nuestro criterio de complejidad.

Por ultimo, si tomamos como nuestra tercera cadena las primeras seis mil millones de letras contenidas en los libros de las estanterías de una biblioteca de libros en ingles, entonces, aunque podamos logara algo de comprensión algorítmica será despreciable comparada con la longitud de la cadena. Es decir, la cadena es simplemente tan algorítmicamente imposible de comprimir como la segunda cadena, y de ese modo, desde un punto de vista matemático, es aleatoria.

Por la misma razón es muy compleja. Y sin embargo su complejidad es de algún modo diferente de la de la cadena generada por el mono. Pues carece de significado que podamos leer. Esta tercera cadena, por contraste, contiene información semántica (podemos entender el significado de las palabras del libro) Y la razón de que la tercera cadena tenga significado para nosotros es que hemos aprendido inglés de modo independiente y por lo tanto reconocemos las palabras formadas por las letras en la cadena. Es cadena no es sólo compleja sino que también exhibe lo que se denomina complejidad especificada, el tipo de complejidad especial asociada con el lenguaje. Este término de complejidad especificada fue empleado por primera vez por Leslie Orgel en su libro “Los Orígenes de la Vida” (5) y también por Paul Davies en el Quinto MIlabro (6) pero en ningún lugar se precisa demasiado. Ha sido investigada de forma concienzuda por el matemático William Dembski en la “Inferencia de Diseño: Eliminando la probabilidad mediante Probabilidades Pequeñas” (7)

Hay claramente grandes diferencias entre la cadena muy comprimible representada por el orden cristalino de nuestro primer ejemplo muy por encima de cada una de las cadenas virtualmente no comprimibles de los dos segundos ejemplos. Esas diferencias hacen que la clase de procesos ordenadores exhibidos en la convección
Rayleigh-Benard o en la reacción Belousov-Zhabotinski sea poco probable que sean de mucha relevancia en relación con el origen de la vida. Nuevamente, el hecho de que esas cadenas sean algorítmicamente no comprimibles significa (por definición de hecho) que no pueden surgir como una propiedad emergente de algún proceso algoritmo relativamente simple, del mismo modo que hermosas “pinturas” fractales puedan surgir de ecuaciones bastante simples. Ha sido objeto de mucha fascinación la intrincada auto-simetría de la famosa serie de Mandelbrot, imágenes generadas por ordenador de las que adornan muchos libros de sobremesa. Sin embargo esta serie es rastreable a una función matemática relativamente simple de la forma f(z) = z2 + k de la variable compleja z. ¿No podemos decir que el complejo fractal “emerge” de la simplicidad de esta ecuación? En un sentido lo hace, es decir si pensamos en el hecho de que podemos emplear la ecuación para representar la curva fractal (en un monitor de ordenador, digamos) Pero tenemos que ser cautelosos, incluso en este punto. Pues si preguntamos de que forma la imagen en el monitor emerge a partir de la ecuación hallamos que hay muchas más cosas implicadas que escribir simplemente la ecuación Mandelbrot. Muchas iteraciones diferentes de la función deben calcularse; deben asignarse colores a los pixels correspondientes en el monitor en relación con qué trayectoria una iteración dada satisface ciertas propiedades (como la limitación local) de modo que tiene que comprobarse que cada trayectoria cumple esta propiedad.

Por lo tanto el cuadro “emergente” sólo se deriva de la ecuación al coste de un insumo adicional considerable de información en términos de esfuerzo de programación y de un hardware diseñado de forma inteligente. No sale “gratis”. Un argumento más claro se aplica a la ilustración de la emergencia ofrecida por Dawkins en una conferencia pública en Oxford (8) que mencionamos anteriormente. Dawkins sostuvo que la capacidad de procesar palabras es una propiedad “emergente” de los ordenadores. Lo es; pero sólo a expensas del insumo de información contenido en un software inteligentemente diseñado como el Microsoft Word. Una cosa es clara: ningún relojero ciego hace surgir la capacidad de procesamiento de texto de un ordenador digital. Para fijar en nuestra mente la importancia de la diferencia entre la segunda y la tercera clase de complejidad, ofreceremos otro ejemplo. Si la tinta se derrama en el papel sucede un evento complejo en el sentido de que, de todas las posibles manchas de tinta, la posibilidad de obtener justamente una es infinitesimalmente pequeña. Pero la complejidad de la mancha de tinta no está especificada. Por otro lado, si alguien escribe un mensaje con tinta en un papel obtenemos complejidad especificada. De paso, atribuimos la mancha de tinta a la probabilidad y la escritura a un agente inteligente sin pensarlo un momento ¿o no?

Ahora apliquemos algunas de estas ideas al genoma. Los A, C, G y T en la molécula del ADN pueden ocupar cualquier posición dada y por lo tanto son capaces de representar expresiones que son esencialmente algorítmicamente no comprimibles y por tanto, recalcamos, desde un punto de vista matemático son aleatorias. Por supuesto no deberíamos pensar que esta aleatoriedad matemática implica que las secuencias del ADN son completamente arbitrarias. Lejos de ello. Ciertamente sólo una proporción muy pequeña de todas las posibles secuencias en la molécula del ADN exhibirán la complejidad especificada de moléculas biológicamente significativas, en gran medida del mismo modo en que sólo una pequeña proporción de todas las posibles secuencias de letras en el alfabeto, o ciertamente las palabras de cualquier lenguaje humano, exhiben la complejidad especificada de afirmaciones con sentido en las palabras de ese lenguaje. Por ejemplo el Catedrático Derek Bickerton nos ofrece una interesante penetración en la lingüística explicando como una sola frase presenta un problema prodigioso: “Intenta reordenar una frase ordinaria que conste de 10 palabras. Hay, en principio, exactamente 3,628,800 maneras en las que puede hacerle, pero para la primera frase de esta (cita) sólo una de ellas nos da un resultado correcto y con sentido. Lo que significa que 3,629,799 no son gramáticas”.

Bickerton después pregunta lo obvio: “¿Cómo aprendemos eso? Ciertamente, ningún maestro o profesor nos lo digo. La única manera en la que podemos saberlo es poseyendo, como si dijéramos, alguna receta para construir frases, una receta tan compleja y exhaustiva que descarta automáticamente 3,629,799 maneras incorrectas de juntar una frase de 10 palabras y permite sólo una forma correcta. Pero que puesto que tal receta debe aplicarse a todas las frases, y no sólo al ejemplo que hemos puesto, la receta, en cada lenguaje, descartará más frases que no se ajustan a la gramática que átomos hay en el universo)”. (9)

Pero no debemos desviarnos a la fascinante (y ciertamente relacionada) cuestión del origen de la facultad de los seres humanos de emplear el lenguaje.

Para dar alguna idea de los números implicados en la situación biológica notamos que las proteínas más pequeñas que tienen una función biológica implican al menos 100 aminoácidos y que por tanto las moléculas del ADN que se corresponden con ellas tienen no menos que 10 elevado a 130 alternativas de secuencia, y sólo una diminuta proporción de las mismas tendrá significado bilógico. La serie de todas las posibles secuencias es por lo tanto inconcebiblemente enorme. Puesto que la ribosa no tiene preferencia por una base particular, todas las secuencias de base de una longitud prescrita son igualmente probables. Este hecho conlleva que la probabilidad de un origen puramente aleatorio de una secuencia específica con significado biológico es tan pequeña como para ser despreciable.

Y eso no es todo. Las proteínas exhiben un alto grado de sensibilidad molecular en el sentido de que la mera sustitución de un aminoácido sencillo en una proteína viable puede significar un fallo catastrófico. (10) Podría por tanto defenderse que la biología molecular de la célula muestra el mismo orden de ajuste fino que vimos antes en conexión con la física y la cosmología. La cuestión clave aquí es que una secuencia de ADN que realmente codifica una proteína funcional al mismo tiempo exhibe la complejidad especificada que es necesaria para codificar esa proteína y es por tanto algorítmicamente incompresible, y por lo tanto aleatoria desde un punto de vista matemático.

Paul Davies escribe:

“¿Puede la complejidad específica ser el producto garantizado de un proceso determinista, mecánico, parecido a una ley, como una sopa primordial que queda a merced de las leyes familiares de la física y la química. No, no podría. Ninguna ley conocida de la naturaleza puede lograr esto”. (11)

En otro lugar escribe: “Concluimos que las macro-moléculas biológicamente relevantes poseen simultáneamente dos propiedades vitales, aleatoriedad y especificidad extrema. Un proceso caótico podría posiblemente conseguir la propiedad primera, pero tendría una probabilidad despreciable de conseguir la segunda”.

Si segunda afirmación es fascinante:

“A primera vista esto parece hacer al genoma un objeto imposible, no obtenible por las leyes conocidas ni por la probabilidad”. Ciertamente. Y sin embargo Davis afirma:

“Claramente la evolución Darwiniana mediante la variación y la selección natural tiene lo que hace falta para generar tanto la aleatoriedad (riqueza de información) y una funcionalidad biológica rigurosamente especificada en el mismo sistema”. (12)

Pero esto es pedir el principio: pues lo que está precisamente en cuestión es si los procesos naturales de cualquier tipo (incluyendo por supuesto la evolución darwiniana) tienen esa capacidad, o si la misma cosa que esta argumentación está apoyando con pruebas es que no la tienen. Ciertamente, puesto que todo el pasaje es sobre la abiogénesis, Davies parece contradecir lo que acaba de afirmar añadiendo:

“El problema hasta ahora por lo que concierne a la abiogénesis es que el darwinismo sólo puede operar cuando la vida (de cualquier tipo) ya está en curso No puede explicar como la vida comenzó en primer lugar”. (13)

¿Pero qué otra posibilidad hay más allá del azar y la necesidad? Bien, como Sherlock Holmes podría habernos dicho, si el azar y la necesidad, ya sea separadamente o conjuntamente no son capaces de crear la vida, debemos considerar la posibilidad de que esté implicado un tercer factor. Esa tercera posibilidad es el insumo de información.

Esta sugerencia podrá ser recibida con un estridente coro de protesta pues se supone que no hablamos de una historia detectivesca y que es en cualquier caso anti-científico e intelectualmente flojo proponer lo que es esencialmente una “inteligencia de los vacíos”, es decir, una solución del tipo de las del “Dios de los vacíos”. Aunque esta acusación debe ser tomada en serio, porque después de todo es posible que un teísta sea un haragán intelectual y diga, como o puedo explicarlo Dios lo hizo, es importante decir que otro podrían aplicarse el cuento. También es muy sencillo decir “la evolución lo hizo” cuando uno no tiene la mejor idea de cómo, o simplemente ha pergeñado una historieta especulativa sin ninguna base en la evidencia. Ciertamente, como hemos dicho, un materialista tiene que decir que los procesos naturales son los únicos responsables, puesto que en su libro, no hay otra alternativa posible. Así que es igual de fácil acabar con una evolución de los vacíos que con un Dios de los vacíos.

Uno podría decir incluso que es más fácil acabar con una evolución de los vacíos que con un “Dios en Cuestiones de vacíos de información”, puesto que la anterior sugerencia es probable que sea objeto de menores críticas que la última.

Para asegurarnos de que no se olvida esta cuestión recordamos el aviso de un experto en el origen de la vida el nobel y físico Robert Laughlin, cuya investigación es sobre las propiedades de la materia que hacen posible la vida (y que no es defensor del diseño inteligente):

“Gran parte del conocimiento biológico del día de hoy es ideológico. Un síntoma clave de este pensamiento ideológico es la explicación de que no tiene implicaciones y no puede comprobarse. Llamo a estos callejones sin salida lógicos anti-teorías porque tienen justamente el efecto contrario de las teorías reales: detienen el pensamiento en vez de estimularlo. La evolución mediante la selección natural, por ejemplo, que Darwin concibió como una gran teoría ha acabado funcionando como una anti-teoría que se utiliza para encubrir los vergonzosos fracasos experimentales y legitimar hallazgos que son cuestionables en el mejor de los casos y que en el peor ni siquiera están equivocados. Tu proteína desafía las leyes de acción de masas…. ¡La evolución lo hizo! Tu complicado follón de reacciones químicas se vuelve un pollo, ¡evolución! El cerebro funciona sobre principios lógicos que ningún ordenador puede imitar. ¡La evolución es la causa!” (14)

¿Cómo podemos, entonces, defendernos contra la acusación de haraganería intelectual o de pensamiento del Dios de los Vacíos? Pues a primera vista parece que el cargo podría estar justificado. Con el fin de explicar el siguiente paso en el argumento volveremos al mundo de las matemáticas puras.

Si una conjetura (digamos, la famosa conjetura de la antigüedad de que cualquier ángulo puede trisecarse empleando sólo una regla y compases) se ha pensado durante muchos años y todas las tentativas de demostrarlo han fracasado, entonces, aunque los matemáticos no necesariamente se den por vencidos para demostrarla verdadera, tratarán de intentar demostrar si se puede demostrar falsa, como pasó al final con esta cuestión, como todos los estudiantes de matemáticas puras saben (o deberían saber)

En otras palabras, cuando los matemáticos no consiguen demostrar una conjetura como cierta, no necesariamente se dan pro vencidos y siguen obstinadamente en la misma dirección que antes: pueden decidir de forma alternativa (o adicional) tratar de demostrar matemáticamente, que la conjetura es falsa. A mi me parece que es precisamente el tipo de pensamiento que debería operar en las ciencias físicas y biológicas en relación con la cuestión que estamos abordando. He dicho que necesitamos introducirlo. Esto no es del todo correcto. No sólo ya está allí, sino que la mayoría de nosotros somos conscientes de ello, por lo menos en las ciencias físicas. Me refiero, por supuesto, a la búsqueda en apariencia eterna por máquinas de movimiento perpetuo. Cada año se escriben artículos por personas que creen que han descubierto el secreto del movimiento perpetuo inventando mecanismos que seguirán en movimiento continuo una vez que han comenzado sin ningún insumo adicional de energía. (15)

Pero tales artículos no se toman en serio por los científicos que están familiarizados con las leyes fundamentales de la termodinámica. De hecho la mayoría de ellos ni siquiera se leen, y no porque los científicos a los que se les envían sean intelectualmente haraganes y no estén preparados para considerar nuevos argumentos. Es porque los científicos creen que hay suficientes pruebas para apoyar la ley de conservación de la energía. Esta ley es una ley conservadora e implica directamente que las máquinas de movimiento perpetuo son imposibles.

Por tanto los científicos saben que si examinan en detalle cualquier supuesta máquina de movimiento perpetuo, acabarán descubriendo invariablemente que al final necesitará una inyección de energía desde el exterior para que siga funcionando. De aquí, y este es el punto clave para nuestro propósitos, es la ciencia la que ha demostrado que las máquinas de movimiento perpetuo no existen. Y la haraganería intelectual no tiene nada que ver con ello. Ciertamente, sería intelectualmente perverso rechazar este argumento y seguir buscando el movimiento perpetuo.

¿Por qué no debería aplicarse el mismo tipo de lógica a la cuestión del origen de la información genética? ¿No podrían las dificultades implicadas en todas las tentativas que ha habido hasta ahora de ofrecer una explicación naturalista para el origen de la información genética ser una razón suficiente para gastar al menos parte de nuestra energía intelectual a indagar si hay algo parecido a un paralelo de teoría de la información a la ley de conservación de la energía?

Esa investigación podría conducir a pruebas científicas contra la validez de cualquier explicación de la abiogénesis que no implique un insumo de información procedente de una fuente externa inteligente.

Innegablemente, las cuestiones estudiadas aquí son de un orden de magnitud diferente de aquellas implicadas en la existencia de una máquina de movimiento perpetuo. Pues, si hubiera una razón científica adecuada para considerar que la abiogénesis no puede explicarse adecuadamente sin introducir un insumo de información entonces el interés se centraría inevitablemente en encontrar cuál es la fuente de esa información. Pero debe notarse que esta última es una cuestión completamente independiente, por difícil que sea mantener las dos aparte en nuestras consideraciones. Que la fuente de la información pueda determinarse o no es irrelevante para la cuestión de si un insumo externo de información es necesario. Después de todo, si fuéramos a Marte y descubriéramos una larga secuencia de montañas de pilas de titanio retrocediendo hacia el horizonte marciano donde las montañas consistieran en un número primo de cubos y las montañas fueran en el correcto orden ascendiente
1,2,3,5,7,11,13,17,19,… entonces con toda seguridad concluiríamos inmediatamente que esta disposición implicaba un insumo inteligente incluso si no tuviéramos ni idea de la inteligencia que está detrás de ello. Pero si descubrimos algo mucho más complejo, como una molécula de ADN, entonces ¡los científicos naturalistas presumiblemente llegarán a la conclusión de que era un resultado del azar y la necesidad!

Se conserva la información.

Nuestra pregunta ahora reza: ¿Existe alguna prueba científica de que la información se conserva en algún sentido significativo del término? Si la respuesta es positiva, entonces se ahorraría mucho tiempo y esfuerzo de investigación en conexión con el origen de la vida abandonando la infructuosa búsqueda de un equivalente en teoría de la información de una máquina de movimiento perpetuo. También debemos observar que ya no es adecuado objetar a un lenguaje de tipo informático cuando nos referimos a los organismos. Hoy en día, como hemos visto repetidas veces, el lenguaje “informático” es ubicuo en la biología molecular por la simple razón de que las proteínas, los flagelos, las células, etc, son máquinas moleculares.

Pueden muy bien ser más que máquinas, pero, al nivel de su capacidad de procesamiento de información son ciertamente máquinas (de procesamiento digital) Esto lleva consigo la implicación, ya explotada científicamente, en miles de formas diferentes en los años recientes, de que las máquinas biológicas están abiertas al análisis matemático en general y al análisis de teoría de la información en particular. Es a este análisis al que nos volveremos para obtener ideas sobre la cuestión de si las máquinas moleculares (de cualquier tipo) pueden generar nueva información. Leonard Brillouin, en su clásica obra sobre la teoría de la información no tiene dudas de la respuesta. Dice que:

“Una máquina no crea nueva información, pero realiza una transformación muy valiosa de la información conocida” (16)

20 años más tarde, un científico de tan poca talla como el nobel Peter Medawar escribió:

“Ningún proceso de razonamiento lógico, ningún mero acto de la mente o una operación programada por ordenador, puede expandir el contenido informativo de los axiomas y de las premisas o proposiciones observacionales a partir de las que parte” (17)

Dedujo de esta observación que algún tipo de ley de conservación de la información debe operar. No trató de demostrar esa ley, contentándose con retar a sus lectores a:

“… encontrar una operación lógica que sume al contenido informativo de cualquier afirmación”

Sin embargo, dio un ejemplo matemático para ilustrar lo que quería decir. Apunta que los famosos teoremas geométricos de Euclides son simplemente:

“Una exposición, una afirmación abierta, de la información ya contenida en los axiomas y postulados”. Después de todo, añade, los filósofos y lógicos desde los tiempos de Bacon no tenían dificultad para percibir que el proceso de deducción meramente hace explícita información que ya estaba allí. No crea nueva información de ninguna manera.

Dicho de otro modo, los teoremas de Euclides son reducibles a sus axiomas y postulados, una circunstancia que debería recordarnos nuestra exposición en el capítulo 3 sobre los límites a la reducción matemática impuestos por el teorema de Gödel. Y ciertamente Gödel que se cuenta entre los más grandes matemáticos del siglo 20, indicó que también pensaba que algún tipo de conservación de la información era característico de los seres vivos. Dijo que:

“la complejidad de los seres vivos tiene que estar presente en el material, a partir del cual derivan o en la leyes que gobiernan su formación. En particular, los materiales que conforman los órganos, si se rigen por leyes mecánicas, tienen que ser del mismo orden de complejidad que el cuerpo viviente”. La propia formulación de Gödel, en tercera persona es la que sigue:

“Más generalmente, Gödel piensa que el mecanismo en la biología es un prejuicio de nuestro tiempo que será refutado. En este caso, una refutación, en la opinión de Gödel, consistiría en un teorema matemático al efecto de que la formación dentro del tiempo geológico de un cuerpo humano mediante las leyes de la física (o cualesquiera otras leyes de naturaleza similar) que comience de una distribución de partículas elementales y el campo, es tan poco probable como la separación aleatoria de la atmosfera en sus componentes” (18)

Lo fascinante aquí es que Gödel esperaba que hubiera un día una demostración matemática de esto, en otras palabras que los matemáticos contribuyeran decisivamente a la solución del problema biológico del origen de la información. Nos encontramos aquí con una deliciosa ironía. Pues fue el propio Gödel el que inicio el sendero para desarrollos subsiguientes en este mismo problema. Empleando la teoría de la información algorítmica, el matemático Gregory Chaitin encontró pruebas de resultados incluso más vigorosos relacionados con los de Gödel que tienen peso sobre la cuestión de si los algoritmos generan información novedosa, y por tanto, por implicación. La abiogénesis.

Lo primero que hay que notar es que es pacifico que hay algún tipo de límite informativo a lo que pueden lograr los algoritmos. En un trabajo importante este matemático ha establecido que no puedes demostrar que una secuencia específica de números tenga una complejidad mayor que el programa precisado para generarla. (19)

Pero el trabajo de Chaitin tiene implicaciones adicionales. El promitente investigador sobre el origen de la vida Bernd-Olaf-Kuppers deduce a partir de ello la consecuencia siguiente, muy interesante:

“En secuencias que portan información semántica la información esta claramente codiicada en el sentido de que ya no es mas comprimible. Por lo tanto no existe ningún algoritmo que genere secuencias significativas donde esos algoritmos son mas breves que las secuencias que generan”. (20)

Kuppers apunta que esto es, por supuesto, un conjetura, puesto que el mismo trabajo de Chaitin que está examinando muestra que es imposible probar, para una secuencia y un algorimo dado, que no hay un algoritmo más breve que pudiera generar la secuencia.

Los argumentos de Chaitin se basan en el concepto de una máquina de Turing. Este es un constructo abstracto matemático llamado así por su inventor, el brillante matemático Alan Turing, que trabajo en el Parque Bletchey en el Reino Unido durante la Segunda Guerra Mundial y encabezó el equipo que descifro el famoso código enigma. El resultado del trabajo de Chaitin es hacer razonable la idea de que ninguna maquina de Turing puede generar cualquier información que no pertenezca o a su insumo o a su propia estructura informativa.

¿Por qué es importante esto? Porque, debido a la tesis Church-Turing, cualquier mecanismo de computación (pasado, presente o futuro) puede ser simulado por una máquina de Turing. Sobre esta base, cualquier resultado obtenido por las máquinas de Turing puede ser traducido al mundo digital. Una implicación de esto podría ser que ningún mecanismo molecular es capaz de generar cualquier información que no pertenezca a su insumo o a su propia estructura informativa.

Más recientemente, William Dembski ha defendido una ley de la conservación de la información no determinista en el sentido de que, aunque los procesos naturales que implican sólo el azar y la necesidad pueden transmitir eficazmente información específica compleja, no pueden generarla (21)

Queda mucho trabajo difícil e interesante por hacer en esta área en desarrollo. Sin embargo, al menos estamos ya en posición de tener una oportunidad de comprobar estas ideas en simulaciones sobre el origen de la vida. Pues, si la información se conserva en algún sentido, entonces podemos esperar lógicamente que cualquier origen de simulaciones de vida que pretenda obtener información “gratis” mediante procesos puramente naturales, debe sin embargo, a pesar de sus pretensiones, estar metiendo de contrabando esa información desde el exterior. Por lo tanto, si podemos demostrar lo último, al menos tenemos un argumento razonable de que es preciso un insumo de información para explicar el origen de la vida.

A la luz de esto, ahora trataremos de analizar una de las más famosas tentativas para simular el génesis de la especificidad compleja del ADN mediante medios naturales. Entran en escena los monos mecanógrafos.

_________________


Iros todos a tomar por culo. Ya lo hago yo, yalo hago yo. Se tarda menos tiempo en hacerlo que en estar dando explicaciones.


Arriba
 Perfil Email  
 
Mostrar mensajes previos:  Ordenar por  
 [ 115 mensajes ]  Ir a página Previo  1 ... 4, 5, 6, 7, 8  Siguiente

Todos los horarios son UTC + 1 hora [ DST ]


¿Quién está conectado?

Usuarios navegando por este Foro: Internet Archive [Bot] y 0 invitados


No puede abrir nuevos temas en este Foro
No puede responder a temas en este Foro
No puede editar sus mensajes en este Foro
No puede borrar sus mensajes en este Foro
No puede enviar adjuntos en este Foro

Saltar a:  
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group
Traducción al español por Huan Manwe