Spanish English Portuguese
  Versión PDF

 

El proyecto del genoma humano. Apuntes para una historia

O projeto do genoma humano. Notas para uma história

The human genome project. Notes for a story

Jaime Bernal Villegas*


* MD, PhD, Profesor Titular de Genética de la Pontificia Universidad Javeriana. Rector del Gimnasio Campestre de Bogotá.


Resumen

Este ensayo aborda los momentos cruciales y definitivos que marcaron el proceso científico que posibilitó el estado en el cual se encuentran los saberes sobre el Genoma Humano y algunas relaciones y problemas que se presentan entre ética y ciencia.

Abstract

This essay approaches the crucial and definitive moments that marked the scientific process that made possible the present state of knowledge about the Human Genome, as well as certain relations and problematics that arise between ethics and science.


En la Abadía de Westminster se lee en una placa:

A aquel cuyo genio y benevolencia
Le debe el mundo bendiciones
Por el uso del cloroformo
Para el alivio del sufrimiento
Laus Deo

La historia de esta placa se remonta a un artículo publicado en el Monthly Journal of Medical Science el 1ro de marzo de 1847, en el cual un joven médico escocés reportaba varios casos en que facilitaba complicados trabajos de parto mediante el uso del éter. El trabajo de este médico –James Young Simpson– generaría una dura polémica, tanto desde el punto de vista científico como religioso. Aducía entonces el puritano clero escocés que el génesis obligaba a la mujer a sufrir los dolores del parto por su desobediencia en el Paraíso (Génesis 3, 16) y que suprimirlos contradecía la Biblia. Pero el ingenio de Simpson le permitió responderles que también la Biblia dice: Y Dios sumió a Adán en un profundo sueño y él se durmió; y Él le sacó una de sus costillas (Génesis 2, 21), muestra inequívoca de su anuencia a la anestesia. Desde el punto de vista científico, su más arduo detractor –Ever John Snow– criticaba la forma en que Simpson usaba el éter y el cloroformo, aunque estaba a favor de la anestesia obstétrica. Y tan lo estaba, que fue Snow quien aplica cloroformo a la Reina Victoria en los partos de sus dos últimos embarazos. Leopoldo duque de Albania, penúltimo hijo de la Reina, tuvo desde muy temprana edad pésima salud, hasta el punto en que la misma Reina Victoria le contaría a Benjamín Disraeli que “ha estado al borde de la muerte cuatro o cinco veces”. Leopoldo contrajo matrimonio joven, murió unos pocos años después y siempre se asoció su pobre estado de salud a la administración del cloroformo durante su parto.

Predicciones desde la Expedición Ashanti

En 1896 el Príncipe Enrique, esposo de Beatriz la última hija de la reina Victoria, se unió a la expedición Ashanti y mientras viajaba por el Africa se detuvo en España, de donde envió una carta a su hija Victoria Eugenia que decía: “Sé buena siempre y quiere a tu mamá. Si haces esto, seguramente visitarás este hermoso país y verás que te gusta y que serás feliz aquí”. Las predicciones no serían del todo ciertas. Llegando la expedición a Ghana, el Príncipe Enrique sufrió un ataque de fiebres y murió en el viaje de vuelta a Inglaterra. En ese mismo año el último rey de los Borbones de España, Alfonso XIII, buscaba entre la nobleza de Europa a quien debería ser su esposa y hace una visita oficial a Inglaterra, donde es invitado a cenar en Buckingham por el tío de Victoria Eugenia, el rey Jorge V. En esa cena Alfonso conoce a Victoria Eugenia; la boda se lleva a cabo en 1906 y pocos meses después queda embarazada y da a luz a un hijo, Alfonso, príncipe de Asturias. Al alborozo de su nacimiento siguió en pocos días la tristeza. Era costumbre entre la realeza española entonces, el circuncidar a los recién nacidos; en este acto, el príncipe de Asturias sangra incontroladamente.

De arvejas y Reyes

Por la época en que James Young Simpson alcanza notoriedad en Escocia, con sus primeras observaciones sobre la anestesia durante el parto, otro joven que marcaría la historia, esta vez de la biología, fracasa en la Universidad de Viena. “Le falta perspicacia y el requisito de claridad en el conocimiento” escribió su examinador y le reprobó. Este hijo de campesinos había sido enviado a la Universidad por la Orden Agustina de Santo Tomas en Brno para ser calificado como maestro, y ahora volvía a su Monasterio con las manos vacías. Johann Mendel, su nombre de pila, Gregorio el que adoptó en la Orden. Pero había en su vida dos elementos de los que haría acopio: su experiencia como campesino y su contacto con Franz Unger, el único biólogo de importancia que conoció durante su estadía en Viena, de quien aprendió una visión muy práctica de la herencia. Durante los siguientes ocho años, Mendel se dedicó a cultivar plantas, a cruzar unas con otras y a anotar cuidadosamente todos sus resultados. La planta que eligió y a la que dedicó mayor tiempo fue la arveja común. Seleccionó siete características de ella: la forma de las semillas, color de ellas en el exterior e interior, diferencias en la posición de las flores y así sucesivamente, finalizando la lista con la longitud de los tallos. Utilicemos esta última característica para seguir exactamente uno de los experimentos de Mendel. Comenzaremos escogiendo las plantas progenitoras con el mismo criterio de Mendel: “En experimentos con esta característica, la de talla larga de 6 a 7’ se cruzó siempre con la corta de ¾’ a 1 ½’ “

Con el fin de que la planta corta no se fertilice a sí misma, la emasculamos y después la inseminamos artificialmente con polen de la planta larga. El proceso de fertilización sigue su curso y las plantas producen vainas que, por ahora, no muestran nada sobre la longitud del tallo. Plantamos entonces las arvejas de estas vainas y esperamos a su crecimiento final. Esta primera generación de híbridos, una vez alcanzado su crecimiento final, consta exclusivamente de tallos largos. En palabras de Mendel, “en experimentos repetidos, las combinaciones híbridas de tallos de 1’ y 6’, producen sin excepción tallos que varían entre 6’ y 7 ½’” . Ahora el segundo paso: fertilizamos los híbridos, esta vez con su propio polen, permitimos la producción de las vainas y sembramos estas arvejas. Al final de su crecimiento, no todas son del mismo tamaño: predominan las plantas altas, pero hay una proporción importante de plantas bajas. “De 1064 plantas, 787 tuvieron tallo largo y 277 tallo corto. “En consecuencia la razón es de 2.84:1....cuando todos los experimentos se combinan, el radio entre el número de formas con la característica dominante y la recesiva es de 2.98:1”. Mendel había descubierto que cada característica es codificada por dos partículas (que hoy se conocen como genes). Cada progenitor aporta una de ellas. Si las dos partículas son diferentes en un individuo, una de ellas será dominante sobre la otra. En este caso, el tallo largo es dominante sobre el corto. Mendel leyó este trabajo en la Sociedad de Historia Natural de Brno en 1866 y pasó casi inadvertido por los siguientes treinta años.

A pesar de que el Talmud, escrito hace 1500 años, cuenta de un Rabino que exceptuaba de la circuncisión al hijo de una mujer después de que tres hijos varones de sus hermanas hubieran muerto desangrados en el procedimiento, pero no exceptuaba al hijo de su hermano, el patrón de herencia de la hemofilia se dilucidó apenas en 1911. Se supo entonces que esta devastadora enfermedad, producida por la carencia de un factor de la coagulación que hace que se produzcan hemorragias espontáneas y que estas sean muy difíciles de detener, se debe a la presencia de una mutación, un daño en un gen que se encuentra ubicado en el cromosoma X. Como las mujeres tienen dos cromosomas X, la mutación en uno de los dos genes no se manifiesta, pero se transmite. En el hombre, que solo posee un cromosoma X, cualquier daño en unos de los genes de este cromosoma se manifiesta. La hemofilia se hereda entonces como una característica recesiva ligada al cromosoma X. La penosa enfermedad de Leopoldo Duque de Albania, no se debió entonces a la utilización del cloroformo de Simpson durante el parto. Leopoldo fue hemofílico, como su sobrino Alfonso príncipe de Asturias que sangró durante la circuncisión y muchos otros de los descendientes de la reina Victoria de Inglaterra.

En los primeros meses de 1900, tres investigadores redescubren de manera casi simultánea el trabajo de Mendel y cobra importancia lo que el Monje había llevado a cabo en su pequeño jardín del monasterio. Fue claro entonces, que los genes de la reina Victoria, que los genes humanos, se ajustan también a los mecanismos de herencia descritos por Mendel en los genes de la arveja.

En el momento en que cambia el mundo, del siglo XIX al XX, cambia finalmente nuestra concepción de la herencia. Por fin se entiende como se mueven los genes de padres a hijos. Y cien años después, al cambiar del siglo XX al XXI se anuncia la culminación del Proyecto del Genoma Humano, la primera descripción completa de toda su secuencia. Una larga historia para tan corto tiempo.

La doble hélice

Para lograr dilucidar la estructura del DNA se requería poder analizar la molécula intacta y una de las técnicas posibles era la difracción de rayos X que estaban implementando el entonces muy joven Sir Lawrence Bragg y su padre en los laboratorios Cavendish de Cambridge. En esta técnica, se dispara un haz de rayos X a la sustancia que se está estudiando; estos rayos X interactúan con los átomos de la sustancia y salen por el otro lado como un patrón complejo de rayos que puede captarse en una película fotográfica. Analizando esas imágenes es posible deducir la estructura del espécimen en estudio. Al final de los años 40, el laboratorio Cavendish designó a Max Perutz para que se encargara de ensayar la cristalografía de rayos X en la elucidación de la estructura de las más complejas moléculas: las proteínas. Max Perutz había nacido en Viena en 1914, hijo de una acaudalada familia que había hecho su dinero introduciendo los telares mecánicos en Austria en el siglo XIX. Luego de estudiar química en la Universidad de Viena se trasladó en 1936 a la Universidad de Cambridge a aprender cristalografía en el laboratorio Cavendish, bajo la tutoría de John Desmond Bernal, uno de los más renombrados hombres de ciencia británicos, y en 1947 fue designado para iniciar la Unidad de Biología Molecular del Cavendish, con John C. Kendrew como el único otro miembro del grupo, y para continuar el trabajo de elucidar la estructura de la hemoglobina, al que había dedicado varios años. Por este trabajo recibirían el Premio Nobel de Química en 1962. Pero el grupo de Perutz tenía la posibilidad, por el tipo de trabajo que estaba realizando, de atraer a otro tipo de personas no interesadas en las proteínas.

En 1950 la universidad de Indiana le concedió el PhD a un joven de apenas 22 años, James D. Watson. Había llegado a Indiana desde la Universidad de Chicago donde había hecho sus estudios de pregrado con Salvador Luria, con quien había aprendido los principios de genética que aplican a algunos virus. Al terminar en Indiana, Watson decidió viajar a Copenhague, donde continuó sus estudios en virus y como parte de esto, viajó en 1951 a Nápoles a una de las múltiples oportunidades que se tienen en la vida científica de oír y presentar los resultados de investigación. Fue allí donde conoció a Maurice Wilkins, quien trabajaba en Kings College, parte de la Universidad de Londres. Wilkins era físico, con interés en biofísica y en 1950, con su estudiante Raymond Gosling había obtenido buenos patrones de la difracción de rayos X del DNA. Wikins acababa de recibir en su laboratorio a Rosalind Franklin, una inglesa entrenada en Cambridge, que había aprendido en Paris los vericuetos de la difracción de rayos X.

En la reunión de Nápoles, Wilkins mostró fotos de rayos X del DNA. Inspirado por estas fotografías, Watson organizó una pasantía por el laboratorio de Perutz en Cambridge. Al llegar allí se encontró en una oficina que compartía con Francis Crick, otro físico en sus treintas, teórico pero con un gran interés en la biología y con Jerry Donohue, también americano como Watson, químico y cristalografista. Watson ya estaba allí cuando en el otoño de ese mismo año Rosalind Franklin presentó ante una pequeña audiencia un método mejorado para agregar agua al DNA, lo que cambiaba su estructura cuando se miraba a los rayos X. De vuelta en Cambridge, Watson le comentó a Crick lo oído a Franklin; era evidente que los datos ya disponibles limitaban a unas pocas posibilidades la probable estructura del DNA. Les pareció entonces a Watson y Crick que era el momento de proponer una estructura hipotética que casara con los datos cristalográficos de Wilkins y Franklin y con aquellos de la relación entre nucleótidos de Chagraff. Durante las semanas siguientes, Watson se dedicó a elaborar modelos en cartón de las bases de DNA e, incluso, pidió a los mecánicos del laboratorio que construyeran en metal sus modelos. Algún día Watson logró ajustar un modelo que, aunque no casaba perfecto con las dimensiones de la cristalografía ni se ajustaba a las reglas de Chagraff, parecía ser adecuado. A los pocos minutos se encontró a Donohue, quien, con múltiples argumentos destruyó su hipótesis. Al día siguiente, Watson desocupó todo su escritorio y comenzó a jugar con las bases de cartulina desde el principio. Al poco rato tenía la combinación que parecía perfecta: la unión de la adenina y la timina por dos puentes de hidrógeno era idéntica en forma a la unión de la guanina y la citosina con el mismo número de hidrógenos. Donohue no encontró objeción alguna a este modelo. La doble hélice del DNA había sido descubierta, dos cadenas de azúcar y fosfato que soportan las bases y que se mantienen juntas por el natural apareamiento entre la guanina y la citosina y la adenina y la timina. “Nuestra idea era estéticamente elegante; una estructura tan bella tenía que existir”, diría después Watson. A pesar del asombroso hallazgo, no todo el mundo compartió el entusiasmo. Erwin Chargaff, que nunca mostró simpatía por el trabajo de Watson y Crick, expresó con desdén lo que sentía: “el hecho de que hoy tales pigmeos proyecten sombras tan gigantescas, solo demuestra lo tarde que es”. En 1962 Watson, Crick y Wilkins recibieron el Premio Nobel de Medicina. Rosalind Franklin había muerto de cáncer en 1958, a los 37 años de edad.

Los rayos X

En la noche del 23 de enero de 1896, la Sociedad de Medicina Física de Wurzburg, en Alemania, se dio cita para oír de viva voz del protagonista, las noticias de un asombroso procedimiento que acababa de publicarse en la prensa. La conferencia estaba a cargo del Profesor Wilhelm Konrad Roentgen y su descubrimiento utilizaba –decía el London Standard el 7 de enero anterior– “la luz emitida por un tubo de Crookes a través del cual se pasaba una corriente eléctrica, que actuaba sobre una placa fotográfica ordinaria. Los rayos invisibles de la luz...... tienen la peculiaridad de que, para ellos, la madera y varias otras sustancias orgánicas son transparentes, mientras los metales y los huesos les son opacos”. Después de mostrar a la comunidad científica su descubrimiento de los rayos X, Roentgen invitó al Presidente de la sesión a dejarse examinar su mano con los nuevos rayos; un sonoro aplauso siguió a la demostración de la imagen al público: la mano izquierda con dos anillos de Albert von Kolliker, un famoso anatomista, Profesor de la Universidad de Wurzburg, quien, entre otras cosas, había descrito la mitocondria en las células musculares.

Pero la noche del 23 de enero en que el Profesor Roentgen presentaba su hallazgo, a más de ponernos en contacto con la mitocondria, tuvo un papel aún más fundamental en la historia de la genética. Diez y seis años después, en 1912, Paul Knipping, estudiante doctoral del Instituto de Roentgen, Max von Laue y W. Friedrich decidieron experimentar los rayos X para examinar un pedazo de cristal de sulfato de cobre. Relata Von Laue que “después de que Friedrich me mostró los resultados, me dirigí por la calle Leopold, a casa, pensando profundamente. Y muy cerca de mi casa, en la calle Bismark número 22, enfrente de la casa con el número 10 de la calle Siegfred, se me ocurrió una idea para la teoría matemática de los resultados”. En una semana, Von Laue elaboró la teoría de la difracción de rayos X por cristales, y por ella mereció el Premio Nobel de Física en 1914. Y, aún más. A finales de 1912, Sir Lawrence Bragg y su hijo, en los laboratorios Cavendish de Cambridge, simplificaron la teoría de Von Laue, enunciaron la Ley de Bragg y se hicieron acreedores al Premio Nobel de Física en 1915.

Precisamente fue el laboratorio Cavendish adonde decidió trasladarse Watson cuando se conoció con Wilkins en Nápoles en 1951; fue allí, con esta técnica, donde se descubrió la estructura del DNA.

Seguramente nadie, aquella noche del 23 de enero imaginó los sucesos que dependerían de estos hallazgos. El London Standard “asegura a sus lectores que no se trata de una chanza”. Es un hallazgo serio, de un serio Profesor Alemán” decía en su edición del 7 de enero de 1896, cortando el paso a quienes pensarían que se trataba de una broma, para dar vuelo a la imaginación de mirar bajo los largos trajes victorianos. Y en los últimos 100 años los rayos X han permitido ver nuestros huesos, el cerebro y muchas otras estructuras, la calidad de los motores, las fisuras en las alas de los aviones, las pinceladas ocultas en los cuadros de los grandes pintores y la estructura del DNA.

Albores y desarrollo de la informática

En 1801, Joseph Marie Jaqcuard, un inventor francés, diseñó el telar que permitía la producción de telas con muy complejos patrones en ellas. La idea central del telar de Jacquard consistió en controlar los movimientos del telar mediante unas tarjetas perforadas en donde se reproducía el dibujo a tejer. En 1806, el gobierno francés declaró propiedad pública el telar de Jacquard y a su inventor le concedieron una pensión y regalías sobre cada máquina producida. De allí viene el nombre de las ricas telas de hoy en día, pero estuvo lejos Jacquard de imaginar el giro que daría su invención.

Lord Byron (George Gordon) nació en Londres en enero de 1778, a pesar de que sus padres –Catherine Gordon Byron y John Byron– se escondían en Francia por sus obligaciones financieras. Finalmente, su madre se asentó en Escocia y su padre permaneció en la casa de su hermana en Francia hasta su muerte en 1791. Byron nació con un pié equino, y a pesar del tratamiento con botas especiales, cojeó toda su vida. La vida de Byron fue en extremo peculiar. A la edad de diez años, se convirtió en el sexto Lord Byron, a la muerte del quinto Lord Byron, su abuelo, conocido como el loco Jack, quien, entre otras cosas, había matado a uno de sus primos en duelo. En esas condiciones era obvio que las finanzas y la misma casa ancestral, Newstead, se encontraran en ruinas. Lord Byron fue literalmente un Don Juan, enredado en amoríos con sus primas (Mary Ann Chaworth), y con toda suerte de mujeres de la nobleza, como Lady Carolina Lamb, Lady Oxford, la Condesa Guicioli, e, incluso, su medio hermana Augusta. En medio de todo esto, en 1814 le propuso matrimonio por segunda vez a Annabella Milbanke, prima de Lady Carolina Lamb, matrimonio que duró apenas un año, pero de quien Byron tuvo una hija, Augusta Ada, su único descendiente reconocido. Lady Byron quiso una formación para su hija distinta a la de su padre y muy pronto la inició con tutores en música y matemáticas, para contrarrestar las peligrosas tendencias poéticas de Byron. Ada creció mostrando ser una mujer inteligente y muy independiente para la época y, a los diecisiete años de edad, con ocasión de una de las múltiples veladas que se preparaban en la época para mostrar nuevos inventos, conoció el trabajo de Charles Babbage y desde entonces, hasta la muerte de ella, se mantuvieron en permanente contacto.

Babbage era un inquieto intelectual, nacido en Londres en 1791 y educado en matemáticas en Cambridge. Alrededor de 1820, la Sociedad Astronómica Real le encomendó revisar las tablas que contenían datos astronómicos, logaritmos, funciones trigonométricas y varias constantes físicas, que se usaban para la navegación y el análisis de experimentos científicos. Estas tablas habían sido calculadas a mano, (por personas conocidas entonces como “computadores”), y algunas tenían más de dos siglos de haber sido producidas. Debido a los cálculos manuales y a los copistas, las tablas estaban llenas de errores; solamente las que se usaban para navegar tenían más de 1000 errores conocidos y el catálogo de sus correcciones ocupaba siete volúmenes. Analizando este tedioso trabajo, Babbage cayó en cuenta que la mayoría de los cálculos requeridos eran rutinarios y de naturaleza puramente mecánica y le pareció posible diseñar una máquina que hiciera este trabajo automáticamente. Más que el diseño mecánico de esta hipotética máquina, el aporte de Babbage consistía en todo un extenso trabajo que había realizado en funciones matemáticas. En 1822, Babbage presentó a la Sociedad Astronómica Real la propuesta para esta máquina, que él llamó la “Máquina de Diferencias”; y fue aprobada. Tanto esta máquina, como el plano de otra más avanzada que diseñaría después (la “Máquina Analítica”), eran controladas por tarjetas perforadas, idea que Babbage tomó de la máquina de tejer de Jaqcuard. Los planos de estas máquinas contenían, entonces, todos los elementos que después se verían en los computadores de nuestros días: la unidad de entrada, una unidad de salida, otra de memoria, otra de mando y una aritmética, donde se realizaban los cálculos. No en vano se adjudica a Charles Babbage la paternidad del computador. Y fue el diseño de una de estas máquinas el que atrajo a Ada Lovelace, quien se referiría a ella como la “máquina de tejer números”. Desde 1833, cuando se conocieron, hasta la muerte de Ada de cáncer a los 37 años de edad en 1852, Ada se dedicó al pensamiento matemático de Babbage, y al diseño de programas que podrían correrse en sus máquinas. De allí que algunos la postulen como la primera mujer “programadora” en la historia, razón por la cual se bautizó con su nombre (ADA) un programa universal de computadores. Las máquinas de Babbage no corrieron con buena suerte, en parte por la mala planeación de su desarrollo y también por la dificultad de la época para manufacturar, tan enorme número de piezas, de la precisión requerida.

Códigos de guerra

Durante la segunda guerra mundial los alemanes utilizaron unas máquinas para cifrar sus códigos, conocidas desde hacía casi veinte años, como las Enigma. Estas máquinas remplazaban cada letra de un mensaje por una nueva letra del alfabeto, pero escogían esa nueva letra de una forma muy compleja. Una “a” podía ser remplazada por una “q” al principio del mensaje, y luego por una “m”, y después por una “j”. Lo que estaba en juego no era poca cosa; quien lograra descifrar los mensajes de los alemanes podría conocer información secreta de importante valor, como la posición de los submarinos U que tenían en jaque a la flota real Inglesa. El Servicio Criptográfico de la Gran Bretaña estaba al cargo de esta misión, y en 1939 encomendó la tarea a un joven brillante: Alan Turing. Vale la pena dedicarle algunas palabras a la historia de este curioso personaje. Turing nació en una enfermería del barrio Paddington de Londres, el 23 de junio de 1912. En aquel entonces, aquella edificación llevaba el nombre de Warrington Lodge, y como tal permaneció hasta 1935, cuando se convirtió en un hotel utilizado por muchos refugiados europeos, entre ellos Sigmund Freud, quien se alojó allí a su llegada de Viena en 1938. La casa permanece hoy en día como Hotel –Colonnel Town House– y hace poco se puso en ella una placa conmemorativa a Turing. Aunque muy mal estudiante en la escuela preparatoria, pronto demostró su interés por la ciencia y la matemática, logrando finalmente un puesto en King’s College de Cambridge. Desde allí comenzó a publicar sus trabajos teóricos en lógica matemática que le granjearon cierta fama internacional y lo llevaron a Princeton, donde estuvo dos años como estudiante de postgrado. En 1938 le ofrecieron un cargo en Princeton, pero Turing resolvió volver a Inglaterra.

El equipo del Parque Bletchley

A este sitio, donde funcionaba el Servicio Criptográfico de la Gran Bretaña, llega Turing en septiembre de 1939, con un puesto de tiempo completo, y el propósito de descifrar las máquinas Enigma de los alemanes; gracias al trabajo del equipo de Turing en el Parque Bletchley, a partir de 1940 pudieron descifrar todos los mensajes de la fuerza aérea alemana. Sin embargo, los métodos Enigma utilizados por la armada alemana eran mucho más complejos, y considerados indescifrables. A mediados de 1941, y después del desarrollo de complicados procesos estadísticos, se estabilizó el desciframiento de los mensajes de la armada, lo que se mantuvo hasta cuando los alemanes modificaron la máquina Enigma de los submarinos U en febrero de 1942. Tardó casi un año descifrar nuevamente estos códigos, tiempo durante el cual, las ideas estadísticas de Turing sirvieron también para romper el código del material “Fish”, que era como se transmitían las comunicaciones estratégicas de Hitler.

La Máquina de Turing

Pero, sin lugar a dudas el trabajo más importante de Turing fue el diseño de la máquina de Turing. Téngase en cuenta que en el momento en que Turing propone esta máquina no existían los computadores y por lo tanto, no se tenía idea de cómo construirlos, ni que podrían hacer. En su artículo de 1936 sobre números computables, Turing propuso una máquina conceptual muy simple, consistente en un rollo de papel dividido en cuadros y una cabeza lectora/impresora que se movía a la derecha o izquierda sobre el rollo de papel. Esta cabeza lectora/ impresora paraba en cada cuadro, leía el símbolo que había allí y se refería a una lista de reglas o método adonde se le especificaba cuál sería el siguiente paso. La máquina de Turing contiene el principio esencial del computador: una máquina que se puede poner a hacer una tarea definida, alimentándola con el programa requerido. Esta lista de reglas o método es lo que se conoce hoy en día como “algoritmo”, una palabra tan nueva en el lenguaje popular, como es vieja en sus orígenes. La palabra algoritmo viene de al-Khwarazmi, el hombre de Kwarazm (hoy Khiva en Uzbekistán), quien popularizó el álgebra alrededor del año 800.

Últimos años de la guerra y la Postguerra

Finalizando la segunda guerra mundial, aparece la primera generación de computadores, representados en el Colossus desarrollado por los Ingleses para decodificar los códigos alemanes (y en el que trabajó Turing), y el Computador e Integrador Numérico Electrónico (ENIAC) desarrollado por el gobierno de los Estados Unidos y la Universidad de Pensilvania. Este último, que vino a ser el primer computador Norteamericano, pesaba 30 toneladas y albergaba 18.000 tubos de vacío, 70.000 resistencias y consumía 160 kilovatios de energía. Se dice que cuando se encendía el ENIAC se bajaba la luz de todo un sector de Filadelfia.

En 1948, en los Laboratorios Bell, William Shockley, John Bardeen y Walter Brattain inventaron el transistor, permitiendo remplazar los tubos de vacío, disminuyendo el tamaño y la temperatura de los computadores. La historia de este descubrimiento, que realmente revolucionó el mundo, tiene algunos aspectos interesantes. Shockley había nacido en Londres, de padres Norteamericanos, pero se educó en California y obtuvo su PhD en MIT. Shockley era consciente de que para hacer computadores más potentes se requerirían más tubos al vacío, pero llegaría el momento en que el tamaño de los aparatos y la energía requerida para moverlos impedirían su crecimiento. Comenzó entonces a trabajar en los Laboratorios Bell, usando cristales, particularmente aquellos que conducían la electricidad, que –si funcionaban- harían el trabajo más confiable y con un consumo de energía un millón de veces menor. Después de dos años de trabajo, describieron el primer transistor, usando el germanio. En muy poco tiempo, los transistores remplazaron los tubos al vacío en televisores, radios y computadores y comenzó la reducción en tamaño de estos aparatos. Shockley, Bardeen y Brattain obtuvieron el Premio Nobel de Física en 1956.

Aunque el transistor permitió grandes avances en los computadores, estos aún generaban demasiado calor. La arena vendría a solucionar el problema, y es curioso pensar que un elemento tan común y que jugó un papel fundamental en la adaptación de la vida en el mar a aquella sobre la tierra –permitiendo así la evolución humana– sería la clave para desarrollar el computador y, con ello, potenciar aún más la inteligencia humana. La arena altamente refinada para producir 99.9999% puro silicio, es la base (wafer) sobre la cual se construyen la mayoría de los chips de computador. El silicio es un semiconductor natural, barato y abundante, que puede conducir la electricidad o convertirse en un aislante. El trabajo que condujo al diseño del chip se debió a Jack Kilby, ingeniero de la Texas Instruments en 1958, y por esta contribución recibió el Premio Nobel de Física en 2001. Los primeros chips contenían apenas una decena de componentes; desde entonces, el número de componentes que se pueden poner en un chip se duplica cada año. Hoy en día, los chips pueden contener millones de componentes en cada uno. Más aún, en 1971 Intel diseñó un chip que contenía todos los elementos de un computador (unidad central de procesos, memoria y controles de entrada y salida) que, una vez programado, podía instalarse en televisores, hornos de microondas, automóviles, etc. Hoy en día todos estos elementos y muchos otros de uso diario llevan este tipo de circuitos integrados.

Finalmente, hace unos veinte años, el Departamento de Defensa de los Estados Unidos comenzó a experimentar con una red para conectar computadores entre sí, red que inicialmente llamó ARPAnet. Alrededor de los años ochenta, la Fundación Nacional de Ciencias de los Estados Unidos creó cinco centros de supercomputadores, con los cuales abrió posibilidades de conexión a usuarios académicos de muchas partes del mundo. La invención del telégrafo, el radio, el teléfono y el computador hicieron posible el desarrollo de la red mundial que hoy a todos nos parece tan necesaria.

Bacterias y virus

La bacteria Escherichia coli (E. coli) fue descrita por Theodor Von Escherich en 1885; conocida inicialmente como bacteria coli –del intestino– fue rebautizada en este siglo con el nombre de su descubridor. Escherich fue un pediatra alemán nacido en 1857, que dedicó la mayor parte de su tiempo al estudio de los problemas que afectaban la salud infantil. Además de describir la bacteria, Escherich identificó algunas cepas de ella que eran responsables de la diarrea en los niños.

La E. coli es una bacteria muy común; coloniza el intestino del hombre y los animales de sangre caliente unas pocas horas después de su nacimiento, bien a través del agua o directamente de otros individuos, y permanece allí por años o meses, resistencia que fue bien demostrada en el caso de Shackleton. Esta bacteria es la cabeza de una familia muy grande de bacterias conocidas como bacterias del intestino o enterobacterias, que son muy versátiles y pueden vivir en la presencia o ausencia de oxígeno. Considerando que es un organismo unicelular, la E. coli tiene una notable capacidad de respuesta a cambios en su medio ambiente. Por ejemplo, puede identificar la presencia o ausencia de químicos en su ambiente y moverse hacia ellos o alejarse, según su conveniencia. Usualmente se mueve con libertad en su entorno, pero puede también crecer unas prolongaciones filamentosas y anclarse a las células del intestino. Ante los cambios de temperatura exterior, puede modificar el diámetro de los poros de su membrana externa, para impedir o promover el intercambio de determinados elementos. La E. coli es entonces un pequeño y asombroso organismo que rápidamente se convirtió en el preferido de muchos laboratorios de experimentación. De hecho, el viejo adagio que le daba al conejillo de indias el papel central de sujeto de experimentación, es hoy realmente compartido entre el ratón y la Escherichia coli; ambos merecen un destacado puesto en la historia de la ciencia. Volveremos a la E. coli en su debido momento.

A finales del siglo XIX ya se sabía que los filtros de agua fabricados en buena porcelana retenían las bacterias, pues estas no se observaban al microscopio en el agua filtrada. Sin embargo, en 1892, Dimitri Iwanovski, un botánico ruso, experimentando con una enfermedad del tabaco llamada la enfermedad del mosaico del tabaco, encontró que ésta se podía reproducir incluso con fluidos filtrados, pero el agente no se podía identificar en ellos al microscopio. Estos agentes causantes de enfermedad, que pasaban por los filtros y que no se veían al microscopio de luz, comenzaron entonces a conocerse como agentes filtrables o virus filtrables, y, finalmente, como virus. Este era el estado del arte de los virus cuando se desató la guerra entre Estados Unidos y España, cuyo epicentro fue Cuba. Después de la explosión del Maine, cuyas causas nunca se conocieron, pero que encendió el conflicto, solo 968 soldados norteamericanos murieron en combate, pero más de cinco mil murieron de enfermedades y de ellas la fiebre amarilla era la más temida. En el momento de la primera ocupación de Cuba, había en la isla más de cincuenta mil norteamericanos, y aunque pronto se firmó el Tratado de Paris y España se rindió, era evidente que había que hacer algo para proteger a las tropas que tendrían que continuar allí, hasta que se estabilizara políticamente la región. Los oficiales encargados de la salud de los norteamericanos en Cuba eran entonces George Miller Sternberg, Cirujano General de la Armada, y Leonard Wood, Gobernador General de Cuba. Sternberg, que era un respetado experto en bacteriología, se llevó a Cuba a Walter Reed, a quien él mismo había nombrado Profesor de microscopía clínica y sanitaria en la Escuela Médica del Ejército en 1893 y a otros tres investigadores: James Carroll, Arístides Agramonte y Jesse Lazear, con el fin de estudiar allí a fondo la fiebre amarilla.

El Mayor Walter Reed

Walter Reed nació el 13 de septiembre de 1851 en Belroi, Virginia, y a los diecinueve años ya había completado su entrenamiento médico en la universidad del mismo estado, convirtiéndose en el más joven graduando de su historia. Después de un año más de estudio en el Colegio Médico de Bellevue, en Nueva York y de varios años de internado en el Hospital Kings County, Reed trabajó como inspector del Consejo de sanidad de Brooklin. En 1875 se enrola en el ejército como asistente médico con el grado de primer teniente, y durante los siguientes dieciocho años ejerce la medicina en fuertes de avanzada del ejército Norteamericano. En 1890 vuelve a Baltimore, donde se vincula como estudiante de bacteriología en el Johns Hopkins. Es allí donde traba amistad con Sternberg, y entre 1893 y 1900 se dedica a la docencia y la investigación, particularmente en fiebre tifoidea y fiebre amarilla. En junio de 1900, Reed llega entonces a las barracas del ejército en Quemados, a unos pocos kilómetros de la Habana, en su cargo de director del Consejo para el estudio de las enfermedades infecciosas en Cuba.

El papel del mosquito

En los meses siguientes el trabajo es febril. En vez de dedicarse a identificar el agente de la fiebre amarilla, el consejo resuelve aclarar la forma en que esta se transmite, tratando de probar la hipótesis de un médico cubano, Finlay, quien había propuesto un mosquito (entonces conocido como Culex fasciatus y hoy en día como Aedes aegipty) como agente transmisor, pero no había podido demostrarlo experimentalmente. Para tal fin, se inocularon voluntarios, se estableció un cultivo de los mosquitos, se construyeron dos edificios con todos los mecanismos para exponer a los voluntarios, tanto a las ropas y pertenencias de personas afectadas (en el edificio de “ropas infectadas”) como a mosquitos infectados. En pocos meses, Reed registró en su diario de campo los datos suficientes para deducir que el mosquito tenía que picar al enfermo durante los tres primeros días de su enfermedad, tiempo durante el cual permanecía el agente infeccioso en su sangre, y luego demoraba doce días en madurar en el mosquito y pasar a sus glándulas salivales, para poder infectar nuevamente. En tan poco tiempo fue claro entonces el papel del mosquito, y en 1901 Carroll demostró que el agente era filtrable, y, por lo tanto, un virus; pero en el proceso murieron varios voluntarios, entre ellos el mismo Jesse Lazear, un verdadero mártir de la ciencia. El 31 de diciembre de 1900 escribía Reed en una carta “mis asistentes y yo hemos podido levantar el velo impenetrable que rodeaba la causa de esta terrible peste de la humanidad y darle unas bases científicas y racionales... mis oraciones de más de veinte años pidiendo que de alguna forma, o en algún momento, pudiera hacer algo para aliviar el sufrimiento humano, han sido oídas”. Esta carta iba dirigida al Coronel William Gorgas, entonces Jefe de Sanidad en Cuba quien, a raíz del trabajo de Reed, vio clara la necesidad de eliminar los reservorios de agua cercanos a las viviendas, para impedir la reproducción del mosquito; el mismo Gorgas que unos pocos años después repetiría esta experiencia en Panamá, permitiendo la terminación del Canal. Walter Reed no estaría allí. Murió de peritonitis el 23 de noviembre de 1902; en su tumba en Arlington se lee simplemente: “Entregó al hombre el control de un horrendo azote: la fiebre amarilla” El primer virus relacionado con una enfermedad humana había sido descrito.

En 1910 se presentó una invasión de langostas en la península de Yucatán en Méjico. Allí se encontraba entonces un bacteriólogo francés nacido en el Canadá, de nombre Felix d’Hérell, quien después de estudiar medicina en Francia y Montreal, había viajado a Guatemala y Méjico. Relata d’Hérell que estando allí, “los Indios me contaron de un sitio donde se encontraba el suelo repleto de langostas muertas. Fui allí y pude recolectar muy fácilmente langostas enfermas, pues el principal síntoma era una diarrea negruzca abundante. Esta enfermedad de las langostas no había sido descrita; la estudié y resultó ser una septicemia con síntomas intestinales causada por una bacteria: el cocobacilo de la langosta”. En los siguientes años, d’Hérell se dedicó a estudiar su cocobacilo, al que veía como un buen elemento para controlar las plagas de langosta, pues lo cultivaba en el laboratorio y luego lo espolvoreaba en las plantas, con lo cual las langostas se contaminaban al ingerirlas. De hecho, entre 1911 y 1915 viajó a Argentina, Turquía y Tunisia para controlar plagas de langostas, y fue en este último sitio donde hizo su más importante observación: cultivaba sus cocobacilos en la superficie de una gelatina –agar, como se hace aún hoy día- y estos al multiplicarse producían colonias que se veían como manchas oscuras en la gelatina, y en varios de esos cultivos notó que había áreas muy pequeñas –puntos clarosde dos o tres milímetros de diámetro, en las que no crecían los bacilos. Pero sería solo en 1915 en el Instituto Pasteur en París donde caería en cuenta de la verdadera trascendencia de su observación: “la causa de mis puntos claros era, de hecho, un microbio invisible, un virus filtrable, un virus que parasita la bacteria”. d’Hérell le puso nombre a este virus: bacteriófago, que devora bacterias. Sin embargo, el crédito por el descubrimiento de los bacteriófagos, o fagos, no se ha dado solamente a d’Hérell; casi simultáneamente Frederick Twort los describió en Inglaterra, y por algún tiempo se conocieron los bacteriófagos como el “fenómeno Twort-d’Hérell”. Hoy en día conocemos una gran variedad de fagos que parasitan muy diversas bacterias. Fue este el primer fago descrito y, aunque d’Hérell tuvo siempre la esperanza de que su descubrimiento sería de utilidad, nunca imaginó la forma en que esto se haría.

Enzimas de las bacterias

En la década de los 70s, se observó que las bacterias como la E. coli, producían unas enzimas que destruían el DNA de los virus que las infectaban. Esta era una buena estrategia para protegerse de la invasión de los bacteriófagos, siempre y cuando la enzima que destruye el DNA del virus, pueda distinguirlo del de la propia bacteria. De lo contrario, la enzima de la bacteria destruiría los dos DNA. Poco después se descubrió que, efectivamente, la bacteria tiene otra enzima que marca químicamente su DNA, distinguiéndolo del viral y como estas enzimas “restringen” la posibilidad de que los bacteriófagos infecten a las bacterias, se llamaron “enzimas de restricción”. Muy pronto fue evidente, además, que estas enzimas cortan el DNA por sitios muy precisos y distintos para cada bacteria. Por ejemplo, la de la E. coli, (que se llama EcoRI, por primera enzima de restricción de la E. coli) corta el DNA siempre que encuentra la siguiente secuencia:

G A A T T C C T T A A G

Y lo corta entre la guanina y la adenina en ambas cadenas. Hoy en día se han aislado más de 900 enzimas de restricción, sacadas de más de 200 cepas bacterianas diferentes, cuyos sitios de corte son bien conocidos. Estas tijeras biológicas son entonces nuestra cuarta herramienta, con la E. coli, los fagos y las polimerasas. Con todas estas herramientas en el laboratorio, lo primero que puede hacerse es extraer el DNA de las células de un individuo (una técnica hoy en día muy simple) y someterlo a la acción de una cualquiera de las enzimas de restricción. Esta enzima romperá el DNA en muchos pedazos de muy distinto tamaño, pero para poderlos ver es necesario usar la electroforesis: someter el DNA a la acción de la corriente eléctrica en algún medio que lo soporte, como una gelatina de agarosa. De esta forma, la corriente eléctrica separará los fragmentos de DNA de acuerdo a su tamaño: los más pequeños correrán más y los más pesados correrán menos. Luego se agrega algún colorante que marque las bandas y se podrán identificar por el tamaño, por comparación con un patrón conocido que se somete al mismo tiempo a la acción de la corriente. Teniendo el DNA cortado en pedazos por las enzimas de restricción, también puede integrarse a otros genomas, algo que descubrieron Stanley Cohen y Herbert Boyer en 1973 y que llamaron DNA recombinante, tecnología que patentaron en 1980. Si se toma un bacteriófago, por ejemplo, y se somete su genoma a la misma enzima de restricción, se producirán fragmentos que tienen “bordes” complementarios a los del DNA humano, pues la enzima de restricción corta por los mismos sitios ambos genomas. Si ahora se juntan los dos genomas fraccionados, y se someten a la acción de la ligasa, el DNA viral se combinará con el DNA humano y la combinación de estos dos podrá empaquetarse nuevamente en fagos. Ahora bien, estos fagos infectan bacterias del tipo E. coli y utilizan los mecanismos de la bacteria para reproducirse, y para reproducir el pedazo de DNA humano que incorporaron a su DNA. De esta manera se pueden producir en el laboratorio millones de fagos que contienen la misma secuencia de DNA humano. El fago es entonces un “vector” que permite llevar una secuencia de DNA de una especie a otra. Los plásmidos son otros vectores y funcionan de manera muy similar. Insertar DNA en virus o bacterias no solo sirve para producirlo en cantidades abundantes. Uno de los propósitos más importantes es generar una biblioteca de DNA de todo el genoma o de cada cromosoma de un organismo. Sin embargo, si se corta el DNA con una enzima de restricción, va a quedar una serie de pedazos que solo pueden identificarse por su tamaño, pero que no es posible saber en que orden estaban. Con el fin de lograr esto, es necesario cortarlo de tal forma que queden fragmentos que contengan regiones comunes y esto se logra sometiendo el DNA a la enzima en baja concentración, de tal manera que no corte por todos los sitios. Se obtienen así muchos más fragmentos, pero al examinarlos puede reconstruirse el orden en el que estaban, en base a las partes de ellos que comparten diversos segmentos. Si ahora inserto todos esos segmentos en bacterias o virus, la colección de estos será una biblioteca del DNA de ese organismo. Esta se llama una biblioteca “genómica” y contiene toda la secuencia del genoma, tanto el que codifica para proteínas como el que no lo hace. Sin embargo, si se toma el RNA mensajero de un tejido, que es una copia del DNA de ese tejido que se traduce a proteínas, se puede utilizar como guía para producir una copia de él en DNA de una sola cadena y luego se puede volver de dos cadenas e insertarlo en bacterias o virus, obteniéndose una biblioteca del DNA codificador de ese tejido. A esta se le llama una biblioteca de DNA complementario (complementario al RNA, por supuesto) o cDNA.

La Bioinformática

En la medida en que se va completando el proceso de determinar la secuencia completa del DNA del genoma humano, se han venido implementando toda una serie de aproximaciones que permitan su análisis. Téngase en cuenta que el genoma humano consta de unos 3.000 millones de pares de bases (letras), que equivaldrían al contenido de 134 Enciclopedias Británicas completas. De todo este material, solo el 3% codifica para proteínas y al 97% restante lo llamamos DNA “basura”, mientras averiguamos cuál es su oficio. La tarea es entonces colosal. Se tienen 134 Enciclopedias Británicas completas, llenas de letras, pero sin distinguir las palabras, ni la puntuación, ni los párrafos, ni los capítulos. Y todas estas estructuras son esenciales para poder leer el texto. En ese estado se encuentra actualmente el Proyecto del Genoma Humano: reconstruyendo palabras y sintaxis, (los genes y sus funciones) a partir de la serie de las 3.000 millones de letras del DNA. De haber vivido a nuestros días, Alan Turing tendría 89 años y creo que el reto de descifrar el código del DNA hubiera superado su antiguo interés por los códigos “Enigma” del ejército alemán. Pero sentó las bases para el desarrollo del computador, haciendo posible lo que hoy se llama “genética in silicio”, por comparación con las anteriores fases “in vitro” e “in vivo”. Más que una ciencia biológica, que continúa siendo, la genética es hoy en día una ciencia de la información y de ahí su otro nuevo nombre: la bioinformática. Sin la informática, la propuesta de secuenciar los tres mil millones de letras de nuestro DNA hubiera sido una tarea quimérica. Un libro que mi padre vio, dice Borges, constaba de las letras M C V perversamente repetidas desde el renglón primero hasta el último.

Pero las bases de datos, por sofisticadas que sean, solo permitirían mantener una información debidamente guardada y tener acceso a ella en el momento requerido, si no fuera por los programas diseñados para buscar entre ellas los genes, o secuencias que pueden ser genes. No menos de treinta distintos algoritmos computarizados han sido diseñados para este efecto. Algunos utilizan la técnica de buscar secuencias que estén enmarcadas por una señal de inicio y una señal de pare; como todo gen tiene ambas, las secuencias en que estas se encuentren pueden ser genes. Otros algoritmos buscan secuencias similares a las de otros genes de la misma o de diferente especie. Por ejemplo, hay en las células una serie de proteínas que tienen una parte de la cadena mirando hacia el exterior de la célula y otra hacia el interior de ella. Estas proteínas hacen funciones de receptores de hormonas, por ejemplo, las cuales, una vez unidas a la parte exterior, hacen que la parte interior de la proteína instruya a la célula sobre lo que debe hacer. Esta proteínas, conocidas como receptores transmembrana, son de más de cien distintos tipos, pero todas muy similares entre sí y, por lo tanto, con genes muy parecidos. Ante una nueva secuencia de DNA, un algoritmo puede compararla con las de estos tipos de genes y decir si se trata del gen de otro de estos receptores. De esta manera se puede saber que la secuencia corresponde a un gen y, también, su posible función. Dos de estos algoritmos están bien implementados hoy en día: FASTA, que depende de la Universidad de Georgetown y BLAST, al que se puede llegar por el NIH. Aún otros algoritmos buscan identificar la parte de los genes que se transcribe al RNA, o sea los intrones. Recuérdese que los genes contienen pedazos que quedan representados en la proteína y otros que se pierden cuando el DNA se copia en el RNA; los primeros son los exones y los segundos, los intrones.

La Proteómica

Finalmente, el paso siguiente, que ya se está dando, es el estudio de las proteínas. Si el Proyecto del Genoma Humano busca describir los genes –no sólo al nivel del DNA sino también del RNA– la proteómica (por contraste con la genómica) busca elucidar el paso del RNA a las proteínas y estas en sí mismas. Las condiciones de laboratorio para el estudio de las proteínas, aunque más antiguas, son más dispendiosas y buscan aclarar lo que sucede con la proteína después de ser producida, su distribución en las células del organismo, su vida media y su interacción con otras proteínas. Ya hay disponibles en internet bases de datos con información sobre las proteínas, similares a aquellas de la secuencia del DNA y el proyecto del proteoma ha conseguido en los últimos meses, sus primeros inversionistas.

Las implicaciones del Proyecto del Genoma humano son múltiples y abarcan muy diversos aspectos de la vida humana. Las más prácticas tienen que ver con el desarrollo de nuevos métodos para el diagnóstico de enfermedades, de los cuales veremos surgir en número creciente en los próximos años. Igualmente en la práctica de la medicina forense, las técnicas de la biología molecular ya hacen posible la identificación muy precisa de sospechosos de actos delictivos o la asignación más adecuada en disputas de paternidad. La arqueología también ha recibido beneficios importantes de esta área, permitiendo remirar el pasado con estas herramientas. Pero es en el área del entendimiento del ser humano y su libertad donde encontraremos los mas difíciles escollos. No podremos olvidar entonces que la biología molecular, la genética, es solo una herramienta que debe ser complementada con todas las otras formas de mirar al ser humano para producir finalmente una pintura coherente. No es el Proyecto del Genoma Humano la nueva piedra filosofal que convierte todos nuestros problemas en asuntos de genes. Encontraremos en el muchas respuestas a problemas puntuales, específicos. Seguramente tendremos que repensar nuestras posiciones personales, hacer valer nuestros derechos y respetar nuestras libertades y las de otros. Pero es en la sociedad y el entorno adonde tendremos que continuar trabajando, ahora con más esmero, si queremos construir una sociedad justa en la que podamos convivir todos juntos en razonable armonía, sin importar nuestros genes. Este es, a mi parecer, el mayor reto del Proyecto del Genoma Humano y no depende de él sino de la sociedad humana que lo hace propio.


Referencias

Alan Turing http://cc.kzoo.edu/~k98tm01/alanturing.html#Backbombe

Alan Turing Internet Scrapbook, http://www.turing.org.uk/turing/scrapbook/wondrous.html

Brief History of Virology http://www.bio.indiana.edu/courses/M430Taylor/history.html

Charles Babbage (1791-1871) http://www.museums.reading.ac.uk/vmoc/babbage/#diff-engine

Claessens, M. Los Descubrimientos Científicos Contemporáneos. Editorial Gedisa S.A. Barcelona, 1996

Count of Mapped Genes by Choromosome http://gdbwww.gdb.org/gdbreports/CountGeneByChromosome.html

Extremophiles http://www.sciam.com/0497issue/0497marrs.html

Felix d’Herrell http://www.asmusa.org/mbrsrc/archive/pdfs/480882p345.pdf

Field Guide to the New Biology Lab http://www.sciam.com/1998/1098issue/1098wonders.html

Flatow I. They All Laughed... Harper Collins, New York, 1992 George Gordon, Lord Byron (1788-1824) http://www.library.utoronto.ca/utel/rp/poems/byron10.html

Goodfield, J Playing God Sphere Books, London, 1978

Harsanyi, Z; Hutton, R. Genetic Prophecy Granada Publishing Company, London, 1983

History of the DOE Human Genome Program http://www.er.doe.gov/production/ober/history.html

Is life just genes? http://news.bbc.co.uk/hi/english/sci/tech/newsid_556000/556958.stm

James Watson (1928– ), Francis Crick (1916– ), and Maurice Wilkins (1916–) http://www.chemheritage.org/EducationalServices/chemach/ppb/cwwf.html

Kevles, DJ In the Name of Eugenics Penguin Books, London, 1985

Lewontin, RC The Doctrine of DNA Penguin Books, London, 1992 Major Walter Reed http://www.wramc.amedd.army.mil/welcome/history/

Mapping and Sequencing the Human Genome http://www.bis.med.jhmi.edu/Dan/DOE/prim2.html

Southerns, Northerns, Westerns, & Cloning: “Molecular Searching” Techniques
http://esg-www.mit.edu:8001/esgbio/rdna/rdna.html

Stern, C; Sherwood, ER The Origin of Genetics. A Mendel Source Book

W.H. Freeman and Co. San Francisco, 1966 Taton, R Causalidad y Accidentalidad en los Descubrimientos Científicos Editorial Labor, Barcelona, 1967

The Bioinformatics Gold Rush http://www.sciam.com/2000/0700issue/0700howard.html

The Cavendish Laboratory http://www.phy.cam.ac.uk/cavendish/ history/years/


Contáctenos

Instituto de Estudios Sociales Contemporáneos – IESCO

Carrera 15 No. 75-14, pisos 6° y 7°

Bogotá, Colombia

Tels. (+57-1) 3239868 ext. 1613 – 1615

Correos electrónicos: nomadas@ucentral.edu.co