31 mayo, 2010

Animales transparentes

En el mundo animal, ser transparente no quiere decir que “no tengan nada que ocultar”. Estos animales carecen de pigmentación, esto les ayuda a ser practicamente invisibles a los ojos de sus depredadores. Veremos fotos de algunos animales transparentes…

Este es un ejemplar de un pepino de mar, fue encontrado a 2750m de profundidad al norte del golfo de México, más allá del umbral donde la luz es incapaz de penetrar. Gracias a la profundidad a la que vive y a que no necesita de luz para vivir, puede ser un sobreviviente del desastre ecológico causado por la plataforma de British Petroleum.

La mariposa alas de cristal pertenece al grupo de las Greta Oto, se distribuye por toda en América Central y carece de las escamas pigmentadas en la mayor parte de las alas (es como si le quitáramos el polvito de las alas a una mariposa o polilla). Son relativamente medianas, con una envergadura de ~6cm. Se cree que esta característica las hace virtualmente invisibles cuando vuelan.

No se pierdan la galería completa aquí: http://bit.ly/bQ9sfb

30 mayo, 2010

Los siRNA contra el Ébola

El Ébola, una de las enfermedades la enfermedad infecciosa más violenta y letal de todas y reina de las fiebres hemorrágicas (como el dengue), es una grave amenaza a la salud pública, porque no tiene cura y la tasa de mortalidad es superior al 80%, y también la paz mundial, ya que está clasificada como de grado A en las armas bioterroristas. Esta terrible enfermedad fue descrita por primera vez en 1976 en una misión al río Ébola en Zaire (actualmente, República del Congo). Los pacientes infectados con este virus tienen una muerte sumamente dolorosa ya que los órganos literalmente se te derriten. La transmisión de este virus es sólo por contacto directo con la sangre de un infectado, y a pesar de ser sumamente infecciosa, en su estado de incubación, no lo es. No se han reportado casos de contagio por vía aérea como en los virus de la gripe y también es altamente letal en otros primates.

El viernes, Geisbert et al. publicó en la revista The Lancet una prometedora cura para esta terrible enfermedad y nuevas estrategias para el tratamiento de otras enfermedades virales. ¿Qué fue lo que hicieron?. Simplemente usaron pequeños ARN de interferencia (siRNA) los cuales son pequeñas secuencias de ARN de unos 21 a 23 nucleótidos de largo que se unen a secuencias complementarias en el ARN mensajero, bloqueando su expresión a proteína mediante la formación de un complejo proteíco (RISC) donde la proteína DICER es la responsable del corte y posterior degradación del ARNm.

Geisbert diseñó una combinación de siRNA para atacar el ARNm de las siguientes proteínas virales: la proteína L de la ARN polimerasa del virus del Ébola y las proteína virales 24 y 35; luego la puso dentro de una cápsula formada por partículas lipídicas (SNALPs) para que pudieran ser administradas a los infectados y puedan ser asimiladas por las células para liberar su contenido dentro de ellas y empiecen a realizar su función de silenciar la expresión de la ARN polimerasa del virus y otras proteínas importantes en la diseminación del virus y el desarrollo de la fiebre hemorrágica.

Se hicieron los experimentos en 7 macacos. Al primer grupo de 3 individuos se les dio una dosis de 2mg/kg vía intravenosa después de 30 minutos y a los 1, 3 y 5 días de haber sido infectados con el virus del Ébola y al segundo grupo de 4 individuos se les dio la misma dosis pero a los 30 minutos y a los 1, 2, 3 ,4, 5, 6 días de haber sido infectados. Los resultados fueron muy alentadores, 6 macacos soportaron el tratamiento y quedaron protegidos contra el virus del Ébola, solo un macaco —perteneciente al primer grupo— no sobrevivió. A pesar de la mayor dosis en el segundo grupo, no hubo efectos secundarios perjudiciales en los macacos, las enzimas hepáticas que se cree son perjudicadas durante la infección toleraron bien el tratamiento.

Estos resultados son muy alentadores y muestran las potencialidades del uso de los siRNA para el tratamiento de una gran variedad de virus que son de preocupación para la salud pública (gripes, dengue, hepatitis, VIH, Herpes, etc.); además, nos dan una nueva forma de administrar los agentes terapéuticos vía bolsas lipídicas que pueden difundir fácilmente por la membrana celular. Ahora vendrán los primeros ensayos clínicos en pacientes humanos infectados con el Ébola.

Referencia:

ResearchBlogging.orgGeisbert, T, & et al. (2010). Postexposure protection of non-human primates against a lethal Ebola virus challenge with RNA interference: a proof-of-concept study The Lancet, 375 (9729), 1896-1905 : 10.1016/S0140-6736(10)60357-1

29 mayo, 2010

Hacia el autoensamblaje de estructuras biológicas

Ya vimos como, hace un par de semanas, Venter publicó su trabajo sobre su primer organismo que funciona con un genoma hecho de manera artificial. Sin embargo, todavía falta algo muy importante, algo con que la biología sintética podría consolidarse. Diseñar y ensamblar genomas se ve ‘relativamente sencillo’  a comparación de diseñar y ensamblar una estructura biológica más compleja como una membrana o un organelo. Si se lograría hacer esto estaríamos muy cerca de crear vida. Pero, no se asusten, aún faltan muchos años de desarrollo científico y tecnológico para poder realizar un proyecto como este, aunque ya hay científicos que están empezando a trabajar en esto.

Si queremos ensamblar una estructura biológica compleja de manera sintética, debemos empezar por la más sencilla (tal como Venter buscó el genoma más sencillo). ¿Cual creen que puede ser? Sin dudas sería la de los virus… una cápside viral. Muchos dirán que los virus no son células y que no se sabe si son considerados seres vivos o no, pero no vamos a entrar en la discusión de esto. Obviamente los virus no son células, pero su cápside (lugar donde esta almacenado su material genético, en los fagos se presenta como una cabeza) está formada por proteínas ensambladas de manera armónica, formando estructuras geométricas perfectas.

Sun et al. del departamento de química aplicada de la Universidad de Tokio, se inspiró en las cápsides espéricas de los virus para sintetizar sus propias esferas químicas con esa misma disposición. Pero, hacer todo esto no es nada sencillo. Las cápsides de los virus son estructuras geométricas sumamente complejas, formadas por subunidades poliédricas matemáticamente bien definidas. Sun vio que los poliedros esféricos se basan en la siguiente fórmula general: MnL2n, donde M son los puntos de coordinación de cada plano de la esfera poliédrica y L los ligandos que unen los puntos M (Fig. A). Por ejemplo: en el grafeno, M serían los átomos de Carbono y L los enlaces covalentes. En una cáside, M podría representar a las proteínas y L a los puentes peptídicos que las unen.

image

Como podemos ver en la figura, estas estructuras se asemejan mucho al andamiaje (scaffold) de una cápside. Si podemos formar esta estructura, nos podría servir como un soporte o esqueleto para formar estructuras biológicas más complejas. Así que Sun et al. usaron átomos de paladio (el mismo que usa IronMan para su mini-reactor nuclear) como puntos de coordinación (M) de los ligandos (L) que son moléculas de dipiridiltiofeno. La disposición debía ser entrópicamente favorable para que la estructura pueda mantenerse. Recuerden que la tercera ley de la Termodinámica dice que todo tiende al caos o desorden, es estadísticamente improbable que una mezcla de compuestos se agreguen y formen otro más complejo (entropía). Para que sea entrópicamente favorable el valor de “n" está limitado a los siguientes valores: 6, 12, 24, 30 y 60.

La síntesis del dipiridiltiofeno fue relativamente sencillo usando el procedimiento de Suzuki-Miyaura. Para formal la estructura de M24L48 usaron 5uM de Pd(NO3)2 y 10uM de diíridiltiofeno y lo mezclaron en 0.7ml de DMSO-d6 (un solvente marcado con Deuterio para el posterior análisis mediante espectroscopía de resonancia magnética o NMR) a 70°C por 17 horas (Fig B). Después del tiempo de reacción y el análisis de NMR observaron los picos característicos del piridil, el tiofeno y la esfera.

image

Mediante un espectrometría de masas particular (CSI-TOF-MS) se determinó la composición química en base a su peso molecular (~21946Da) la cual fue {[Pd24(C14H9BrN2S)48]48+*48(BF4-)}, la cual correspondía a M24L48. Luego, para determinar su estructura exacta, se lo cristalizó y se le sometió a un equipo de difracción de rayos X y pudieron observar la estructura rombicuboctaédrica, con 8 caras triangulares y 18 rectangulares. El diámetro de la esfera fue de 5nm.

image

Este, sin dudas es el primer paso hacia el autoensamblaje de sistemas biológicos complejos para el diseño de estructuras más resistentes y con nuevas funciones en base a las proteínas sintetizadas por un genoma. A partir de esto podríamos diseñar transportadores de nuevos compuestos farmacéuticos el cual podría focalizar la liberación de sustancias químicas o radiactivas en el tratamiento del cáncer, sin afectar las células sanas. Podríamos cubrir la superficie con anticuerpos específicos para estas células cancerígenas y diseñar tratamientos más eficientes.

Referencia:

ResearchBlogging.orgSun, Q., Iwasa, J., Ogawa, D., Ishido, Y., Sato, S., Ozeki, T., Sei, Y., Yamaguchi, K., & Fujita, M. (2010). Self-Assembled M24L48 Polyhedra and Their Sharp Structural Switch upon Subtle Ligand Variation Science, 328 (5982), 1144-1147 DOI: 10.1126/science.1188605

28 mayo, 2010

Un receptor apoptótico que promueve el cáncer

¿Qué es el cáncer? En términos sencillos, es una división incontrolada de células por fallas a nivel genético y/o metabólico produciendo tumores y diseminación a otros tejidos del cuerpo (metástasis). Y la apoptosis es todo lo contrario, es la muerte celular programada (cuando están viejas o ya cumplieron su vida útil o función). Así que sería lógico pensar que una forma de controlar el desarrollo del cáncer es inducir la apoptosis en las células cancerígenas. Entonces, ¿por qué no diseñar fármacos o compuestos que promuevan la apoptosis y solucionamos de una vez por todas el problema del cáncer? No es tan fácil como parece…

Por más de 20 años se ha considerado a la CD95 —un receptor de membrana— como una asesina. Cuando CD95 interacciona con su ligando, CD95L, o con un anticuerpo activador, induce rápidamente la apoptosis en muchos tipos de células diferentes, y cuando su ligando o activadores son insertados en los mamíferos provocan la destrucción y muerte del hígado. Sin embargo, deleciones y mutaciones en el gen que codifica para CD95, causan graves enfermedades inmunes debido a la pérdida de la apoptosis. Las células viejas o malformadas que deberían morir no lo hacen y se convierten en antígenos que activan nuestro propio sistema inmune como si fuera algún patógeno. Además, si bloqueamos por otros mecanismos la apoptosis, la CD95 induce la necrosis celular mediante otras vías de señalización.

Y, ¿que pensarían si les digo que la CD95 promueve el cáncer? De hecho pensarían que estoy loco porque es ridículo pensar que un receptor de membrana que promueve la muerte celular favorezca un comportamiento que se caracteriza por el exceso de división celular. Sin embargo, Chen et al. presenta evidencias de que esto, paradójicamente, podría ser posible. Los investigadores usaron varias líneas celulares de diferentes tejidos, todas ellas con tumores, tanto de humanos como de ratones, para determinar si la mutación o eliminación de la CD95 comprometía el crecimiento de los tumores sin causar la muerte celular.

Al analizar sus resultados vieron que el ligando CD95L es necesario para la promoción del crecimiento en los tumores, siendo el complejo CD95-CD95L de suma importancia para la generación y mantenimiento del cáncer. Es así que se dan indicios que CD95 no podría tener función apoptótica alguna. Pero, ¿como hace CD95 para promover el crecimiento de los tumores? La CD95L puede estar en dos formas: unido a CD95 en la membrana celular o libre en su forma soluble. La primera forma es importante para inducir la apoptosis, mientras que la segunda podría generar anormalidades en el sistema inmune. Se observó que los ratones podían desarrollar sarcomas hepáticos y ciertas formas de cáncer raramente vistos en animales son CD95 o CD95L. En personas con cáncer, se han encontrado altas concentraciones de CD95L en su sangre. Todos estos resultados dan pistas y sugieren que CD95 estaría envuelto de el desarrollo de los tumores, por ende, el cáncer.

La inflamación es un factor importante que promueve el cáncer. Una idea es que CD95 induce la inflamación. Por ejemplo, expresión de CD95 en regiones anormales o poco comunes —como en las células del páncreas o en tejidos recién trasplantados—, pueden inducir una dramática infiltración de glóbulos blancos en el tejido comprometido(inflamación); sin embargo Chen et al. reportaron que CD95L promueve el crecimiento del tumor mediante mecanismos dentro del tumor y no encontró diferencia en los patrones de inflamación de los tumores que expresan CD95 y los que no lo expresan. Tampoco encontraron pruebas que indiquen que CD95L promueva la inflamación.

Lo que si están seguros es que CD95 activa ciertas vías metabólicas dentro de las células tumorales. Pero, ¿cuáles son estas vías?. Chen et al. proponen la activación de NF-κB (probablemente a través de la enzima RIPK1) es la responsable de promover el crecimiento de los tumores. Sin embargo, esto parece ser poco probable, porque vieron que la CDS95, a pesar de tener una relación directa con la inducción del carcinoma hepatocelular, no poseen la ruta NF-κB.

Así que Chen et al. han propuesto otro mecanismo que involucra a la enzima JNK incrementando la transcripción de los factores de transcripción EGR-1 y Fos. Cuando se inhibió la expresión de JNK observaron que había un retardo en la expresión de CD95. Sin embargo, esta ruta aún no está bien descrita y entendida. No se sabe como CD95 puede activar la JNK o si lo hace el ligando CD95L, o si en ausencia de CD95, la enzima JNK puede activarse mediante otros mecanismos. Se cree también que la vía de la caspasa-8 pueda estar involucrada.

A pesar de todas estas dudas, podemos ver que nuestro sistema y metabolismo es sumamente complejo, una misma biomolécula que puede estar envuelta en la muerte celular, también podría estar involucrada en el desarrollo de los tumores. Podemos diseñar compuestos que bloqueen la interacción CD95-CD95L en las membranas celulares de células cancerígenas, pero al bloquearse esta vía, podría surgir otra completamente desconocida que contrarreste este efecto.

Referencia:

ResearchBlogging.orgChen, L., Park, S., Tumanov, A., Hau, A., Sawada, K., Feig, C., Turner, J., Fu, Y., Romero, I., Lengyel, E., & Peter, M. (2010). CD95 promotes tumour growth Nature, 465 (7297), 492-496 DOI: 10.1038/nature09075

25 mayo, 2010

Reacciones sobre el trabajo de Venter

Toda esta semana he leído muchas reacciones tanto de personas comunes y corrientes como de renombrados científicos especializados en el tema sobre el trabajo de Venter. Es normal las personas tengan miedo a este enorme avance en el campo de la biología sintética ya que parece una historia sacada de un libro de ciencia ficción, similar a Frankenstein… crear vida de la nada, ¿a que científico loco se le ocurriría hacer eso?… ¿jugar a ser dios?… ¿y si cae en mano de los terroristas?

En primer lugar, debemos recordar que no se ha creado vida de la nada; nuestra tecnología no nos permite hacer eso, así que los creen en algún dios, siéntanse aliviados que nadie “le ha quitado el trabajo a dios”... por ahora. Para crear vida necesitamos mucho más que crear una molécula de ADN. En segundo lugar, tampoco se ha creado un nuevo genoma, simplemente se ha copiado el genoma de un microorganismo ya existente; algo así como lo que fue la clonación de la oveja Dolly, en este caso, en vez de sacar el genoma de una célula somática e insertarla en una célula embrionaria vacía (sin su genoma) para obtener un clon del original, la secuencia se saco de una base de datos y se insertó en una bacteria —de otra especie— vacía, para obtener un clon del organismo cuyo genoma fue secuenciado.

Entonces, ¿que fue lo que se hizo?. A partir de la secuencia obtenida de la base de datos, se sintetizó químicamente con un aparato automatizado, luego se ensambló cada pedacito del genoma para luego ser insertado en una célula y ver si este genoma —hecho de manera artificial— podría controlar el funcionamiento de la célula, es más, como el genoma es de una especie diferente a la especie donde fue insertado, ver si este genoma convertiría a la célula en otra. Esto no significa que podemos sintetizar el genoma del Neandertal e insertarlo en las células de un humano moderno y traer a la vida a este ser extinto. El genoma de un Neandertal tiene 3000Mb, unas 3000 veces más grande que el genoma del organismo que fue sintetizado, se imaginan lo costoso y laborioso que resultaría ensamblar todo este genoma… así que por ahora descartemos que se use esta tecnología para traer a la vida a Einstein o Hitler.

Pero, si cae en manos de terroristas, ¿que pasaría? Seguro que todo el mundo piensa que desarrollarían nuevas súper bacterias patógenas archi-resistentes a todos los antibióticos conocidos para aniquilar a toda la población de una tropa o ciudad enemiga. En primer lugar, toda tecnología tiene sus riesgos si cae en manos de personas malas, desde la pólvora, pasando por le energía nuclear y llegando a la biología sintética, es el riesgo que corre todo descubrimiento científico y aporte tecnológico; pero del copia y pega de un genoma, al diseño de uno completamente nuevo y mortal hay muchos años de desarrollo en esta rama de la biología recién naciente.

Creo que el principal tema de debate es las patentes que se generarán, lo cual puede llegar a monopolizar la biología sintética y ser el Instituto de Venter el único beneficiado, lo cual restringiría el desarrollo de esta ciencia en otros países con menores recursos. En el 2000 ya había ocurrido algo similar con el secuenciamiento del genoma humano. Dos fueron los competidores, uno liderado por Sulston que representaba al dominio público de este descubrimiento y el otro liderado por Venter que representaba a la empresa privada y los todos los derechos sobre el genoma humano. La carrera quedó en empate, Sulston lo publicó en Nature y al otro día Venter en Science. Tras muchas disputas, el dictamen final fue que por ser el genoma humano, debería ser de dominio de toda la humanidad. Por esta razón Sulston critica que se patente esta tecnología.

Venter está patentado todos procesos y metodologías usadas en el desarrollo de este organismo usando un genoma sintetizado artificialmente. OJO, no está patentando al organismo ya que no es un descubrimiento, el genoma existe y el organismo también, y para ser patentable debe ser un descubrimiento o una novedad absoluta. Los procedimientos usados en este trabajo si lo son, así que si alguien quiera reproducir el trabajo de Venter con otro organismo no lo podrá hacer, así que el Instituto de Venter será el único capaz de seguir investigando y desarrollando esta tecnología. Sin embargo, también tiene una ventaja. No sólo es el Instituto de Venter el que está realizando este tipo de trabajos, otras instituciones y empresas biotecnológicas también lo deben estar haciendo, así que se generaran tecnologías alternativas, tal vez más económicas y fáciles de aplicar. Las patentes promueven eso, la innovación tecnológica, pero reprimen el desarrollo científico de países con pocos recursos económicos.

Pero, es algo común en la ciencia… patentar los descubrimientos y avances científicos, porque son grandes inversiones las que se hacen en el desarrollo de nuevas tecnologías, inversiones que se esperan ser recuperadas y generar dividendos. Por ejemplo, la PCR fue una tecnología patentada, pero las patentes no duran más de 20 años, a partir de ahí, se vuelve de dominio público, a menos que se la mejore y se le agregue alguna novedad.

Aquí les dejo algunas de las reacciones de especialistas en el tema: http://bit.ly/bJUSyH

La verdadera historia de Darwin

Se imaginan la vida del genial Charles Darwin llevado a la pantalla grande… sus disputas con la iglesia, la llegada a Galápagos y sus aventuras amorosas, ahora es posible verla…

Jajaja... así es como me imaginaba la vida de Charles… “My name is DarWIN, not DarLOSE”.

24 mayo, 2010

S. aureus vs S. epidermidis

Día a día luchamos contra pequeños organismos capaces de causarnos serias enfermedades e infecciones, pero también vivimos en armonía con millones de bacterias que en vez de hacernos daño nos favorecen, tal como las bacterias que viven en nuestro sistema digestivo. Sin embargo, también tenemos bacterias que habitan normalmente nuestra piel, sin causarnos daño alguno, pero que si llegan a entrar a nuestro organismo pueden causarnos terribles males como la neumonía, meningitis, endocarditis y septicemia. Estamos hablando del Staphylococus aureus.

El S. aureus es un habitante común de las fosas nasales, más de la tercera parte del mundo la tiene colonizando sus narices, pero hay una con la que debemos tener cierto cuidado, la S. aureus resistente a la meticilina (SARM). Sin embargo, la mayoría de las personas podemos combatir a esta bacteria, pero puede llegar a ser mortal si infecta a pacientes con el sistema inmunológico comprometido como son los infectados con el VIH o los que están recibiendo tratamiento para alguna enfermedad autoinmune. Los esfuerzos por diseñar nuevos compuestos capaces de inhibir el crecimiento de SARM son grandes, pero hasta ahora no se han obtenido buenos resultados.

Por suerte, S. aureus no es el único comensal que vive en nuestras narices, también lo hace su primo hermano, el S. epidermidis, que es más común que el S. aureus y es el principal contaminante de todos nuestros equipos de laboratorio. Al igual que su primo hermano, S. epidermidis es inofensivo menos en las personas con el sistema inmune comprometido. Pero lo que Iwase et al. encontraron fue muy interesante… S. epidermidis inhibía el desarrollo de S. aureus.

Iwase y sus colaboradores revisaron las narices de 88 voluntarios. Virtualmente, todo ellos estaban colonizados por S. epidermidis, pero S. aureus pudieron “establecer sus carpas” en la tercera parte de los voluntarios. Normalmente, S. aureus y S. epidermidis son capaces de coexistir en armonía, pero los investigadores encontraron algunas cepas de S. epidermidis eran los némesis de S. aureus.

Las colonias de S. aureus forman estructuras morfológicas con características funcionales complejas llamadas biopelículas (biofilms), las cuales son una extensión de la matriz extracelular de las bacterias rica en polisacáridos, que les da protección haciéndolas difícil de matar. Muchas de las bacterias patógenas que hoy conocemos forman biopelículas, convirtiéndolas en un importante reto para la salud pública. S. epidermidis no solo previene la formación de biopelículas por parte de S. aureus, también puede destruir las existentes. Las personas que tienen S. epidermidis en sus narices, tienen un 70% menos de probabilidad de ser colonizados por S. aureus.

Iwase aisló estas cepas de S. epidermidis y las cultivó junto a S. aureus para extraer y purificar el compuesto que le daba esta propiedad asesina. Las secreciones eran ricas en una proteína a la cual llamaron Esp (serina proteasa de S. epidermidis). Como era de esperarse, esta proteína estaba ausente en aquellas cepas que no inhibían el crecimiento de S. aureus y si se removía el gen que la codificaba, la S. epidermidis perdía su capacidad inhibidora.

imageBarras Negra: efecto de S. epidermidis competente. Barras blancas: efecto de S. epidermidis no-inhibitoria

Pero la Esp no actúa por sí sola, lo hace en conjunto con una proteína defensiva humada llamada hBD2 (β-defensina Humana 2) que es secretada por nuestras células de la piel. De por sí sola, la hBD2 puede matar al S. aureus, pero no lo suficiente como para evitar que formen las biopelículas. Sin embargo, Esp no tenía la capacidad de hacerlo por sí misma. Pero una vez juntas, su efecto era sumamente efectivo, aún así S. aureus ya esté protegida por sus biopelículas. No se sabe si estas dos proteínas coevolucionaron quedando la puerta abierta para futuras investigaciones.

image

Como experimento final, insertaron S. epidermidis competentes en pacientes con las fosas nasales colonizadas por el S. aureus y observaron que la bacteria trasplantada eliminó a todos sus primos hermanos. También se introdujo una pequeña dosis de la proteína Esp purificada y se obtuvieron los mismos resultados. Este descubrimiento da el primer paso al desarrollo de compuestos capaces de combatir a la temible SARM que permitirían mejorar la calidad de vida de los pacientes que sufren de VIH o de enfermedades autoinmunes. Otra pregunta queda abierta… ¿Por qué S. aureus no ha desarrollado algún tipo de resistencia a la Esp?

Referencia:

ResearchBlogging.orgIwase, T., Uehara, Y., Shinji, H., Tajima, A., Seo, H., Takada, K., Agata, T., & Mizunoe, Y. (2010). Staphylococcus epidermidis Esp inhibits Staphylococcus aureus biofilm formation and nasal colonization Nature, 465 (7296), 346-349 DOI: 10.1038/nature09074

23 mayo, 2010

Se crea la primera bacteria ‘casi’ sintética

Esta sin dudas ha sido la noticia de la semana, aunque me da pena decirlo, en muchos de los medios de comunicación la información está completamente alejada de la realidad. En primer lugar, no se ha creado una forma de vida, ni se ha creado la primera bacteria artificial. Lo que Venter et al. hicieron fue crear el primer organismo  vivo—en este caso una bacteria— controlado completamente por un genoma artificial. A grandes rasgos, lo que hicieron fue sintetizar químicamente un genoma (ADN) de 1.08 millones de pares de base (pb) e insertarlo dentro de una bacteria (Mycoplasma) para que este genoma artificial pase a controlar todo el funcionamiento del microorganismo, como lo haría un genoma natural. Este trabajo fue publicado en la  versión on-line de Science (Sciencexpress) y lo pueden descargar libremente.

Se ha avanzado mucho en la genómica desde que Sanger secuenció el primer genoma —del fago φX174— en 1977. Los fagos son virus que atacan a las bacterias y tienen genomas muy chiquitos. En 1995, Fleischmann et al. secuenciaron el genoma de Haemophilus influenzae, una bacteria con un genoma más grande y complejo que del fago φX174. Todas las secuencias generadas se empezaron a digitalizar; pero, ¿sería posible usar estas secuencias para sintetizar químicamente un ADN? De ser posible, ¿funcionaría como uno natural si es insertado en un ser vivo?. Estas preguntas ya tienen una respuesta.

Entonces, en forma general el trabajo consiste primero en hacer la síntesis química de un genoma chiquito, el más pequeño posible. Mycoplasma genitalium es la bacteria con uno de los genomas más pequeños conocidos hasta ahora, el cual tiene ~580000pb (580Kb) que codifica para unas 485 proteínas, siendo 100 de ellas prescindibles si son eliminadas de una a la vez. Luego, dividirlos en pequeños bloques (cassettes) para poder insertarlos en vectores que permitan meter estas secuencias en el microorganismo. Después, debemos ensamblar todos los cassettes hasta completar el genoma artificial, usando un organismo diferente que tenga la capacidad de hacer este trabajo. Finalmente, purificar el genoma artificial intacto y trasplantarlo a la célula receptora. Venter et al. tuvieron que diseñar mecanismos y protocolos para poder realizar este trabajo.

El primer tropezón que encontraron fue que M. genitalium tenía una tasa de crecimiento extremadamente baja. Así que tuvieron que optar por otros Mycoplasmas con tasas de crecimiento más rápidas. Los investigadores usaron a un M. mycoides como donador y a M. capricolum como receptor. Sin embargo, al hacer los primeros intentos de trasplante del genoma de M. mycoides —en forma de cromosoma bacteriano— fallaron debido a que el genoma del donador y del receptor se encuentran metilados, protegiéndolos de la acción de las enzimas de restricción que actúan como mecanismo de defensa, cortando y degradando el ADN extraño (sin metilar). Debido a que los cromosomas bacterianos los hacen crecer como plásmidos en las levaduras (porque son más fáciles de cultivar), el ADN no está metilado y cuando es trasplantado al receptor, cae víctima de las enzimas de restricción. Los investigadores usaron dos estrategias: metilar el ADN usando metilasas purificadas o romper el sistema de enzimas de restricción del receptor.

Una forma más fácil de explicar esto de la metilación… En una discoteca (Mycoplasma), las personas que están en la sección VIP tienen una pulsera que los identifica (genoma del Mycoplasma metilado); si alguien que no es de VIP entra (genoma de Mycoplasma no metilado desarrollado en la levadura), automáticamente el personal de seguridad (enzimas de restricción) lo identificarán porque no tiene la pulsera y lo sacarán a patadas. Así que para evitar esto, el que quiera entrar a VIP deberá pagar más y recibir su pulsera (meilación) o dopar  a los elementos de seguridad para que ya no cuiden y puedan entrar a VIP sin miedo de que los boten a patadas.

Una vez que solucionaron estos inconvenientes diseñaron el genoma artificial a partir de las secuencias de dos cepas de M. mycoides. A este genoma artificial le llamaron JCVI-syn1.0 el cual se diferenciaba en sólo 19 nucleótidos del genoma de referencia y tenían 4 secuencias “marca de agua” que serán usados más adelante para la identificación del genoma artificial. Este genoma artificial tenía un tamaño de 1.08Mb (1080000pb). Como el genoma es demasiado grande como para ser sintetizado químicamente de un paso, se dividió en pequeñas porciones (cassettes) de 1.08Kb (1080pb) cada una. Cada cassette tenía 80pb repetidos en cada extremo, para identificar el orden en que serán pegados uno con otro. Además cada cassette tenía un sitio de corte para una enzima de restricción para poder ser clonado en un vector (plásmido usado para insertar genes) e introducido a una levadura. El ensamblaje de los ~1000 cassettes se hizo en 3 etapas:

  1. imageLa primera etapa fue el primer ensamblaje de intermediarios sintéticos de 10Kb (~10 cassettes). Los cassettes fueron puestos en vectores y recombinados en las levaduras para formar fragmentos de 10Kb (10000pb). Luego, los vectores cargando los fragmentos de 10Kb fueron transferidos a E. coli para ser purificados y analizados. Al menos uno de cada 10 levaduras clonadas tenían los fragmentos de 10Kb ensamblados.
  2. imageLa segunda etapa fue el ensamblaje de intermediarios sintéticos de 100Kb. Se repitió el paso anterior; sin embargo, cuando los fragmentos de 100Kb (100000pb) fueron transferidos a E. coli no pudieron permanecer estables, así que se tuvieron que aislar y purificar directamente desde la levadura. Para determinar si los vectores contenían los fragmentos de 100Kb, se hizo una PCR multiple. Cada fragmento de 10Kb tenía una secuencia única de amplificación y al hacer la PCR se debían obtener 10 bandas. El 25% de las levaduras clonadas tenían el fragmento de ~100Kb. En total fueron 11 intermediarios de ~100Kb.
  3. imageLa tercera etapa era del ensamblaje final. Para esta etapa final, se purificaron los 11 intermediarios de ~100Kb, se capturaron en “plugs” de agarosa, sometieron a una enzima de restricción para liberarlos de sus vectores, se aislaron los fragmentos libres mediante una electroforesis y se insertaron en una levadura (transformación genética). Una vez dentro, los 11 fragmentos se autoensamblaron sin la necesidad de algún vector —como en los dos casos anteriores— y formaron un cromosoma único de 1.08Mb (cromosoma bacteriano de M. mycoides sintético). Para seleccionar las levaduras que habían ensamblado bien los 11 fragmentos de 100Kb se hizo nuevamente una PCR multiple. Cada fragmento de 100Kb tenía una secuencia única de amplificación y al hacer la PCR se debían obtener 11 bandas. Además, para demostrar el correcto ensamblaje se identifico las secuencias “marca de agua” en el JCVI-syn1.0. 

imageUna vez ensamblado todo el genoma sintético se procedió a trasplantarlo dentro del receptor M. capricolum. Para seleccionar a las colonias que habían aceptado al genoma sintético se usaron medios de cultivo selectivos con antibióticos (tetraciclina) y colorantes (X-gal). Si en la placa petri aparecían colonias y eran de color azul, significaba ÉXITO, las colonias tenían el genoma sintético insertado y funcionando. Y así fue!!!… se logró obtener colonias de M. capricolum que contenían un genoma completamente artificial (sintetizado químicamente) y funcional, además, tenían la capacidad de replicarse. De ahí el término de ‘casi’ sintéticos.

imagePero este M. mycoides derivado de un genoma sintético, será fisiológica y morfológicamente similar al original o presentará diferencias significativas. Para esto se hizo un estudio proteómico y se observó que el patrón de puntos obtenidos en la electroforesis 2D (bidimensional) de la cepa silvestre, fue similar al de la cepa sintética. Y al tomar imágenes con un microscopio electrónico, la morfología de las dos cepas fueron idénticas. La única diferencia fue que la cepa sintética tenía una tasa de crecimiento ligeramente superior a la cepa silvestre, de ahí, ningún cambio significativo entre una y la otra.

Para concluir, este ha sido uno de los más grandes avances de la ciencia en los últimos 10 años, comparado con lo que fue en su tiempo la síntesis de la urea (una sustancia orgánica) a partir de compuestos inorgánicos hecho por Wöhler en 1828. Este trabajo será considerado como un hito en la historia de la ciencia de los próximos años, y será el punto de partida para todo el desarrollo de la biología sintética. Imagínense diseñar desde cero un microorganismo capaz de degradar el petróleo y sus compuestos derivados, usando secuencias tomadas del GenBank, para sintetizar químicamente este genoma, insertarlo en un receptor y tener un ser vivo capaz de solucionar problemas tan graves como lo ocurrido en el Golfo de México.

Referencia:

ResearchBlogging.orgGibson, D., Glass, J., Lartigue, C., Noskov, V., Chuang, R., Algire, M., Benders, G., Montague, M., Ma, L., Moodie, M., Merryman, C., Vashee, S., Krishnakumar, R., Assad-Garcia, N., Andrews-Pfannkoch, C., Denisova, E., Young, L., Qi, Z., Segall-Shapiro, T., Calvey, C., Parmar, P., Hutchison, C., Smith, H., & Venter, J. (2010). Creation of a Bacterial Cell Controlled by a Chemically Synthesized Genome Science DOI: 10.1126/science.1190719

21 mayo, 2010

En busca de nuevos compuestos antimaláricos

La malaria es una enfermedad que afecta a cientos de millones de personas en el mundo. Durante la mayor parte del siglo XX, se ha combatido esta enfermedad con drogas de rápido efecto y bajos precios como la cloroquina y la sulfadoxina-pirimetamina; sin embargo, desde los años 60’s, estas drogas han sucumbido a la aparición de Plasmodium resistentes a estas drogas, las cuales se han diseminado por todo el mundo. En los años 90’s, el 50% de las muertes infantiles en África se debían al P. falciparum. Actualmente, los tratamientos se basan en terapias combinadas con derivados de la artemisina; y junto al uso de insecticidas para controlar la población de mosquitos, se ha ido reduciendo la incidencia de esta enfermedad, pero aún así, es muy alta.

Es así que Gamo et al. probaron la capacidad antimalárica —inhibidores del ciclo intra-eritrocítico— de aproximadamente 2 millones de compuestos diferentes obtenidos de la librería química de GlaxoSmithKline. (Este experimento se parece mucho al realizado por Min Gao et al. para buscar inhibidores de la replicación del HCV). Gamo describió 13533 compuestos diferentes que inhibían más del 80% del crecimiento del parásito usando una concentración de sólo 2uM. El 15% presentaron signos de toxicidad en cultivos de células hepáticas y el 82% eran de propiedad de la empresa farmacéutica, así que eran desconocidos para la comunidad científica. Sin embargo, a fin de encontrar nuevos compuestos antimaláricos, se han puesto estás moléculas a libre disposición de cualquier investigador en el mundo. Al probarlos en la cepa Dd2, la cual es resistente a muchas drogas derivadas de las quinolinas y antifolatos, ~8000 presentaron un efecto inhibitorio superior al 50% y sólo ~2000 no mostraron actividad alguna en células hepáticas.

Todos los compuestos seleccionados se agruparon según su estructura y propiedades químicas. Se encontró que dos grupos actuaban sinérgicamente con los derivados de la arteminisa, lo cual es muy favorable y beneficioso para el control de la enfermedad porque evitamos que el Plasmodium adquiera resistencia rápidamente. Además, se probaron los compuestos seleccionados en otros parásitos patogénicos: Toxoplasma, Leishmania y Trypanosomas, y encontraron que la mayoría de ellos eran específicos para el Plasmodium. Al determinar las propiedades farmacocinéticas de los compuestos (absorción, eliminación y distribución en el organismo), los investigadores quedaron muy satisfechos.

image

Gamo encontró que muchos de los compuestos antimaláricos encontrados en este estudio tenían una actividad sobre las enzimas kinasa del Plasmodium. Además, estos datos pueden ser usados para el tratamiento de enfermedades producidas por desórdenes de las kinasas como ciertos tipos de cánceres y tumores, artritis, diabetes y enfermedades cardiovasculares. Otro lugar donde tienen efecto es a nivel de las interacciones celulares entre el hospedero y el patógeno. Este estudio no es concluyente, más bien es el punto de inicio para el desarrollo de nuevos compuestos antimaláricos más efectivos que los anteriores. Toda esta base de datos esta disponible para cualquier investigador en European Bioinformatics Institute’s ChEMBL, con el fin de animar a los científicos de todo el mundo a encontrar alguno que tenga la capacidad de erradicar esta enfermedad del mundo.

Para seleccionar un compuesto y ser probado en pacientes, primero debe cumplir con algunos requisitos: debe ser fácil de sintetizar, económico, efectivo en animales modelo como ratas, ratones y monos, seguros y no deben ser afectados por los mecanismos de resistencia de los Plasmodium actuales, no solo aquellos que causan la malaria, sino en especies de vida silvestre que podrían ser una fuente de resistencia para ser usado en cualquier momento.

Referencia:

ResearchBlogging.orgGamo, F., Sanz, L., Vidal, J., de Cozar, C., Alvarez, E., Lavandera, J., Vanderwall, D., Green, D., Kumar, V., Hasan, S., Brown, J., Peishoff, C., Cardon, L., & Garcia-Bustos, J. (2010). Thousands of chemical starting points for antimalarial lead identification Nature, 465 (7296), 305-310 DOI: 10.1038/nature09107

20 mayo, 2010

Un pegamento inteligente

El sábado pasado hablamos de como se ensamblan las proteínas de la tela de las arañas, pero hay algo que es mucho más interesante y de gran importancia en la ciencia de los materiales: las gotas de pegamento viscoso que recubren estas fibras. La industria de los pegamentos y adhesivos es una de las que más ha avanzado en los últimos años; claro que muchos nunca se pondrán a pensar todo el tiempo y dinero invertidos en la investigación y desarrollo de sustancias tan comunes como la cinta adhesiva, el Triz® o el pegatodo —la copia barata del UHU. Sin embargo, estas sustancias sólo tienen una función: pegar una cosa a otra. Aún así, encontramos sustancias adhesivas por todos lados: en las pinturas de las paredes, autos, lienzos; en las lacas para puertas, marcos de ventanas, roperos; en los anticorrosivos de joyas de oro, plata, placas de bronce, hasta en los tintes para pelo; es por esta razón que tienen tanta importancia en la industria.

La naturaleza siempre ha sido una fuente de inspiración para el desarrollo de nuevos productos. Por ejemplo, los mejillones secretan una sustancia en forma de hilos del biso que les permiten adherirse fuertemente a las rocas y soportar la inclemencia de las olas. Esta sustancia es tan adhesiva que además les permite pegarse a los barcos, a otras conchas y hasta a las plumas de ciertas aves y la piel de ciertos peces y ballenas. Estas sustancias, además, deben tener un cierto grado de elasticidad para no desprenderse ante el embate de las olas y determinadas moléculas que le permitan mantener el agarre en entornos donde la mayoría de los adhesivos pierden su función, como en el agua.

imageEs así que Sahni et al. estudiaron las gotas adhesivas que recubrían la tela de las arañas la cual tiene la propiedad de ser extremadamente pegajosa y elástica a la vez. Las gotitas están compuestas principalmente de glicoproteínas y moléculas de sal que regulan la cantidad de agua. El rol de cada uno de los componentes que la conforman no se han podido estudiar a profundidad debido a que cuando son separadas, pierden completamente su función. Así que los investigadores inmovilizaron las gotitas en una lámina de vidrio (Fig. a) y usando una puntita cónica de vidrio de 10um de diámetro (sonda) la pegaron en la gotita (Fig. b) y empezaron a jalar perpendicularmente a diferentes a diferentes velocidades (Fig. c) y midieron la extensión que la gotita se estiraba hasta el momento de romperse y la fuerza requerida para hacerlo.

Lo que encontraron fue que la respuesta fuerza-distancia depende de la velocidad en que la sonda era jalada (Fig. d). Si la sonda era jalada muy rápido, la gotita se volvía más viscosa (se necesitaba más fuerza para romperla y tenía menos elasticidad) y cuando la sonda era jalada a una velocidad lenta, la gotita se volvía menos viscosa (era más elástica pero se necesitaba menos fuerza para romperla). imageEste comportamiento tiene una relación directa con las dos funciones que cumple la gotita: la captura y la retención de la presa. Cuando una presa viene a gran velocidad, la gotita debe ser lo suficientemente viscosa como para no romperse ante el choque del insecto (mayor fuerza). Una vez la presa ha sido capturada por la red intentará escapar con movimientos más lentos, la gotita se podrá estirar para evitar que la tela se deforme y se destruya. El insecto se cansará de luchar y sucumbirá ante su depredador. Por esta razón, las gotas adhesivas secretadas por las arañas constituyen una pegamento ‘inteligente’.

Y ¿cuál es la base molecular de esto? En el caso de las sustancias adhesivas de los mejillones, la clave está en las repeticiones de un par de aminoácidos: Lisina y 3,4-dihidroxi-L-fenilalanina (L-DOPA). Proteínas que tengan repeticiones Lys-DOPA en su estructura tendrán la característica de ser adhesivas a través de enlaces covalentes y no covalentes con la superficie. Es así que los iones metálicos del agua de mar se infiltran en la estructura de esta proteína e interaccionan con las repeticiones Lys-DOPA. Estos iones darán especificidad a las sustancias adhesivas. Sin embargo, no se conocer a profundidad las bases moleculares de las gotitas de las arañas. Se han reportado que a parte de las glicoproteínas poseen neurotransmisores y pequeños péptidos. Posiblemente sean los azúcares encontrados en las glicoproteínas quienes les den sus caracteríscas adhesivas y especificidades. Por ejemplo: la N-acetil-D-glucosamida es importante para la adhesión de ciertas bacterias como Caulobacter crescentus.

Referencia:

ResearchBlogging.orgVasav Sahni,, Todd A. Blackledge,, & Ali Dhinojwala (2010). Viscoelastic solids explain spider web stickiness Nature Communications, 1 : 10.1038/ncomms1019

18 mayo, 2010

La sinfonía de la ciencia

El domingo vimos un video de los mas grandes científicos del siglo pasado, ahora uno donde están los más grandes científicos contemporáneos (de nuestros tiempos), entre ellos Carl Sagan, Richard Dawkins, Stephen Hawking, entre otros…

http://www.symphonyofscience.com/

17 mayo, 2010

Todas las formas de vida descienden de un mismo ancestro común?

Según Darwin y su teoría de la evolución, todos los seres vivos descendemos de una forma de vida primordial. Es a partir de esto que nace la teoría del Ancestro Común Universal (UCA), la cual propone que todos los organismos vivos estamos genéticamente relacionados, siendo la principal premisa de la teoría moderna de la evolución. Las evidencias para los ancestros comunes son: la relación entre la filogenia y la biogeografía, la correspondencia entre la filogenia y los registros fósiles, la existencia de numerosos fósiles transicionales, la marcada similaridad entre las estructuras biológicas, la clasificación jerárquica de las características morfológicas y la congruencia entre las filogenias morfológicas y moleculares. Sin embargo, son dos las principales evidencias para un ancestro común universal: la similaridad en las biomoléculas que conforman a todos los organismos y la ‘casi’ universalidad del código genético.

Douglas Theobald publicó el primer estudio con una base estadística sumamente sólida que avala la teoría del Ancestro Común Universal. Usando una serie de modelos computacionales y métodos estadísticos comparó las probabilidades de que las tres principales formas de vida: Bacteria, Arquea y Eucaria, descendieron de un mismo ancestro o de diferentes ancestros. Pero, ¿cuales fueron los datos que tomó?

Todas las especies de los tres dominios comparten 23 proteínas universales, todas ellas relacionadas con la replicación, transcripción y traducción del ADN. Theobald tomó a cuatro representantes de cada dominio: Methanococcus jannaschii, Archaeoglobus fulgidus, Pyrococcus furiosus y Thermoplasma acidophilum (Arquea: A); Drosophila melanogaster, Homo sapiens, Caenorhabditis elegans y Saccharomyces cerevisiae (Eucaria: E) y Escherichia coli, Bacillus subtilis, Mycobacterium tuberculosis y Porphyromonas gingivali (Bacteria: B); y comparó las secuencias de estas 23 proteínas encontrando que eran más similares de lo que se podría esperar como producto del azar. Sin embargo, que sean similares no necesariamente quiere decir que compartan un ancestro común ya que las similaridades podrían ser el resultado de otros factores como la evolución convergente debido a la selección natural o las mutaciones.

Theobald, para demostrar su hipótesis, usó las tres pruebas estadísticas más rigurosas que existen y pueden ser aplicadas para este estudio: La razón de verosimilitud logarítmica (log likelihood ratio), el criterio de información de Akaike (Akaike criterion information) y el factor de Bayes logarítmico (log Bayes factor). Comparó las probabilidades de que los tres dominios compartían un ancestro común (ABE), combinaciones de dos dominios compartan un ancestro común y el otro no (AB+E, AE+B, EB+A) o que ninguno de los dominios compartan un ancestro común (A+B+E).

image

¿Cual creen que fue el resultado? El modelo del ancestro común universal (UCA) fue 102680 (1 con 2680 ceros) veces más probable que el modelo de los ancestros múltiples. Esperen aquí debe haber un error, ¡¡¡¡10 a la 2680!!!!… uhmmm, ¿no será la referencia de la cita?… no, ese es el inconmensurable valor; o sea, la probabilidad de que los tres dominios evolucionaron de tres diferentes ancestros es de 1 en 102680. Y si a eso le añadimos que el hombre evolucionara de un ancestro diferente, ¿cual sería la probabilidad que esto ocurra?… 1 en 10 a la ~6000 (1:106000), y según la Ley de Borel, una probabilidad de 1 en 10 a la 50 (1:1050) significa: IMPOSIBLE… (PAM!!, tomen eso creacionistas). Aunque ellos dicen que la probabilidad de que un organismo se forme de la nada por puro azar es de 10 a la 340000000 (1:10340000000), jajaja… esta comprensión es totalmente errónea, ya que esta probabilidad es para formar un organismo vivo espontáneamente de “un sólo tiro”, pero la evolución no ocurre así, de un tiro, la evolución es un proceso gradual de lo más simple a lo más complejo de manera continua.

Pero, el modelo del ancestro común universal explicaría los procesos de transferencia horizontal de genes y la endosimbiosis —que pudo haber dado origen a los eucariotas—, los cuales no siguen un patrón de árbol sino más de una tela de araña; aún así este modelo se ajustó muy bien y su probabilidad fue de 10 a la 3489 (1:103489) veces más probable que el modelo de los ancestros múltiples.

image

Pero algo que el estudio de Theobald no pudo determinar es si es que sólo existió una única forma de ancestro común o varias formas que fueron extinguiéndose hasta quedar con sólo una, siendo esta la teoría que comparto con muchos investigadores. Me explico:

Decir un Ancestro Común Universal (UCA), no nos referimos a un único individuo; el UCA corresponde a una población de organismos primordiales, y como toda población tienen sus diferencias genéticas (variabilidad); pero lo que yo creo es que existieron muchas poblaciones de UCAs diferentes, que vivieron en lugares y tiempos diferentes, los cuales evolucionaron paralelamente, pero al final sólo uno tuvo la capacidad de seguir evolucionando y formando todas las especies de seres vivos que hoy conocemos; mientras que los otros, se fueron extinguiendo a lo largo del tiempo. Nosotros y todos los organismos que viven actualmente somos el resultado de ese UCA, que el modelo de Theobald trata de explicar, pero que no puede determinar la existencia o no de otros UCAs que nunca llegaron a evolucionar. De ser cierta la hipótesis de los múltiples UCAs, abriría la posibilidad a la existencia de diferentes formas de vida en el universo, tal vez un UCA que no llegó a evolucionar en la Tierra si lo pudo hacer en otro lugar del universo. Es por esta razón que yo creo fehacientemente la existencia de diferentes formas de vida, muchas de ellas exóticas, que diseminadas por todo el universo.

Suena a ciencia ficción mi teoría, pero, tiene todas las chances de ser posible ya que vivimos en un universo tan grande que existe la posibilidades para todo, tal vez un día lo demuestre y gane mi primer premio Nobel, quien sabe, de repente es una probabilidad de 1 en 10 a la 10000000000, pero hay una probabilidad… Y, además, una bonita lección de este artículo es que no se necesita de grandes cantidades de dinero para realizar un estudio y publicarlo en Nature, solo una computadora, internet, algunos programas estadísticos y una gran quemada de neuronas.

Referencia:

ResearchBlogging.orgTheobald, D. (2010). A formal test of the theory of universal common ancestry Nature, 465 (7295), 219-222 DOI: 10.1038/nature09014

16 mayo, 2010

Esa era la explicación…

20100516

Vía SMBC Comics.

Los más grandes científicos de la historia en un solo lugar

Imagínense juntar en un mismo auditorio a Einsten, Plank, Schrödinger, Bohr, Heisenberg, Compton, Born, Lorentz, Curie, entre otros. Todos ellos que ahora conocemos por que llevan sus nombres muchas ecuaciones y teorías de la física que manejamos o estudiamos en el colegio o la universidad. Esto fue posible a inicios del siglo XX, en las Conferencias de Solvay, aunque fue en la quinta (1927) donde estuvieron reunidos todos ellos.

¿De que hablarían? ¿Harían una fiesta de clausura como en todos los congresos que hoy conocemos? Quien sabe, pero las más grandes mentes de la historia también tenían sus debates y discrepancias, discusiones interminables como la famosa disputa de Einstein versus Bohr, y Einsten versus Heisenberg. Einstein fiel a su teoría de la relatividad, en la cual nada puede viajar más rápido que la luz y conociendo la velocidad exacta de un electrón podemos determinar exactamente donde puede estar ubicado en un determinado momento, en otras palabras, podríamos “predecir el futuro”: las partículas tiene velocidades y posiciones bien definidas; sin embargo Bohr no estaba de acuerdo con esto ya que decía que el momento de dos electrones ubicados en dos puntos distantes del universo eran opuestos; y si el momento de uno cambiaba, lo mismo haría el momento del otro, así que debía haber un tipo de conexión que viajaba más rápido que la luz o que el momento de cada uno estaba determinada por las probabilidades, algo que disgustaba mucho a Einstein. Heisenberg metió su cuchara con su principio de la incertidumbre, que decía que no podemos determinar de manera exacta la posición y velocidad de una partícula en un determinado instante, cuanto más certeza tenemos de la velocidad de una partícula menos certeza tendremos de su posición y viceversa. Todo estaba basado en las probabilidades, esto abría la posibilidad de que una misma partícula esté en dos lugares diferentes en un mismo instante.

Ahí un video donde aparecen estos grandes hitos de la ciencia, grabado por uno de ellos. Recordemos que en esa época no se podían filmar con sonido, por eso parece un video de Chaplin.

15 mayo, 2010

¿Cómo se ensambla la tela de las arañas?

La tela de las arañas es una de las estructuras más asombrosas del mundo natural debido a su gran elasticidad y resistencia a pesar de su poco grosor (más fino que un cabello humano). Poder sintetizarla de manera artificial sería uno de los más grandes logros en la ciencia de los materiales y tendría innumerables aplicaciones en muchas ramas de la ciencia y sobre todo la tecnología.

Las proteínas que conforman la tela de la araña tienen composiciones químicas y estructurales diferentes dependiendo de la especie y del uso que le den. A grandes rasgos podemos decir que están compuestos por un grupo de proteínas llamadas fibroínas, ricas en repeticiones de alanina y/o glicina, que se autoensamblan formando estructuras secundarias llamadas plegamientos beta

El misterio radica en cómo se da este autoensamblaje ya que, dentro de las glándulas de seda, todas estas proteínas se encuentran mezcladas en forma líquida; pero al salir, automáticamente se ensamblan formando una tela sólida.

Las espidroínas son las proteínas responsables de dar la elasticidad y resistencia a la seda de las arañas. Askarieh et al. estudiaron cómo se daba el mecanismo de autoensamblaje de esta proteína mientras que Hagn et al. estudiaron cómo las proteína podían ser almacenadas en formas solubles a altas concentraciones.

Hagn encontró dos dominios altamente conservados en estas proteínas: un dominio C-terminal no repetitivo (NR) y un dominio N-terminal NR. Estos dos dominios controlan la solubilidad de las proteínas y previenen que se den agregamientos o ensamblajes no deseados. Los dominios C-terminal NR eran bastante hidrofóbicos comparados con las otras regiones de las fibroínas, a bajos pH (~2.0) la hidrofobicidad aumentaba y la formación de estructuras secundarias —plegamientos beta— disminuye. Entonces, un correcto plegamiento de los dominios C-terminal NR son responsables de un correcto almacenamiento y la inhibición de agregaciones no deseadas. La transición de la forma soluble de las proteínas a la forma de fibras sólidas se da debido a ciertos estímulos químicos y mecánicos.

image

En ausencia de fuerzas de cizallamiento, la agregación y ensamblaje de las proteínas está determinada por la concentración de sales en el medio. A altas concentraciones de NaCl (~500mM) la agregación es baja (~15%); sin embargo a esa misma concentración pero de KH2PO4 la agregación es total (~100%). Con esto se explica por que las proteínas se almacenan dentro del lúmen, donde hay una concentración de NaCl de ~150mM y necesitan salir al ducto para ensamblarse donde, a través de un mecanismo de intercambio iónico, se cambia la concentración de sales de NaCl por KH2PO4.

Los dominios C-terminal NR son importantes para el ensamblaje porque en ausencia de ellos, las proteínas no exhiben un cambio significativo en su viscosidad y agregamiento al ser sometidas a diferentes fuerzas de cizallamiento, mientras que cuando están presentes, sufren plegamientos que cambian la solubilidad de las proteínas al volverse más hidrofóbicas. Las proteínas se empiezan a agregar permitiendo que se formen los plegamientos betas.

Para completar este estudio, Askarieh se enfocó sobre el dominio N-terminal NR de las espidroínas. Askarieh se dio cuenta que el pH tenía un efecto importante sobre el ensamblaje de las proteínas para formar las fibras sólidas. Primero observó que las espidroínas se autoensamblaban a pH entre 6.9 y 6.3, tanto en presencia o ausencia del dominio C-terminal NR, así que descartó que este dominio tenga algún efecto sobre el ensamblaje de las fibras sólidas; sin embargo, el dominio N-terminal NR si era afectado por los cambios de pH.

En presencia del dominio N-terminal NR, las espidroínas se autoensamblaban en 2 horas a un pH de 7.0; pero en ausencia del dominio N-terminal NR, el ensamblaje se daba en menos de 30 minutos. El efecto era más pronunciados a pH de 3.0 y 8.0, donde las proteínas se demoraban días en ensamblarse cuando tenían el dominio N-terminal NR. Pero, lo que llamó enormemente la atención fue que, a pH entre 6.0 y 7.0, el ensamblaje se dio rápidamente en menos de 5 minutos en presencia del dominio N-terminal NR.

image

Entonces, para resumir todo esto podemos decir que las proteínas que conforman las telas de las arañas tienen dos dominios altamente conservados y no repetitivos en los extremos C-terminal y N-terminal. El dominio C-terminal es importante para el almacenamiento de las proteínas de la tela de las arañas dentro del lumen, a altas concentraciones pero sin correr el riesgo que se agreguen y formen ensamblajes no deseados.

El lumen es rico en iones NaCl que favorecen el estado soluble de las proteínas. El dominio N-terminal es responsable del autoensamblaje de estas proteínas para formar una fibra sólida. Cuando la solución de proteínas llega al ducto, el pH baja hasta 6.3 —debido a la presencia del KH2PO4— y se empiezan a formar las estructuras secundarias (plegamientos beta) características de las fibras de seda. Además, el KH2PO4 ayuda a la formación de las fibras sólidas cuando interactúan con el dominio C-terminal.

Referencias:

ResearchBlogging.orgHagn, F., Eisoldt, L., Hardy, J., Vendrely, C., Coles, M., Scheibel, T., & Kessler, H. (2010). A conserved spider silk domain acts as a molecular switch that controls fibre assembly Nature, 465 (7295), 239-242 DOI: 10.1038/nature08936

ResearchBlogging.orgAskarieh, G., Hedhammar, M., Nordling, K., Saenz, A., Casals, C., Rising, A., Johansson, J., & Knight, S. (2010). Self-assembly of spider silk proteins is controlled by a pH-sensitive relay Nature, 465 (7295), 236-238 DOI: 10.1038/nature08962

14 mayo, 2010

¿Por qué la Luna se ve más grande en el horizonte?


La mayoría se habrá dado cuenta que cuando la Luna sale por el horizonte se ve más grande que cuando alcanza el punto medio del cielo. Pero, si la Luna se mantiene a la misma distancia de la Tierra durante toda la noche, ¿por qué se ve de diferentes tamaños?

La respuesta es más sencilla de lo que creemos: una simple ilusión óptica conocida como la ilusión de Ponzo. Cuando dos líneas horizontales, del mismo tamaño, se ponen una encima de otra a una distancia razonable y flanqueadas por dos líneas oblicuas, una de ellas se verá mucho más grande que la otra a pesar de ser del mismo tamaño. Por ejemplo:



La de arriba parece más grande, ¿cierto?.

La culpa la tiene nuestro cerebro. Las líneas inclinadas crean una falsa perspectiva de distancia en nuestra mente. Si cubrimos con nuestros dedos las líneas laterales veremos claramente que las dos líneas horizontales son del mismo tamaño. Sin embargo, al crear una perspectiva de distancia, nuestro cerebro asume que la línea superior se encuentra más lejos que la inferior y, por lo tanto, debe ser más grande porque ésta cubre todo el espacio entre las dos líneas oblicuas, o sea, abarca todo el horizonte. Esta es una prueba irrefutable que no vemos con los ojos, sino con el cerebro. Aquí otro ejemplo:

Las líneas rojas son del mismo tamaño.


Pero antes de entender como funciona este mimo efecto sobre la luna, debemos entender como percibimos el cielo. 

Si alguien te pregunta ¿qué forma tiene el cielo?. Sin dudarlo dirás que es una semiesfera. Esto quiere decir que todos los puntos del cielo se encuentran a la misma distancia de nosotros; sin embargo, no es así como lo percibimos. Nosotros vemos el cielo como si fuera un plano y percibimos el horizonte como si estuviera más lejos de nosotros que el cielo que está sobre nuestras cabezas. 

Cuando vemos una montaña a la distancia, percibimos su cima mucho más cerca al cielo. Pero si nos encontráramos en la cima de esa misma montaña, veríamos que el cielo está a la misma distancia de siempre. También nos podemos dar cuenta de este efecto en un día nublado. Si vemos directamente hacia arriba, las nubes nos parecerán que están a menor altura que cuando las vemos en el horizonte.

Es así que cuando la Luna está en el horizonte nuestro cerebro la percibirá como si estuviera más lejos que cuando está sobre nuestras cabezas. La ilusión de Ponzo actúa y percibimos una Luna mucho más grande. Este mismo efecto también se aplica al Sol y es por ello que lo vemos más grande en el amanecer y atardecer que al mediodía. Y dependiendo si estamos más al sur o al norte, podemos ver este mismo efecto con la Vía Láctea o con la nebulosa de Orión.

Vía | BadAstronomy.

13 mayo, 2010

Se presenta el primer borrador del genoma del Neandertal

Uhm… yo se que muy tarde me uní a la fiesta, muchos medios ya informaron sobre este importante avance en el entendimiento de la evolución humana. El viernes pasado se publicó en Science el primer borrador del genoma del Neandertal. Un par de artículos muy extensos —sobre todo el primero— que muestran resultados inesperados que ya lo comentaré más adelante. Borrador quiere decir que es un primer secuenciamiento, de seguro con muchos errores y algunas regiones incompletas, pero lo suficientemente bueno para hacer comparaciones con secuencias de humanos modernos y especies relacionadas.

Y ahora, ¿por donde empezamos?. Todos los estudios sobre fósiles de nuestros ancestros homínidos se basaban en características morfológicas y proporcionales, hasta que en los 90’s Svante Pääbo se enfocó más al estudio del ADN antiguo. Pero, después de más de 50000 años, ¿habrá algo de ADN que extraer?. El ADN es una de las estructuras más estables que existen y en los huesos fósiles pueden haber cantidades considerables de moléculas de ADN, pero muchas de ellas cortadas o degradadas. Si la preservación del fósil fue buena —por ejemplo, bajo el permafrost de las montañas de los países nórdicos— el ADN estará mejor preservado. Sin embargo, otro problema es la contaminación, tanto con ADN de humanos modernos como de bacterias que viven normalmente en los suelos.



Y, ¿para que secuenciar el genoma del Neandertal?. Una de las respuestas es que los humanos modernos y los Neandertales llegaron a vivir al mismo tiempo y quedaría abierta la posibilidad de que haya habido algún tipo de cruce entre estas dos especies, para esto es importante analizar su genoma y compararlo con el de los humanos modernos. Algunos científicos creen que esto haya sido posible, mientras que otros dicen que los humanos modernos vinieron de África y desplazaron a los Neandertales sin que haya habido cruces entre ellos. Hasta ahora, la evidencia genética descartaba que haya habido mezcla de genes entre los humanos modernos y los Neandertales… hasta ahora.
 image

Ahora tenemos el primer borrador del genoma del Neandertal, el cual tiene más de 3 mil millones de nucleótidos (3000Mb). Pääbo et al. recolectaron huesos de tres chicas Neandertal que vivieron en Croacia hace 38000 años (Figura). A partir de estos fósiles se pudo extraer el ADN y se secuenció. Al hacer un alineamiento y comparar el genoma del Neandertal con el genoma  de cinco humanos modernos de diferentes partes del mundo, los investigadores encontraron que los europeos y asiáticos comparten del 1 al 4% de su ADN nuclear con los Neandertales, pero los africanos no. Este descubrimiento ha sido uno de los más fascinantes de esta investigación y sugiere que hubo cruce entre los primeros humanos modernos con los Neandertales después que los humanos modernos dejaran África pero antes que se diseminaran por todo Europa. Por más que pese a algunos científicos, es difícil encontrar otra explicación posible a este descubrimiento. Esto quiere decir que mucha gente que vive fuera de África tiene ADN de un homínido extinto, posiblemente “los Neandertal viven en cada uno de ellos”.

image
San (Sur de África), Yoruba (Oeste de África), PNG (Papúa y Nueva Guinea), Han (Chino) y French (Francés)


Ya tenemos el genoma del Neandertal, ahora debemos buscar que genes son lo que nos hacen “humanos modernos”, genes presentes en el Homo sapiens y no en los Neandertales. A pesar que somos de especies diferentes y distanciados por miles de años, nuestro genoma y el genoma de los Neandertales comparten el 99.84% de identidad. Conociendo estas pequeñas diferencias podemos determinar que genes han cambiado o evolucionado desde que nuestro ancestro más antiguo y los Neandertales divergieron hace unos 270000 a 400000 años. Las principales diferencias se encontraron en genes relacionados con el metabolismo, la piel, el esqueleto y el desarrollo cognitivo, pero no se pudo determinar si estos cambios tuvieron algún efecto fisiológico.

Se sabe que los Neandertales y los humanos modernos coexistieron en Europa de 30000 a 45000 años atrás y en el Oriente Medio hace 80000 años, pero no se encontró rastros de mezcla cuando fueron estudiadas las secuencias del ADN mitocondrial de los Neandertales, fue por esto que los científicos decidieron que no pudo haber cruces entre Neandertales y humanos modernos con descendencia viable. Hasta el mismo Pääbo pensó, la primera vez que vio sus resultados, que este 1 a 4% se podía deber al azar o un flujo estadístico. Pero, cuando se aplicaron distintos métodos en diferentes laboratorios, en todos ellos se obtuvo los mismos resultados, confirmándose la hipótesis del cruce con descendencia viable entre los Neandertales y los humanos modernos.

Estos resultados refutan las teorías que dicen que los humanos modernos salieron de África y colonizaron el mundo sin cruces con otras especies de homínidos antiguos. Sin embargo, estos resultados y descubrimientos obtenidos por Pääbo et al. no son concluyentes debido a la baja cobertura del secuenciamiento (1.3X) y la tercera parte del genoma del Neandertal sigue confuso (por algo es un borrador). Sin embargo, se aplicó una metodología novedosa para llenar los huecos dejados al hacer este primer borrador. Se usaron las secuencias parciales de Neandertales que vivieron en España, Alemania y Rusia. Además, compararon el genoma del Neandertal con el del chimpancé para determinar que variantes genéticas son las más primitivas, lo cual no se puede hacer con los genomas de humanos modernos.

Los Neandertales compartían más SNPs (Polimorfismos de nucleótido simple o cambios en una sola secuencia) con los europeos y asiáticos que con los africanos. Pero, por qué los Neandertales se cruzaron con los europeos y asiáticos pero no con los africanos?. ¿Serían racistas?. Para responder a esta pregunta se deberían secuenciar genomas de más africanos de diferentes partes del continente, de repente justo en esos dos genomas secuenciados no hay evidencia de la mezcla pero en otros sí hay.

Finalmente, se escaneo los genomas de humanos modernos en busca de regiones genéticas de humanos antiguos. Antes de ser comparado con el genoma del Neandertal, estos humanos modernos tenían 13 regiones genéticas que fueron inusualmente variables entre sí y que probablemente han tenido un origen evolutivo antiguo (relacionado con los Neandertales por no estar presentes en los genomas de 23 africanos-americanos). Luego al compararlos con el genoma del Neandertal observaron que de la13 regiones, 10 tenían una variante ancestral de estos genes.

Entonces, después de estudiar todo estos datos se puede inferir que el escenario es que grupos de Neandertales se movieron y se unieron a pequeños grupos de humanos modernos. Y si llegaron a cruzarse y dar descendencia viable las variables genéticas persistieron por el pequeño tamaño de la población. Sin embargo, los datos genéticos obtenidos no apoya la hipótesis de que este cruce se dio hace uno 30000 a 45000 años atrás. Aún así, los cruces no fueron muchos, ¿que era lo que prevenía que se diera este cruce? De seguro que la estructura social primitiva de los primeros humanos modernos, una “barrera cultural”.

El equipo de investigadores también encontró 78 SNPs que cambian la capacidad de codificar ciertas proteínas. Estas 78 modificaciones se dio en los últimos 300000 años. Al estudiar estos genes que estaban relacionados con la cura de las heridas y cicatrización, el movimiento del flagelo de los espermatozoides y la transcripción genética.

Referencia:

ResearchBlogging.orgGreen, R., Krause, J., Briggs, A., Maricic, T., Stenzel, U., Kircher, M., Patterson, N., Li, H., Zhai, W., Fritz, M., Hansen, N., Durand, E., Malaspinas, A., Jensen, J., Marques-Bonet, T., Alkan, C., Prufer, K., Meyer, M., Burbano, H., Good, J., Schultz, R., Aximu-Petri, A., Butthof, A., Hober, B., Hoffner, B., Siegemund, M., Weihmann, A., Nusbaum, C., Lander, E., Russ, C., Novod, N., Affourtit, J., Egholm, M., Verna, C., Rudan, P., Brajkovic, D., Kucan, Z., Gusic, I., Doronichev, V., Golovanova, L., Lalueza-Fox, C., de la Rasilla, M., Fortea, J., Rosas, A., Schmitz, R., Johnson, P., Eichler, E., Falush, D., Birney, E., Mullikin, J., Slatkin, M., Nielsen, R., Kelso, J., Lachmann, M., Reich, D., & Paabo, S. (2010). A Draft Sequence of the Neandertal Genome Science, 328 (5979), 710-722 DOI: 10.1126/science.1188021

LinkWithin

Related Posts Plugin for WordPress, Blogger...