30 marzo, 2011

Se encuentra el fósil de una angiosperma de 125 millones de años de antigüedad

plant_fosil

Hasta ahora no se sabe exactamente cómo hicieron las plantas con flores (angiospermas) para evolucionar y diversificarse tan rápidamente —algo que fue catalogado por el mismo Charles Darwin como un de los mayores misterios sin resolver de las biología— desde su súbita aparición hace unos 130 millones de años.

Actualmente, las angiospermas cuentan con más de 250,000 especies conocidas, las cuales están ampliamente distribuidas por todos los rincones del planeta. Sin duda, son uno de los organismos con mayor éxito evolutivo. A pesar de ello, se sabe muy poco acerca de su origen y diversificación.

Científicos chinos liderados por el Dr. Ge Sun del Instituto Paleontológico de la Universidad Normal de Shenyang, describieron hoy en Nature el fósil de una angiosperma de unos 122.6 a 125.8 millones de años de antigüedad —unos pocos millones de años después de la aparición de las angiospermas— la cual fue encontrada en excepcionales condiciones de preservación cerca a la ciudad de Lingyuan, siendo hasta ahora, el fósil más antiguo de una angiosperma encontrado hasta la fecha.

Si bien es cierto que los fósiles más antiguos que evidencian la existencia de las angiospermas datan de hace 125 a 127 millones de años, estos sólo corresponden a pequeños granos de polen. Lo interesante es que esta vez se trata de una planta entera, en la que se puede apreciar claramente los tallos, nudos, hojas, y su pequeño fruto.

Fosil del fruto

Actualmente, la sistemática molecular de las angiospermas reconoce cinco principales linajes: las Clorantáceas, las Magnólidas, las Monocotiledóneas (Liliópsidas), las Ceratofiláceas y las Eudicotiledóneas, siendo estas últimas las más diversas de todas las plantas con flores.

En este caso, el fósil descubierto corresponde a una especie del género Leefructus, que en base a sus características morfológicas esta muy relacionada con la familia de las Ranunculáceas, que forma parte de las Eudicotiledóneas basales. Estos datos indicarían que la evolución de las eudicotiledóneas se dio muy temprano en la historia evolutiva de las angiospermas, lo que hace considerar seriamente la posibilidad de que la evolución de las plantas con flores se pudo haber dado en la era pre-Cretácica.

Por otro lado, se cree que la rápida evolución y diversificación de las angiospermas fue una de las principales causas de la extinción de los dinosaurios no aviarios, los cuales se alimentaban principalmente de coníferas (gimnospermas), y que no pudieron adaptarse a la rápida extensión de las plantas con flores, beneficiando enormemente a los pequeños insectos y mamíferos.


Referencia:

ResearchBlogging.orgSun, G., Dilcher, D., Wang, H., & Chen, Z. (2011). A eudicot from the Early Cretaceous of China Nature, 471 (7340), 625-628 DOI: 10.1038/nature09811

Con una muestra de sangre se podría detectar el rechazo al trasplante de órgano

El principal miedo que tienen todos los pacientes que han sufrido un trasplante de órgano es que su cuerpo lo rechace. Esto llega a ser sumamente frustrante para el paciente, ya que pudo haber estado en la lista de espera del órgano por muchos años, pudo haber resistido la complicada operación de trasplante y, finalmente, cuando tiene la oportunidad de cambiar su vida, su cuerpo no acepta al nuevo inquilino.

KidneyExchange

Aproximadamente el 40% de los pacientes que han sufrido un trasplante experimentan un episodio agudo de rechazo del órgano durante el primer año. Nuestro organismo reconoce como un agente externo al órgano trasplantado y activa el sistema inmune quien es el que juega el rol principal en el rechazo del órgano; por esta razón, si se presenta el rechazado, los médicos suministran fármacos que suprimen el sistema inmunológico (inmunosupresores).

Para saber si se presenta o no el rechazado, se deben hacer exámenes periódicamente, tomando pequeñas muestras del órgano trasplantado (biopsia) y ver si sigue en buenas condiciones o está empezando a ser atacado por nuestro sistema inmunológico. Sin embargo, este tipo de exámenes son dolorosos —por ser invasivos— cuestan mucho dinero y pueden dañar críticamente al órgano.

En el 2009 se desarrolló un diagnóstico no invasivo para ver la evolución de un corazón trasplantado llamado AlloMap®. Éste método se basa en cuantificar la expresión de ciertos genes en células mononucleares de sangre periférica (PBMC), los cuales están relacionados con el rechazo al corazón trasplantado. Sin embargo, esta tecnología sólo permite predecir un poco más de la mitad de los casos de rechazo del órgano.

En los últimos meses, hemos comentado un par de artículos sobre el uso de la sangre de la madre gestante para predecir si el bebé tendrá o no Síndrome de Down o algún otro tipo de enfermedad congénita, esto gracias a que en la sangre de la madre se puede encontrar una gran cantidad de ADN del feto, con el cual se pueden hacer los estudios genéticos correspondientes, tales como la determinación del sexo antes que se empiecen a diferenciar los órganos reproductores, que es la forma común como se determina el sexo del bebé.

No es un misterio que el genoma del órgano trasplantado sea diferente al genoma del paciente, y además, también se puede detectar ciertos niveles de ADN del órgano en la sangre del paciente. Así que investigadores del Instituto Médico Howard Hughes (HHMI), liderados por el Dr. Thomas N. Snyder, han desarrollado un método que trata de predecir el rechazo al trasplante a partir de los niveles de ADN del órgano en la sangre del paciente, según reportaron esta semana en PNAS.

Lo que ocurre es que cuando el órgano es rechazado, sus células empiezan a morir liberando su material genético al torrente sanguíneo. De esta manera, los niveles de ADN del órgano en la sangre del paciente serán mayores cuando el órgano es rechazado. Para corroborar esta hipótesis, Snyder et al. analizaron las 44 muestras de sangre almacenadas de 7 pacientes que se sometieron a un trasplante de órgano. Cuando se producía el rechazo, los niveles de ADN del órgano trasplantado en la sangre del paciente alcanzaban del 3 al 4% del ADN total, mientras que los niveles normales (cuando no había rechazo) era sólo del 1% .

test-organ-rejection

Con este método pudieron acertar en el 83% de las veces, lo cual lo hace más exacto que AlloMap®. Sin embargo, la cantidad de muestras de pacientes usados en el estudio (n=7) no lo hace significativo, ya que a menor número de muestras, la variación que pudiera haber entre los resultados genera una mayor incertidumbre, lo cual podría generar falsos positivos y falsos negativos. Por suerte, como esta técnica no es invasiva, se podría implementar junto a la biopsia como un examen complementario, para poder tener una mayor cantidad de datos que corroboren o rechacen la hipótesis.


Referencia:

Thomas M. Snyder, Kiran K. Khush, Hannah A. Valantine, and Stephen R. Quake. Universal noninvasive detection of solid organ transplant rejection. PNAS. doi:10.1073/pnas.1013924108 (2011).

Vía | Science NOW & Nature News.

29 marzo, 2011

La dieta y su relación con la evolución de enzimas que metabolizan drogas y toxinas

Un determinado medicamento puede funcionar de diferentes maneras en diferentes especies, lo que para unos es beneficiosos para otros pude ser mortal; por eso un veterinario no puede prescribir algo para una persona y un médico no puede hacer lo mismo para una mascota. El caso más conocido es el de la aspirina. En los humanos, este medicamento es usado como analgésico, por ejemplo, cuando tenemos un fuerte dolor de cabeza. La aspirina también puede ser administrada a los perros; pero, cuando se trata de gatos se debe tener mucho cuidado, ya que para ellos es sumamente tóxica.

aspirirn

Los medicamentos son metabolizados en el hígado, el cual también se encarga de detoxificar y eliminar otras toxinas que pudieron haber ingresado a nuestro cuerpo durante el día. En cuanto a las aspirinas y otros fármacos fenólicos, en el hígado tenemos una enzima (UGT1A6) que pertenece a la familia de las UDP-glucuroniltransferasa (UGT), la cual se encarga de unir el ácido glucurónico al fármaco —en un proceso conocido como glucuronidación— para volverlo menos tóxico, más soluble y pueda ser eliminado fácilmente.

Extrañamente, los gatos no expresan esta enzima en sus hígados. Cuando analizaron el gen que la debería codificar, encontraron una serie de mutaciones que inactivan su expresión, convirtiendo al gen ugt1A6 en un pseudogén. Además, estas mutaciones no sólo estaban presentes en los gatos domésticos, sino también en muchas especies dentro de la familia de los felinos, como en los tigres y leones africanos. Otras especies menos relacionadas —como las hienas y la civeta africana— también tenían este problema. Esto indicaría que dichas mutaciones aparecieron antes que estos animales divergieran de un ancestro común, o que el gen ugt1A6 se inactivó en todos ellos de manera independiente, debido a alguna misteriosa fuerza evolutiva…

En primer lugar, nuestro organismo no ha evolucionado para hacer frente a las drogas sintéticas que hoy en día consumimos para tratar nuestros males; son los fármacos los que deben ser diseñados de tal manera que puedan ser metabolizados y eliminados una vez cumplan con su función. La capacidad para metabolizar distintos tipos de drogas, principios activos y toxinas han sido adquiridas a lo largo de nuestra historia evolutiva.

Si nos ponemos a recordar cual es el origen de la mayor cantidad de drogas y principios activos que hoy conocemos, de manera instantánea se nos vendrá a la mente las plantas. Entonces, sería lógico pensar que aquellos animales que se alimentan principalmente de plantas tendrán una mayor cantidad de enzimas detoxificantes que aquellos que tienen una dieta preferentemente carnívora. Esta podría ser la explicación de por qué el gen que codifica la enzima UGT1A6 se volvió disfuncional.

¿Alguna vez han visto a un gato comer algún tipo de planta o verdura? Los gatos como todos los Félidos, son netamente carnívoros, siendo una de las familias más representativas del grupo de animales conocidos como los ‘hipercarnívoros’, dentro del orden Carnívora. Entonces, la pérdida de la función del gen ugt1A6 indica la transición de una dieta generalizada (plantas y carne) a una más especializada (carne). Dentro del orden Carnívora también tenemos a los ‘mesocarnívoros’ (Ej.: osos y perro) y a los ‘hipocarnívoros’ (Ej.: los osos panda). De esta manera, tenemos una oportunidad única para entender el papel de la dieta en la evolución de las enzimas que metabolizan las drogas y toxinas.

Así que investigadores norteamericanos liderados por la Dra. Binu Shrestha de la Escuela de Medicina de la Universidad de Tufts estudiaron la evolución del gen ugt1A6 dentro del orden de los Carnívoros y determinaron que el gen se volvió disfuncional debido al cambio en la dieta de los felinos, que redujo la exposición a las toxinas presentes en las plantas, según reportaron ayer en PLoS ONE.

Shrestha et al. estudiaron la evolución del exón 1 del gen ugt1A6 usando como control al exón 1 del gen ugt1A1, el cual altamente conservado en los mamíferos —incluso en el hombre— porque se encarga de detoxificar la bilirrubina que nace como resultado de la degradación de la hemoglobina. El exón 1 de la UGT1A1 y UGT1A6  es codificado por el mismo locus (UGT1A), pero gracias al splicing alternativo son diferentes en las dos diferentes enzimas.

journal.pone.0018046.g001

Según los datos filogenéticos y evolutivos, la fijación del pseudogen ugt1A6 en los felinos se estima que fue hace unos 35 a 11 millones de años. Además, de los 22 taxones representativos del orden Carnívora estudiados, a parte de los felinos, sólo la hiena parda y el elefante marino del norte tenían el gen inactivo, los cuales también son animales que forman parte del grupo de los ‘hipercarnívoros’.

Pero, si ven detenidamente el árbol filogenético, pueden ver que hay otros hipercarnívoros que tienen activo el gen ugt1A6. Una explicación podría ser que, en estos animales, la dieta hipercarnívora (>70% de la dieta basada en carne) fue adquirida recientemente en su historia evolutiva, tal vez por que vivían en zonas tropicales, donde la vegetación es abundante.

También existen otras pistas que indicarían el papel importante de la dieta en la expresión de determinadas enzimas. Por ejemplo, en 1979 McGeachin & Akin demostraron que los gatos expresaban una menor cantidad de amilasa salivar, una enzima clave en el metabolismo de los carbohidratos, los cuales son abundantes en las plantas. Tampoco pueden metabolizar la cisteína en taurina, el caroteno en vitamina A o el ácido linoléico en araquidonato, los cuales se encuentran principalmente en las plantas. La carencia de estos compuestos puede inducir la ceguera y las cardiomiopatías.


Referencia:

ResearchBlogging.orgShrestha, B., Reed, J., Starks, P., Kaufman, G., Goldstone, J., Roelke, M., O'Brien, S., Koepfli, K., Frank, L., & Court, M. (2011). Evolution of a Major Drug Metabolizing Enzyme Defect in the Domestic Cat and Other Felidae: Phylogenetic Timing and the Role of Hypercarnivory PLoS ONE, 6 (3) DOI: 10.1371/journal.pone.0018046

Esta entrada participa en el II Carnaval de Biología cuyo anfitrión es el blog La muerte de un ácaro.

28 marzo, 2011

Científicos del MIT crean la primera hoja artificial

Imagínense un mundo en que toda la energía que requiramos para el día a día venga del sol, una energía limpia y renovable. Sin embargo, en este caso no estamos hablando de los paneles solares, sino de dispositivos que imiten la función de las hojas, las cuales, mediante la fotosíntesis, aprovechan directamente la energía del sol. Tal vez esto ya no se encuentre muy lejos de volverse realidad ya que científicos del Instituto Tecnológico de Massachusetts (MIT), liderados por el Dr. Daniel G. Nocera, han manifestado haber desarrollado una hoja artificial que puede hacer fotosíntesis.

El anuncio se dio ayer en el CCXLI Encuentro Anual de la Sociedad Americana de Química. Los investigadores desarrollaron una pequeña célula fotoeléctrica, que tiene el tamaño de una carta de naipes, con la capacidad de imitar la fotosíntesis realizada por las plantas. Si bien el dispositivo no utiliza ninguna de las biomoléculas que forman parte del complejo fotosintético de las plantas, tiene la capacidad de romper la molécula de agua en sus átomos elementales: el hidrógeno y el oxígeno, los cuales pueden ser usados para generar energía mediante su combustión.

Como toda célula fotoeléctrica, el dispositivo está formado por silicio, catalizadores y circuitos eléctricos, que aceleran las reacciones químicas. En el 2008, Nocera y sus colaboradores recubrieron electrodos de bajo costo a base de óxido de indio-estaño en una combinación de fosfato y cobalto para poder romper las moléculas de agua. El año pasado, el mismo equipo desarrolló un electrodo mucho más barato que el anterior hecho a base de borato de níquel.

En el presente experimento, las hojas artificiales de Nocera tenían un electrodo hecho a base de cobalto y níquel, el cual operó en un tanque con 4 litros de agua durante 45 horas sin que su producción se vea afectada significativamente.

Hay muchas expectativas con esta tecnología ya que ha demostrado ser eficiente —a pequeña escala— y sumamente económica, ya que los elementos usados en la fabricación de los electrodos son abundantes y están disponibles en todo el mundo. Los países más beneficiados serían los más pobres ya que podrán contar con una fuente de energía barata y limpia.

Bueno, ahora quedará esperar por algunos años para ver como empieza a desarrollarse esta tecnología. El problema que siempre ocurre con las células fotovoltaicas y este tipo de estrategias para aprovechar la energía solar es que no son escalables, o sea, cuando son llevadas a gran escala, pierden su eficiencia casi de manera exponencial. Para superar estos inconvenientes, es necesario crear análogos a los compuestos químicos presentes en un sistema fotosintético, tal como, los pigmentos que capturan la energía solar, los transportadores de electrones que generan el potencial eléctrico, etc. Por suerte también se viene desarrollando la biología sintética y química orgánica sintética, los cuales unidos a la ingeniería química y biotecnología podrán impulsar esta tecnología.

Vía | American Chemical Society & New Scientist.

27 marzo, 2011

Niveles de ciertos aminoácidos en sangre podrían predecir si desarrollarás diabetes

La diabetes es una de las enfermedades metabólicas más comunes en el mundo, la cual afecta a más de 200 millones de personas. Uno puede tener diabetes pero no se dará cuenta de ellos hasta tener los síntomas, que se pueden dar recién a una edad avanzada, por esta razón es necesario tener un método de diagnóstico preventivo  prematuro para poder hacer frente a la enfermedad antes que los síntomas se manifiesten. Un artículo publicado hoy en Nature Medicine nos muestra un potencial método de diagnóstico preventivo basado en los niveles de cinco aminoácidos en sangre.

La diabetes es una enfermedad metabólica que se caracteriza por la incapacidad de las células de tomar la glucosa de la sangre debido a la insensibilidad o ausencia de insulina —la hormona responsable de este proceso. Este trastorno metabólico se debe a que no hay producción de insulina debido a que los linfocitos T destruyen a las células que producen la hormona (células β de los Islotes de Langerhans del páncreas) o a que los receptores de insulina en las células se encuentran dañados. Dependiendo de la causa será el tipo de diabetes.

Actualmente, se usan dos indicadores para predecir el riesgo de desarrollar diabetes en las personas. Uno es el índice de masa corporal (IMC), y el otro es la cuantificación de niveles de glucosa en ayunas  o la prueba de tolerancia a la glucosa. Lamentablemente, estos exámenes sólo son eficientes cuando son realizados muy cercana a la fecha de  inicio del desarrollo de la diabetes, así que no sirve para hacer un diagnóstico prematuro, algo que es crucial para que el tratamiento funcione adecuadamente.

Ahora, gracias al desarrollo de las técnicas analíticas de alta eficiencia, se puede realizar un perfil metabólico completo en cuestión de horas. Usando estas técnicas podemos estudiar los niveles de determinados sustratos y productos de las reacciones metabólicas al mismo tiempo, y ver si los niveles de algunos de ellos se encuentran más altos o más bajos que los normales, los cuales podrían ser usados como indicadores de algún problema metabólico.

El Dr. Thomas J. Wang y colaboradores de la Escuela de Medicina de Harvard fueron al Estudio de Descendencia Framingham, un programa a largo plazo que se inició en los años 1940’s y que buscaba identificar factores comunes o características que contribuyen a las enfermedades cardiovasculares. En este lugar se encontraban almacenadas las muestras de sangre de todas las personas que formaron parte del estudio. Wang et al. seleccionaron a 2,422 personas no diabéticas (según los resultados de sus exámenes de sangre realizados entre 1991 y 1995). De todos ellos, 201 desarrollaron la diabetes en los 12 años posteriores a dichos exámenes. Wang tomó las muestras de sangre almacenadas de estos pacientes y las analizó usando el HPLC-MS (la cromatografía líquida de alta eficiencia acoplada a la espectrometría de masas) para identificar metabolitos asociados al desarrollo de la diabetes.

Los resultados mostraron que cinco aminoácidos: tres ramificados (isoleucina, leucina y valina) y dos aromáticos (tirosina y fenilalanina) se encontraban en niveles superiores a los normales, a pesar que los pacientes no presentaran hiperglucemia (elevados niveles de glucosa en sangre) y el valor del IMC era normal. Los niveles de estos aminoácidos se encontraban elevados hasta 12 años antes de desarrollar la diabetes y el riesgo de tener diabetes fue 4 veces mayor en aquellas personas que tenían esta condición.

diabetes

Una de las explicaciones es que ciertos aminoácidos, particularmente los aminoácidos ramificados, son moduladores de la secreción de insulina y tienen la capacidad de alterar su mecanismo de señalización en el músculo esquelético, provocando una resistencia a ella, la cual es una característica de la diabetes tipo II. Así que la hiperaminoacidemia se posiciona como un buen indicador prematuro de la diabetes.

Si bien existen ciertos marcadores genéticos de la diabetes asociados a polimorfismos (diferencias en uno o más nucleótidos), su capacidad de predecir el riesgo de desarrollo de diabetes varía entre un 5 y 37% a diferencia de la hiperaminoacidemia, la cual tienen una eficiencia que varía entre el 60 y 100%. De los cinco aminoácidos, la presencia en altos niveles de por lo menos tres de ellos son los que permiten hacer un diagnóstico prematuro de la diabetes.

Sin dudas es un gran avance en el diagnóstico prematuro de la enfermedad, pero, lamentablemente, la técnica usada en este trabajo es sumamente costosa que lo haría inviable para usarlo como prueba rutinaria en los hospitales. Por suerte, con el paso de los años, los precios van cayendo considerablemente dando una luz de esperanza para el uso de la metabolómica para el estudio y diagnóstico de otras enfermedades metabólicas.


Referencia:

ResearchBlogging.orgWang, T., Larson, M., Vasan, R., Cheng, S., Rhee, E., McCabe, E., Lewis, G., Fox, C., Jacques, P., Fernandez, C., O'Donnell, C., Carr, S., Mootha, V., Florez, J., Souza, A., Melander, O., Clish, C., & Gerszten, R. (2011). Metabolite profiles and the risk of developing diabetes Nature Medicine DOI: 10.1038/nm.2307

25 marzo, 2011

A pesar que los niveles de radiactividad en Fukushima están en aumento, no ocurrirá lo mismo que en Chernóbil

Bueno, creo que no es novedad saber que los niveles de radiactividad cerca a las centrales nucleares de Fukushima se han incrementado considerablemente, tanto así que ya están cerca de alcanzar las cantidades liberadas por el desastre de Chernóbil. Sin embargo, es necesario aclarar algunas por qué el accidente de Fukushima no se parece al de Chernóbil.

La principal razón de por qué Fukushima no es Chernóbil es que la explosión de uno de los reactores de la central nuclear de Chernóbil fue tan potente que no sólo se liberó Cesio-137 y Iodo-131 al ambiente, sino también, muchas otras partículas radiactivas como el Estroncio-90, y parte del combustible nuclear (Uranio) y su producto de decaimiento (Plutonio). En cambio, las partículas radiactivas liberadas en el accidente nuclear de Fukushima son de Iodo-131 y Cesio-137, los cuales por su volatilidad, escapan fácilmente de la contención del reactor. Además, para evitar que la presión interna en los tanques de contención aumente y produzca una explosión, de vez en cuando deben abrirse las válvulas de emergencia para liberar la presión contenida, escapando estos dos elementos radiactivos.

Por otro lado está el ambiente político y social de la época. Tras el accidente de Chernóbil, la Unión Soviética no informó a la comunidad internacional lo que había acontecido y decidieron mantenerlo en secreto el mayor tiempo posible. Pero, cuando los países vecinos empezaron a detectar niveles de radiactividad superior a los normales, ahí si tuvieron que dar una explicación. Tal vez, si la Unión Soviética no hubiera sido tan cerrada con sus asuntos internos y hubiera manifestado el accidente ni bien este hubiera ocurrido, muchas personas hubieran podido ser evacuadas rápidamente —tal como lo ha hecho Japón con las personas que viven 30Km a la redonda de la centra nuclear de Fukushima— y se hubiera podido reducir el número de personas muertas o con cáncer.

Finalmente, está el diseño mismo de los reactores. En los reactores nucleares de Chernóbil se usaba como combustible al Uranio natural, el cual tiene una baja concentración de Uranio-235, el isótopo que fisiona con mayor facilidad. Para usar este tipo Uranio, el reactor debería estar diseñado de tal manera que las reacciones nucleares se acelerarán fácilmente, volviéndose más vulnerable a una pérdida de control. En cambio, los reactores de Fukushima usan como combustible nuclear el Uranio enriquecido, el cual tiene un mayor porcentaje de Uranio-235. Así que los reactores de Fukushima están diseñados para controlar las reacciones nucleares, todo lo contrario a los reactores nucleares de Chernóbil. Esto los hace más seguros.

¿Cuánta radiactividad está liberando la central nuclear de Fukushima?

Según los últimos reportes, Fukushima libera aproximadamente de 1.2 a 1.3 × 1017 Becquereles por día —aproximadamente unos 3’380,000Ci (Curíes)— de Iodo-131. En los 10 días que estuvo expuesto el núcleo ardiente del reactor de Chernóbil, se liberó aproximadamente 1.76 × 1018 de Iodo-131, un 50% más por día que el liberado en Fukushima. Por suerte, la radiactividad se reduce a la mitad cada 8 días.

Por otro lado, la central nuclear de Fukushima libera aproximadamente 5 × 1015 Becquereles de Cesio-137 por día, mientras que en Chernóbil se liberó 8.5 × 1016 en total, casi un 70% más por día que en Fukushima.

Bueno, es inevitable que estos dos elementos se liberen al ambiente debido a su alta volatilidad, lo que debe evitarse es a fuga de otras partículas radiactivas que pueden llegar a ser más nocivas que estas dos. De hecho que habrá contaminación de ríos, lagos y mares con Cesio-137, pero, gracias a la cantidad de agua que tienen, el Cesio-137 se diluirá tanto, que las concentraciones serán tan bajas que no correrá riesgo la vida acuática.

El problema radica en la contaminación de los suelos, de los terrenos de cultivo, de los pastizales donde se alimenta el ganado. Así que una vez se controle el accidente nuclear, se deberá retirar una buena cantidad de suelo, por lo menos de 30 a 50 centímetros, para tratar de eliminar toda la contaminación radiactiva y evitar que llegue a los ríos debido a las lluvias, aumentando su concentración a niveles perjudiciales.

Si el Cesio-137 llega a ingresar a nuestro cuerpo, rápidamente se asimilará en los músculos y nuestro cuerpo tarda entre 10 a 100 días en eliminar la mitad de su concentración inicial (tiempo de vida media biológico). Durante este tiempo, la radiación podría causar graves daños en nuestro organismo.

Por otro lado, el Iodo-131 es perjudicial pero para los más jóvenes, así que las cápsulas de ioduro de potasio son una buena línea de defensa para evitar que el Iodo radiactivo se asimile por la tiroides. En adultos el daño es menor. En el diagnóstico y tratamiento del cáncer de tiroides, los pacientes toman soluciones orales de Iodo-131 con actividades que pueden alcanzar los 50mCi (1.85Mbq).

Vía | New Scientist & Science Insider.

Blastocisto estelar

Exploding Stars and Stripes

Espectacular imagen capturada por el Observatorio de Rayos X Chandra de la NASA que muestra los remanentes de la supernova Tycho tras la explosión de una estrella enana blanca dentro de nuestra galaxia. El color rojo representa las zonas donde los rayos X son de menor energía, mientras que el color azul, a los rayos X de mayor energía. La onda expansiva está formada por partículas que han sido aceleradas a energías 100 veces superiores a la obtenida por el más potente de nuestros aceleradores de partículas, el Gran Colisionador de Hadrones, el cual está diseñado para alcanzar 14 Tera electrón-voltios (TeV).

Pero si quitamos el fondo estrellado, y luego imaginamos que en vez de tener un tamaño de cientos de miles de kilómetros, tiene solo unos pocos milímetros estaremos frente a un blastocisto, sobre todo la siguiente imagen que pondré la cual se asemeja bastante a un blastocisto visualizado bajo una tinción diferencial.

Exploding Stars and Stripes

Vía | BadAstronomy.

24 marzo, 2011

Datos metagenómicos indicarían la existencia de un cuarto dominio en el árbol de la vida

El viernes pasado, un grupo de investigadores del famosísimo Instituto J. Craig Venter liderados por el Dr. Dongying Wu de la UC Davis, publicaron un interesante artículo en PLoS ONE, el cual analiza una serie de datos metagenómicos, los cuales fueron colectados entre los años 2004 – 2007, a través de la Expedición Global de Muestro de los Océanos (GOS), encontrando secuencias genéticas que no corresponderían a ninguno de los tres dominios de la vida hasta ahora conocidos.

20110326_STD001

Actualmente, todos conocemos tres grandes dominios de la vida: los Eucariontes, el cual incluye a todos los animales, plantas, hongos y protozoarios, que se caracterizan por tener células con una membrana nuclear; las Bacterias, que incluyen a la mayoría de los microorganismos que conocemos, caracterizándose por no tener un núcleo definido y un genoma circular; y las Arqueas, que se caracterizan por vivir en ambientes extremos.

Al ver bajo un microscopio a las Arqueas y a las Bacterias, se notará que son bastante similares. Es por esta razón que las Arqueas no fueron consideradas como un dominio diferente a las Bacterias hasta los años 1970’s, gracias a los estudios realizados por Woese & Fox en 1977, que usando secuencias de ARN ribosomal pudieron construir el árbol de la vida que hoy conocemos.

Si se habrán dado cuenta, gracias a las novedosas técnicas basadas en el estudio y comparación de secuencias de ácidos nucleicos desarrolladas en los años 1970’s, los científicos pudieron identificar un nuevo dominio de la vida, el cual se mantuvo escondido —ante nuestros propios ojos— por cientos de años, desde que Leeuwenhoek observó por primera vez  aquel mundo en miniatura en el siglo XVII.

Tal vez esté ocurriendo lo mismo en nuestros días… Lo dejaremos par más adelante.

Al comienzo, el estudio de las secuencias de ADN era un trabajo sumamente difícil, ya que se debía obtener grandes cantidades de material genético para poder ser secuenciados con la tecnología de la época. En los años 1980’s, el bioquímico estadounidense Kary Mullis inventó una novedosa técnica para multiplicar secuencias específicas de ADN llamada PCR. La técnica consistía en usar una enzima que replica el ADN (ADN polimerasa) y unos iniciadores (primers) que darán el punto de inicio de la replicación. De esta manera, se obtendrán millones de secuencias específicas a partir de una sola (Amplificación del ADN). Gracias a este invento se pudieron catalogar y ubicar muchas más especies en el árbol de la vida, todo en base a las secuencias del ARN ribosomal.

Pero, había un gran inconveniente que no había sido contemplado anteriormente. Para poder amplificar una secuencia específica, digamos el ARN ribosomal usado en los estudios filogenéticos y evolutivos, se debía extraer el ADN del organismo en cuestión, y para ello, el organismo debía ser aislado y cultivado en el laboratorio, ya sea en una placa petri o un tubo de ensayo. Sin embargo, en la naturaleza existen millones de microorganismos que no pueden ser cultivados en un laboratorio. Entonces, ¿cómo se podría caracterizarlos y ubicarlos en el árbol de la vida, si no tenemos forma de extraerle su ADN?

Gracias al avance en las técnicas de secuenciamiento, los cuales ahora son tan poderosas que permiten analizar millones de secuencias a la vez, los investigadores se han dedicado a secuenciar todo el ADN que puede ser encontrado en un determinado ambiente; por ejemplo, en el lecho marino, en nuestro tracto intestinal o en un relave minero; y compararlo con secuencias previamente identificadas y estudiadas para estimar los posibles organismos que habitan una determinada zona, sin la necesidad de aislarlos y cultivarlos. A esto se le llama la metagenómica.

En el año 2004, el famoso científico Craig Venter, quien secuenció el genoma humano en menos de tres años (comparado con los más de diez que le tomó al consorcio internacional que se hacía cargo de ello), se enrumbó en una expedición por todos los océanos de mundo en el Sorcerer II. La expedición consistía en tomar muestras de mar, de diferentes regiones del mundo, para analizar la diversidad bioquímica y genética microbiana que poseían, sin la necesidad de aislar individualmente cada microorganismo que habita en ella.

Los resultados fueron asombrosos, Venter y sus colaboradores encontraron millones de nuevas secuencias, las cuales podrían codificar para una variedad similar de nuevas proteínas, muchas de ellas con importantes aplicaciones industriales. Pero, a partir de toda esta data, ¿se podrían identificar nuevas secuencias de ARN ribosomal o de familias de proteínas que sugieran la existencia de una nueva rama en el árbol de la vida?…

La respuesta, en base al artículo en PLoS One de Wu et al., es que sí.

Los métodos actuales para hacer las reconstrucciones filogenéticas y evolutivas, no permiten el descubrimiento de nuevas secuencias de ARN ribosomal, ya que sólo se basan en la comparación con secuencias previamente descritas, y si no hay coincidencia o similaridad, no las toman en cuenta, y tal vez podrían ser secuencias que si codifican para otro tipo de ARN ribosomal.

Por otro lado, las relaciones evolutivas basadas en secuencias de ARN ribosomal no son del todo correctas, ya que hay muchos factores que influyen en la posición de un organismo en el árbol de la vida. Por ejemplo, las secuencias incompletas de ARN ribosomal, que pueden ser a causa de mutaciones o de errores en el secuenciamiento, influyen en la posición de un organismo en el árbol de la vida. Por otro lado, la evolución convergente, aquella en que dos organismos completamente diferentes y lejanos evolutivamente, podrían compartir un mismo gen ya que viven en ambientes con condiciones fisicoquímicas similares. De esta manera, podrían estar relacionados —dentro del árbol de la vida—cuando evolutivamente no lo están.

Así que, para superar estos inconvenientes, Wu et al. se enfocaron en el estudio de otras secuencias genéticas, como aquellas que codifican proteínas conservadas en todos los dominios de la vida. La primera que analizaron fueron los genes correspondientes a la superfamilia RecA. Esta superfamilia incluye a genes que codifican para una gran variedad de recombinasas —enzimas encargadas de la recombinación homóloga del ADN— y está presente en casi todas las especies de los tres dominios de la vida: Bacteria (RecA), Eucaria (Rad51, Rad57) y Arquea (RadA, RadB), hasta también está presente en los fagos (UvsX).

Para analizar esta superfamilia de genes, los investigadores dividieron cada familia de genes en pequeños subgrupos. Luego, tomaron a una especie representante de cada subgrupo y las agruparon usando complejos modelos estadísticos basados en el escore obtenido en el BLASTp —una herramienta bioinformática para comparar e identificar secuencias proteicas. Finalmente, se obtuvo un árbol filogenético con 15 grupos, de los cuales 2 (amarillo y turquesa) no se relacionaban con ninguna de las especies y subfamilias catalogadas. Estos dos grupos estaban formados por secuencias que fueron obtenidas en el GOS.

journal.pone.0018011.g001

Luego, se hizo el mismo experimento pero, esta vez, usando otra familia de genes conservados llamada rpoB, la cual codifica para una de las subunidades de la ARN polimerasa —enzima encargada de transcribir el ADN en ARN mensajero, que posteriormente será traducido a proteína. En este caso, también se observaron dos grupos (amarillo y fucsia) que no se relacionaban con los otros y contenían secuencias obtenidas en el GOS.

journal.pone.0018011.g003

Ninguna de estos grupos encontrados en el análisis de las dos familias de genes encaja en algunas de las ramas del árbol de la vida. Sin embargo, los autores tiene algunos argumentos que podrían explicar esta “nueva” rama en el árbol de la vida.

Por un lado, estas nuevas secuencias que no encajan en las relaciones filogenéticas previamente establecidas podrían ser quimeras, que se pudieron dar como resultado de la combinación de secuencias de ADN de diferentes orígenes. Estas quimeras se pudieron formar al momento de ensamblar  todas las pequeñas secuencias generadas en el secuenciamiento shotgun y no serían secuencias reales. También podrían ser  algún tipo de recombinación genética de regiones de ADN de diferentes subfamilias. Otra posibilidad indicaría que son parálogos que surgieron como producto de la duplicación de un gen de dicha superfamilia, y que evolucionaron independientemente, hasta diferenciarse de los demás a pesar de tener un origen común.

Y la última posibilidad indicaría que sí se trata de un nueva rama en el árbol de la vida que se podrían haber originado en virus primitivos. Lo que si es cierto es que la cantidad de genes que aún faltan secuenciar y caracterizar es tan basta que todavía nos espera muchas sorpresas. Lo bueno es que las novedosas técnicas usadas en la actualidad nos permiten descubrir nuevas cosas, observando todo a otro nivel, tal como paso con los experimentos de Woese en 1977, donde se descubrió que las Arqueas estaban separadas evolutivamente de las bacterias y de los eucariotas.

Entonces, para poder determinar si estas secuencias, que no forman parte de ningún grupo conocido, corresponden o no a un nuevo dominio del árbol de la vida, se tendría que explorar más daros metagenómicos. Además, estos resultados nos demuestran la importancia de combinar diferentes métodos de reconstrucción filogenética y evolutiva, no solo basándonos en secuencias del ARN ribosomal, sino también en otras secuencias conservadas, como aquellas que codifican para enzima esenciales del metabolismo de todos los organismos vivos.


Referencia:

ResearchBlogging.orgWu, D., Wu, M., Halpern, A., Rusch, D., Yooseph, S., Frazier, M., Venter, J., & Eisen, J. (2011). Stalking the Fourth Domain in Metagenomic Data: Searching for, Discovering, and Interpreting Novel, Deep Branches in Marker Gene Phylogenetic Trees PLoS ONE, 6 (3) DOI: 10.1371/journal.pone.0018011

Imagen #1: The Economist.


Esta entrada participa en el II Carnaval de Biología cuyo anfitrión es el blog La muerte de un ácaro.

22 marzo, 2011

Los experimentos de Miller aún siguen dando sorpresas

¿Quién no conoce los experimentos realizados por Stanley Miller en los años 1950’s? Sin lugar a dudas, son uno de los más importantes hitos de la historia de la ciencia. Por si no recuerdan sus clases de Biología del colegio o de Biología I en la universidad, los experimentos realizados por Miller trataban de demostrar que, con las moléculas que pudieron haber existido en la atmósfera primitiva de la Tierra, y gracias a la radiación UV y las descargas eléctricas, se pudo haber realizado la síntesis abiótica de compuestos orgánicos.

MIller

Básicamente, Miller usó una mezcla de gases reductores como el H2, H2O, CH4 y NH3, los cuales se creían que formaban parte de la atmósfera primitiva de la Tierra. Luego le aplicó descargas eléctricas por unos días y vio que se formó un caldo turbio. Al hacer el análisis químico del caldo, usando la cromatografía en papel —la cual era la mejor técnica de separación de sustancias de aquella época— identificó la presencia de determinados aminoácidos.

Sin embargo, muchos geoquímicos creen que las condiciones de la atmósfera primitiva de la Tierra no era tan reductoras como lo creía Miller; conteniendo principalmente N2, CO2, H2O y CO, y en menor cantidad otras sustancias como H2S, CH4 y H2. Sin embargo, las condiciones reductores pudieron haberse dado cerca a las plumas de ceniza volcánica y en otros cuerpos del sistema solar. A pesar de ello, se han logrado obtener ciertos aminoácidos en atmósferas ligeramente reductoras y hasta en atmósferas neutras.

Fue así que en 1958, Miller hizo una pequeña modificación a su experimento, esta vez usando una atmósfera basada en H2S, CH4, NH3 y CO2, compuestos comúnmente encontrados en las plumas de ceniza volcánicas.

En el 2007, se encontraron las muestras originales que fueron secadas y preservadas en viales esterilizados por el mismo Miller. En base al cuaderno de trabajo de Miller, pudieron catalogar cada una de las muestras encontradas. Así que quedaba algo por hacer… ¿Qué era?… Analizar los componentes presentes en ellas usando la tecnología del siglo XXI, como el HPLC (Cromatografía Líquida de Alta Eficiencia), UPLC (Cromatografía Líquida de Ultra Eficiencia) y el TOF-MS (Espectrometría de Masas de Tiempo de Vuelo).

En el 2008, Johnson et al. analizaron 11 viales conteniendo las muestras originales de los experimentos llevados a cabo por Miller en los años 1950’s. Ellos encontraron una gran variedad de distintos aminoácidos —22 en total— y cinco aminas, de los cuales muchos de ellos no fueron reportados por Miller, claro, debido a las limitaciones de su época.

Miller_1

Por otro lado, el reciente descubrimiento de muestras que datan de los experimentos llevados a cabo por Miller en 1958, en el cual simulaba la atmósfera encontrada cerca a las plumas de cenizas volcánicas, ha dado pie a un nuevo estudio publicado ayer en PNAS. A diferencia de los dos últimos estudios —del 2008 por Johnson et al. y del 2010 por Parker et al.— el publicado ayer se hizo en unas muestras que, por alguna extraña razón, nunca fueron analizadas ni reportadas.

Lo que hicieron primero Parker et al. fue resuspender las muestras en agua bidestilada y desionizada y luego las sometieron al HPLC y al UPLC. Luego, para determinar si hubo compuestos que. por su naturaleza química, eluyeron al mismo tiempo, se usó la espectrometría de masas. Se identificaron una gran variedad de compuestos, entre ellos 23 aminoácidos y 5 aminas, de los cuales 6 aminoácidos y una amina tenían azufre. Este descubrimiento es importante porque la metionina, el primer aminoácido de las secuencias proteicas, es azufrado. Además, los aminoácidos azufrados permiten establecer los puentes disulfuro, lo cuales dan estabilidad a la estructura tridimensional de la proteína.

Miller_HPLC

Pero, ¿cómo sabían que los aminoácidos encontrados fueron generados por los experimentos de Miller y no son producto de una contaminación? Casi todos los aminoácidos tienen dos presentaciones: L y D, que son llamados enantiómeros, pero es uno de los dos el que se encuentra de manera en mayor abundancia en los seres vivos. Para que entiendan mejor la idea:

En los humanos, hay personas que serán diestras y personas que serán zurdas, pero son las diestras las que se presentan en mayor abundancia. Si los humanos nos hubiéramos formado de forma espontánea, sería lógico esperar la misma cantidad de diestros y zurdos porque dependería sólo del azar y no de nuestra carga genética. Lo mismo ocurre con los aminoácidos. Todas nuestras proteínas están diseñadas de tal manera que uno de los dos tipos de aminoácidos será el más usado, sino cambia toda su estructura y pierde su función.

Al estudiar las proporciones de las versiones L y D de los aminoácidos, Parker et al. encontraron que la proporción [D]/[L] fue 1±10%. Esto indicaría que los aminoácidos fueron producidos gracias al experimento y no son el resultado de una contaminación.

Si bien no se encontró el aminoácido azufrado cisteína, si se encontró cisteamina y ácido homocisteico, los cuales son producto de degradación de la cisteína, lo que indicaría que este aminoácido si estuvo presente en los experimentos de Miller pero fue degradado —por oxidación— ya que no fue conservado en un ambiente anóxico. Lo mismo ocurrió con la metionina, ya que su concentración fue más baja de lo esperada y también hubo la presencia de sus productos de degradación como el metioninsulfóxido y metioninsulfona.

Por otro lado, en 1972, Miller y sus colaboradores observaron que las abundancias relativas de los aminoácidos generados mediante sus experimentos, eran bastante similares a los encontrados en meteoritos condritos carbonáceos, lo que indicaría que el mismo tipo de reacciones se pudieron haber dado en otras partes del universo, y estas serían las responsables de la presencia de moléculas orgánicas complejas en dichos meteoritos. En otras palabras, no sólo en la Tierra se pudo haber dado este fenómeno.

Sin dudas, los experimentos de Miller nos dan varios indicios del origen de las primeras sustancias orgánicas en nuestro planeta, siempre y cuando, la composición química de la atmósfera primitiva fue de esa manera. Además, gracias a las técnicas analíticas de la actualidad, las cuales tienen un poder de resolución de 10 órdenes de magnitud superior a los usados por Miller en los 1950’s, se ha podido demostrar la formación de todos los 20 aminoácidos esenciales a partir de un mundo abiótico.


Referencia:

ResearchBlogging.orgParker, E., Cleaves, H., Dworkin, J., Glavin, D., Callahan, M., Aubrey, A., Lazcano, A., & Bada, J. (2011). Primordial synthesis of amines and amino acids in a 1958 Miller H2S-rich spark discharge experiment Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1019191108

19 marzo, 2011

Una hormona femenina ayuda al espermatozoide a cumplir con su misión

No creo que sea fácil ser un espermatozoide. Simplemente, por el hecho de hacer un exhaustivo viaje desde la base del útero —donde es depositado durante el coito— hasta una de las trompas de Falopio, para poder fecundar al óvulo. El viaje esta lleno de obstáculos y, antes de poder entrar al óvulo, debe atravesar el cumulus ooforus, una delgada capa protectora compuesta de células granulosas y una matriz gelatinosa.

99792872

Por suerte, los espermatozoides reciben una ayuda inesperada. Las células que revisten el óvulo liberan progesterona, una hormona sexual femenina, la cual tiene la capacidad de inducir un movimiento frenético ondulatorio en la cola del espermatozoide, dándoles el impulso final para poder atravesar el cumulus ooforus y fertilizar el huevo. Pero, no se sabe exactamente como interactúa la progesterona con la cola del espermatozoide. Dos estudios publicados el esta semana en Nature nos dan la respuesta a esta interrogante. Además, estos descubrimientos podrán ser usados para el desarrollo de nuevos anticonceptivos.

Las células del cumulus ooforus sintetizan activamente la progesterona, alcanzando concentraciones sumamente elevadas. Hace unos 20 años, se reportó por primera vez la relación entre la progesterona y el ingreso de los iones de Calcio (Ca2+) a los espermatozoides. Además, los investigadores descubrieron que era sólo la progesterona y no otra hormona esteroidea la que tenía este efecto. Entonces, pudieron deducir que la progesterona podría jugar un papel importante en los eventos que dirigen la fertilización del óvulo.

Unos años después, se descubrió que la progesterona era responsable de movimientos asimétricos y frenéticos de la cola del espermatozoide, dándoles la fuerza necesaria para penetrar al óvulo. Por otro lado, el espermatozoide respondía ante la presencia de la progesterona de manera instantánea. Este tipo de respuestas instantáneas se da mediante vías de señalización celular que involucran la presencia de receptores ubicados en la superficie de la membrana celular. Sin embargo, este tipo de acción no es común en las hormonas esteroideas.

Las hormonas esteroideas tienen dos formas de realizar su acción: a través de la unión a receptores intracelulares ubicados en el núcleo, que permiten controlar la expresión de determinados genes; y a través de la unión a receptores no genómicos, posiblemente ubicados en la membrana celular, que controlan el funcionamiento de los canales iónicos, receptores acoplados a la proteína-G y vías de señalización que involucran proteínas kinasas. Pero, la forma como permiten el ingreso de Ca2+ a los espermatozoides, escapaba de todo modelo que trataba de caracterizarlo. Se debía tratar de una proteína exclusiva del espermatozoide que aún no había sido descubierta.

En el 2001, por fin se tuvo la respuesta a este misterio. Dos grupos de investigadores reportaron el descubrimiento de un canal catiónico permeable a  Ca2+ al cual llamaron CatSper. Los investigadores observaron que muchos ratones machos y hombres que eran infértiles tenían mutaciones asociadas al gen que codifica a CatSper. Los resultados fueron confirmados cuando se observó que los ratones a los cuales se les había quitado el gen para CatSper eran estériles.

Ahora, investigadores alemanes y estadounidenses usaron una novedosa técnica basada en unos diminutos electrodos, que es usada para medir el flujo de iones a través de la membrana celular de las neuronas, para medir el flujo de Ca+2 al interior de los espermatozoides. Usando esta técnica, los investigadores observaron que es un incremento en la alcalinidad del citoplasma la que activa los canales de Ca2+ permitiendo el ingreso de estos iones al interior de la cola del espermatozoide. Además, elucidaron el mecanismo de acción de la progesterona, cuyo efecto es similar al de la alcalinidad del citoplasma.

progesterone

Pero, ¿cómo se puede distinguir entre el efecto del pH y de la progesterona? Los mecanismos biofísicos de ambos procesos son indiferenciables. Para ello, Lisho et al. usaron esperma proveniente de la eyaculación de un hombre, posiblemente de un miembro del equipo de investigación, y le hicieron dos pruebas. En la primera, sometieron a los espermatozoides a un pH ligeramente alcalino (~7.35) usando para ello Hidróxido de Cesio (CsOH). Los investigadores observaron un incremento en el flujo de Ca2+ hacia el citoplasma (Figura 2 a y b, líneas azules). Pero, cuando sometieron a los espermatozoides a una solución de 500nM de progesterona, el flujo de Ca2+ se incrementó considerablemente (Figura 2 a y b, líneas rojas). De esta manera se concluyó que el efecto del pH y de la hormona actúan de manera sinérgica para promover el ingreso de Ca2+ al interior del flagelo para que puedan adquirir un movimiento más frenético y puedan fertilizar el óvulo. Extrañamente, en los ratones no se observaba ese efecto y el flujo de Ca2+ siempre era el mismo, en presencia o no de progesterona (Figura 2 c).

flagelo

[Click para agrandar]

Por otro lado, se probaron otras hormonas esteroideas para ver si tenían el mismo efecto. Por ejemplo, el estradiol, otra hormona sexual femenina, no tenía el mismo efecto que la progesterona, lo que indicaría que el canal CatSper es específico a un tipo de hormona que es liberado cerca del óvulo. Sin embargo, muchas prostaglandinas, si tenían el mismo efecto que la progesterona.

Pero, ¿que pasaría si inhibimos la función de la progesterona en CatSper? ¿se podría usar como un método anticonceptivo, tal vez uno de emergencia como la “pastilla del día siguiente”? Fue así que Strunker et al. midieron las concentraciones intracelulares de Ca2+ después de haber sido sometidos a compuestos que bloquean el canal CatSper.

Los investigadores usaron bloqueadores de canales de Calcio del tipo-T llamado NNC 55-0396 y otro llamado Mibefradil. Ambos compuestos reducían los niveles de Ca2+ intracelular a pesar de la presencia de la progesterona. Esto indicaría que los problemas de infertilidad masculina podrían deberse a la insensibilidad a la progesterona por parte de los espermatozoides. Aunque la otra posibilidad es que se deba a que los óvulos no producen suficiente progesterona como para que el espermatozoide pueda obtener el impulso necesario para entrar al huevo.

NNC55-0296

Además, Strunker et al. también determinaron que el mecanismo de acción de la progesterona no involucra la presencia del AMP cíclico ni de enzimas kinasa —moléculas que forman parte de muchos mecanismos de transducción de señales. La acción de la progesterona se da directamente sobre el canal CatSper, seguro esta proteína debe tener un lugar específico donde pueda unirse la hormona para que puede ejercer su efecto.

Sin dudas estos dos artículos nos han presentado grandes avances para entender como se da el proceso de fertilización del óvulo. Por otro lado, estos descubrimientos pueden ser usados para el desarrollo de nuevos fármacos anticonceptivos ya que los actuales se basan en hormonas, las cuales pueden causar efectos secundarios tales como la ganancia de peso, y no creo que alguna mujer desee eso. La acción de estos nuevos anticonceptivos sería el bloqueo de los canales CatSper evitando que el espermatozoide pueda atravesar el cumulos ooforus y fertilice el óvulo.


Referencias:

ResearchBlogging.orgPublicover S, & Barratt C (2011). Reproductive biology: Progesterone's gateway into sperm. Nature, 471 (7338), 313-4 PMID: 21412330

Strünker, T., Goodwin, N., Brenker, C., Kashikar, N., Weyand, I., Seifert, R., & Kaupp, U. (2011). The CatSper channel mediates progesterone-induced Ca2+ influx in human sperm Nature, 471 (7338), 382-386 DOI: 10.1038/nature09769

Lishko, P., Botchkina, I., & Kirichok, Y. (2011). Progesterone activates the principal Ca2+ channel of human sperm Nature, 471 (7338), 387-391 DOI: 10.1038/nature09767

18 marzo, 2011

Otras preguntas acerca del accidente nuclear de Japón…

Aquí hago una recopilación de las preguntas más importantes en torno al accidente nuclear de Japón, para poder despejar algunas de sus dudas y preocupaciones…

¿Qué impacto tendrá la radiación sobre la vida marina?

Bueno, los efectos no serían significativos si es que alguno de los elementos radiactivos desprendidos por la explosión, de cualquiera de los reactores, llega a caer al mar. En primer lugar, el Iodo-131 —por ser gaseoso— permanecerá en el aire, pero no ocurre lo mismo con el Cesio-137 (Cs-137) y el Estroncio-90 (Sr-90). El peligro de estos dos elementos se da cuando ingresan al organismo de un ser vivo.

El Cesio tiene una naturaleza química similar al Potasio ya que se encuentran en el mismo grupo (I-A). Entonces, si el Cs-137 entra al cuerpo de un animal, se comportará igual al K y será absorbido por los músculos, quienes lo usan como transmisor de los pulsos eléctricos para la contracción muscular. Los músculos empezarán a irradiarse y las células se dañarán.

Por otro lado, el Estroncio tiene una naturaleza química similar al Calcio por formar parte del mismo grupo (II-A); así que si el Sr-90 ingresa al cuerpo de un animal se depositará en los huesos, dañando la médula ósea, que es donde se forman todas las células de la sangre.

Por suerte los océanos están llenos de potasio y calcio —en forma de sales— reduciendo las probabilidades de capturar Cs-137 o Sr-90 por casualidad. Además, la cantidad de agua que hay en el Océano Pacífico es tan grande que estos elementos radiactivos estarán sumamente diluidos, reduciendo su peligrosidad.

El mayor problema ocurre cuando el Cs-137 y el Sr-90 contaminan los suelos o los pequeños reservorios de agua (lagunas, lagos y ríos), contaminando las plantas de las cuales se alimentan los animales de granja y los humanos. Una vez que estos elementos radiactivos entran al cuerpo de los animales, nosotros también nos contaminaremos a través de su carne o su leche.

Exactamente, ¿cuál es la tasa de dosis de radiación en la central nuclear de Fukushima Daiichi?

Esta ha sido una de las preguntas más confusas de todas, ya que en los medios de comunicación vemos valores de 400mSv/hr dentro de los reactores nucleares, 10mSv/hr en las compuertas, 850uSv/hr en otros lugares, 8uSv/hr a 20Km de distancia, etc. La tasa de dosis que debemos tomar en cuenta es aquella medida donde se encuentran los ingenieros y operarios que están tratando de controlar un desastre nuclear que parece inminente.

Aquí una interesante infografía elaborada por The New York Times que nos muestra —de manera actualizada— la tasa de dosis a las que están expuestos los trabajadores de la central nuclear:

0318-web-RADIATION

[Click para agrandar]

Si bien la tasa de dosis es relativamente alta, no corresponde a lo mencionado por los medios de comunicación. Los picos donde se elevó la tasa de dosis corresponden a las explosiones que se han venido dando en cada uno de los reactores a lo largo de la semana. Según el último reporte del Foro Industrial Atómico de Japón, la tasa de dosis en los límites de la centran nuclear es de 646.2uSv/hr.

Esta tasa de dosis es bastante alta. Recordemos que la dosis máxima que pueden recibir las personas que están tratando de controlar un desastre nuclear es de 100mSv. A partir de esta dosis absorbida se incrementan los riesgos de contraer cáncer en los próximos años. En otras palabras, los efectos de la radiación en los trabajadores no serán observados ahora, sino dentro de unos años.

A una tasa de dosis de 646.2uSv/hr, cada trabajador podrá permanecer en la central nuclear por 154 horas antes de alcanzar los 100mSv. En otras palabras, podrán trabajar casi 6.5 días continuos. He aquí la importancia que se hagan relevos, a parte para darles descanso, para reducir su exposición a la radiación.

Si una persona está trabajando dentro del reactor, donde la tasa de dosis es de 400mSv/hr, en 15 minutos alcanzará los 100mSv permitidos, en 2.5 horas sufrirá de un envenenamiento ligero por radiación, en 9 horas tiene un 50% de probabilidad de morir en un mes y en12.5 horas de todas maneras morirá en menos de 30 días. Por suerte, nadie trabaja dentro del reactor, sino en las salas de control donde las tasas de dosis son menores, pero aún así elevadas. Es por esta razón que nadie sabe a ciencia cierta cuan afectados se encuentran los tanques de contención debido a las explosiones.

Más información sobre las medidas de tasa de dosis (mSv, uSv, Sv, etc.) Parte I y Parte II.

¿Cuánto combustible nuclear hay en la central nuclear de Fukushima Daiichi?

Mucho, claro que dividido en sus 6 reactores. En total todo el complejo posee 1,760 toneladas métricas de combustible nuclear, tanto intacto como gastado. El reactor #3 —el más dañado de todos— tiene 90 toneladas de combustible nuclear; mientras que la piscina de almacenamiento del reactor #4, el cual ha perdido casi todo el agua del tanque donde se encuentra el núcleo, tiene 135 toneladas de combustible consumido, principalmente en forma de Plutonio.

Comparado con el que había en otros reactores que también sufrieron accidentes nucleares, el de Three Mile Island, Estados Unidos, tenía 30 toneladas de combustible nuclear que se derritieron por completo. Por otro lado, el reactor nuclear que explotó en Cernóbil tenía 180 toneladas de combustible nuclear.

¿Qué se pudo aprender del accidente nuclear de Chernóbil?

Primero, que los niños fueron los más perjudicados reportándose cerca de 6000 casos de cáncer de tiroides, entre los años 1991 y 2005, debido a los efectos del Iodo-131. El Iodo tiene una gran afinidad por la tiroides, es por esta razón que el gobierno japonés repartió miles de pastillas de ioduro de potasio (KI) a los pobladores que vivían cerca a la central nuclear de Fukushima Daiichi, esto para que la tiroides se sature con Iodo normal y el Iodo radiactivo ya no tenga donde unirse y sea eliminado del cuerpo.

Sin embargo, el momento en que se toman las pastillas de ioduro de potasio es crítico. Por ejemplo, si son tomadas un días antes de la exposición al Iodo radiactivo, la efectividad será del 80%; si son tomadas durante el momento de la exposición, la efectividad será del 100%; sin embargo, si son tomadas 8 horas después de la exposición, su efectividad se reduce al 30%. En niños y madres gestantes, el riesgo de contraer cáncer de tiroides es mayor que en adultos, así que muchas veces ya no es necesario que personas mayores de 20 años tomen las pastillas de KI.

Pero, el Iodo radiactivo también puede contaminar los pastizales de los cuales se alimentan las vacas, dando como producto leche contaminada con Iodo-131. Una forma de evitar esto es llevando a pastear a las vacas a otras regiones libres de contaminación o almacenando los productos lácteos por unos 80 días —10 veces el tiempo de vida media del Iodo-131 (8 días)— para que los niveles de Iodo radiactivo sean prácticamente cero.

El principal problema radica en el Cesio-137, el cual entra fácilmente en la cadena alimenticia y tiene un tiempo de vida media de 30 años. En Chernóbil el Cesio-137 entró a la cadena alimenticia a través de los suelos donde crecían las plantas, y los animales de granja que comían estas plantas contaminadas. Una solución es quitar, por lo menos, de medio metro a un metro de la superficie del suelo para eliminar el Cesio-137 de las tierras de cultivo.

Si el Cs-137 ingresa al cuerpo, puede permanecer hasta por dos meses, irradiando nuestros huesos y la médula ósea, afectando la regeneración de las células de nuestra sangre, provocando anemias y debilitando el sistema inmune. También existe un método para eliminar el Cesio radiactivo usando un pigmento llamado azul de Prusia. Esta sustancia se une al Cesio facilitando su eliminación.

Para terminar, la principal diferencia entre el accidente de Chernóbil y el de Fukushima es que, en el primero, el reactor estaba funcionando a máxima potencia; mientras que en el segundo, el reactor se apagó cuando se cortó el fluido de energía eléctrica debido al terremoto y tsunami. El accidente de Chernóbil no pudo ser controlado, ya que cuando vieron que las cosas andaban mal ya era demasiado tarde, a los pocos minutos explotó el reactor.

Vía | Science Insider.

17 marzo, 2011

Errores del cuerpo humano

Un interesante thriller psicológico se viene filmando en Alemania que trata de la historia de un científico canadiense, el Dr. Geoff Burton, quien toma el puesto en un instituto de investigación encargado de encontrar el gen que permita regenerar cualquier parte de nuestro cuerpo, tal como lo pueden hacer las salamandras. Sin embargo, lo que busca este científico es la redención de un pasado inquietante, dentro del misterioso mundo de la ingeniería genética.

Bueno, tal vez no sea una película que arrase con las taquillas; pero, para uno que disfruta de ver películas relacionadas con la ciencia, pero que tengan validez científica, será muy entretenida ya que para su desarrollo se ha tenido la colaboración del prestigioso Instituto Max Plank de Biología Molecular, Celular y Genética, ubicado en Dresden, Alemania. Muchas escenas de la película serán grabadas en dicho instituto.

Esperemos que llegue a nuestras carteleras, sino, caballero, tendremos que buscar el DVD en “El Hueco”.

Vía | Errors of Human Body. Facebook | fb.com/InstinctiveFilm

16 marzo, 2011

¿Qué significan los milisievert, microsievert, rads, etc. cuando hablan de radiación? (Parte II)

(Lee la primera parte…)

Por otro lado, la radiación es más o menos dañina dependiendo del tipo de células o tejidos. Cada órgano o tejido de nuestro cuerpo tiene otro factor de ponderación, del cual obtendremos la dosis efectiva. Los órganos más radiosensibles son las gónadas y el cristalino, con factores de ponderación de 0.2; mientras que los más radioresistentes son la piel y la superficie ósea, con factores de ponderación de 0.01. Así que si uno absorbe100mSv de radiación, la radiación absorbida por las gónadas (ovarios o testículos) será de 20mSv, por eso es que es probable que cause esterilidad. Cómo la médula ósea también es afectada, los glóbulos blancos reducen su número, volviéndonos más propensos a infecciones.

Ahora que sabemos lo que son los Sv, también entenderemos lo que son los miliSievert (1mSv = 0.001Sv) y los microSievert (1uSv = 0.001mSv). Pero, no tiene sentido hablar directamente de Sieverts cuando hablamos del accidente nuclear de Fukushima.

Para saber cuanto es la dosis absorbida por una persona, digamos un operario de la centra nuclear, debemos hablar de tasa de dosis, que equivale a la cantidad de dosis absorbida por una persona en un determinado periodo de tiempo, o sea, el número de sieverts por hora (Sv/hr). Según los reportes de las agencias japonesas, la tasa de dosis dentro de uno de los reactores es de —o llegó a picos de— 400mSv/hr. Esto quiere decir que en una hora, una persona absorberá 400mSv, si son rayos gamma, absorberá 0.4J de energía por kilogramo.

Existen niveles de dosis absorbida establecidos para cada tipo de personas. Las personas normales, aquellas que no trabajan en una central nuclear, ni en un hospital en el área de radiología o en el de medicina nuclear, tienen un límite de absorción de dosis de 1mSv por año. Aunque en algunas regiones puede ser mayor, siendo el promedio mundial de 2.4mSv al año, debido a las fuentes de radiación natural. Sin embargo, un trabajador expuesto a las radiaciones ionizantes tiene un límite de dosis absorbida de 50mSv al año (50 veces más que una persona normal), pero no se debe exceder de los 100mSv en 5 años. Para evitar llegar a este valor, muchos centros nucleares establecen como límite máximo 20mSv al año.

radiation_exposure

[Click para agrandar]

Entonces, haciendo unos cálculos. Digamos un operario trabaja en una central nuclear de lunes a viernes durante 50 semanas al año. Entonces, el operario trabajará 250 días al año. Si el límite de dosis absorbida es de 20mSv, el límite de dosis diario será de 80uSv. Si el límite es 50mSv al año, el límite diario será de 200uSv.

Pero, ¿que pasa en la central nuclear de Fukushima? Los niveles de radiación son tan altos que la tasa de dosis llegó ha ser de 400mSv/hr el día de hoy por la mañana (hora de Japón). Si un trabajador fue expuesto a esta radiación por una hora, habrá superado en 8 veces la dosis anual máxima. Sin embargo, esta tasa de dosis se obtuvo en el recinto donde se encuentra el núcleo del reactor, pero los operarios trabajan en la sala de control, el cual se encuentra en una zona segura, con tasas de dosis menores, pero igual altas.

Los efectos de la radiación se empiezan a observar a partir de los 500mSv. En este nivel empiezan los dolores de cabeza, la preponderancia a las infecciones y hasta una posible esterilidad. De 1 a 2Sv ya viene un ligero envenenamiento que puede llevar a la muerte al 10% de las personas irradiadas en menos de 30 días (DL 10/30). De 2 a 3Sv ya viene un envenenamiento más agudo, con vómitos y nauseas, el DL es de 35/30. Con 3.5Sv se alcanza el DL 50/30 (letalidad del 50%) y con 5Sv se alcanza el 100/30 (letalidad del 100%).

Hablando de tasas de dosis reales, por ahora no hay mucho que temer. Si bien los niveles se han incrementado en las últimas horas, aún no llegan a alcanzar niveles perjudiciales para la salud. En Tokio, el día de ayer la tasa de dosis fue de 0.144uSv/hr, unas 70,000 veces menos a la tasa de dosis cerca a los reactores, donde la dosis alcanza los 10mSv/hr. Para experimentar algún tipo de efecto en la salud, o aumentar las probabilidades de contraer cáncer, la dosis absorbida deberá llegar a unos 100mSv en un año, entonces, basta con estar 10 horas cerca al reactor nuclear, como los operarios y trabajadores de la central nuclear; o vivir en Tokio —con la tasa de dosis actual— unas 700,000 horas (aprox. 80 años).

Por otro lado, se ha evacuado a la gente que vive a unos 30Km de la central nuclear para evitar que se expongan a la radiación. Según las mediciones hechas a 25Km de la central nuclear, la tasa de dosis alcanza valores de 8uSv/hr, lo cual es relativamente alto, pero no mucho como para ejercer daño alguno, aunque si se permanecería en la zona durante un año, la dosis absorbida llegaría hasta unos 700mSv, 14 veces más del límite máximo anual de un trabajador laboralmente expuesto.

Sin embargo, estas tasas de dosis no se mantienen por siempre, a medida que pasa el tiempo y los elementos radiactivos como el Iodo-131 decaen —reduciéndose a la mitad cada 8 días— la tasa de dosis se reduce. Pero, el problema radica en que otros elementos radiactivos como el Cesio-137, que en su forma de sal (Cl3Cs) es sumamente soluble en agua, y como su tiempo de vida media es 30 años, pueden contaminar los suelos, el agua y los alimentos por mucho tiempo, contaminando también a las personas que los ingieren y generándoles problemas a largo plazo.

Bueno, para terminar, por ahora no hay riesgo para la salud de las personas que se encuentren a más de 30Km de distancia de la central nuclear de Fukushima; y mucho menos para las personas que vivan fuera de Japón. Sin embargo, ante la amenaza latente de la explosión de las cúpulas de contención o de los núcleos del reactor, y la liberación de sustancias radiactivas al ambiente, no se pueden bajar los brazos, debe controlarse a como de lugar el aumento de temperatura de los núcleos de cada reactor, una tarea que se ha dificultado bastante debida a la alta tasa de dosis. Sin dudas, los trabajadores, operarios e ingenieros que se encuentran tratando de controlar un mayor desastre, sufrirán las consecuencias de la dosis absorbida más adelante, pero lamentablemente ese es el riesgo que se corre al trabajar en un lugar así.

Por otro lado, no hay que tener miedo a la energía nuclear, sin dudas es una buena forma de producir energía eléctrica. Las centrales nucleares de la actualidad están diseñadas para soportar peores catástrofes, lamentablemente, la central nuclear de Fukushima Daiichi ya era obsoleta, ya que fue construida durante los años 70’s, con más de 30 años de servicio.

LinkWithin

Related Posts Plugin for WordPress, Blogger...