La Bionanotecnología y sus conceptos

El vertiginoso desarrollo de la ciencia ha logrado avances impresionantes que necesitan ser divulgados entre la sociedad. Entre las nuevas fascinaciones de las mujeres y hombres de ciencia se encuentra la Bionanotecnología o también llamada Ingeniería Biomolecular, que destaca tanto por sus aportaciones a la ciencia e incidencia en el desarrollo tecnológico como por su carácter altamente interdisciplinario y polifacético donde convergen diferentes enfoques provenientes de la biología, química, física e ingeniería.

¿Qué es la bionanotecnología?

La bionanotecnología se origina de la fusión entre la nanotecnología y la biotecnología. Por un lado, la nanotecnología es la construcción y modelaje de la materia manipulando átomo por átomo aplicada en la ingeniería y manufactura a escala nanométrica. Por el otro, la biotecnología aprovecha diversas funcionalidades derivadas de procesos biológicos para aplicaciones específicas sin que importen los detalles moleculares y atómicos de las biomoléculas que llevan a cabo dichos procesos. Con base en ello, la bionanotecnología se define como la ingeniería y manufactura aplicada al diseño y modificación de los detalles atómicos de maquinarias y dispositivos moleculares basados en biomoléculas (ácido desoxirribonucleico -ADN-, proteínas, lípidos y carbohidratos) para que lleven a cabo funciones especificas a nivel nanométrico construidos mediante ensambladores biomoleculares. El rápido avance científico hace que el ámbito de influencia de la bionanotecnología aun se esté definiendo.

Para tener idea de las dimensiones de dichas máquinas es necesario decir que un nanómetro es la milmillonésima parte de un metro, o bien en nuestro mundo macroscópico equivaldría a comparar una moneda con el ¡diámetro de la tierra! La capacidad de visualización y manipulación de diminutos átomos y moléculas se logra con instrumentos y técnicas sofisticadas y refinadas de microscopía, cristalografía, espectroscopia y modelaje en computadora.

Las biomoléculas son las protagonistas

Las biomoléculas son los componentes de la célula desarrollados y optimizados a través de millones de años de evolución natural que mantienen la vida celular llevando a cabo todas las funciones necesarias para su crecimiento, sobrevivencia y reproducción.

A pesar de que la célula es un sistema altamente complejo, base de la vida, se puede hacer una analogía (muy pobre, pero muy efectiva) con una máquina o un sistema compuesto de varias máquinas. Por ejemplo, el flagelo bacteriano y el complejo ATP sintasa funcionan esencialmente como motores generando movimiento mecánico alrededor de un eje y bombeando protones, mientras que la miosina realiza la contracción muscular; los anticuerpos y receptores de membrana detectan diversas moléculas por lo que son sensores; la actina y los microtúbulos son vigas y soportes, las enzimas son herramientas reparadoras y constructoras, los ribosomas son los ensambladores que construyen nuevas máquinas proteínicas en líneas de producción, el ADN es el control numérico, los lípidos forman vesículas contenedoras y la membrana lipídica que rodea la célula tal como si fuera una carcasa, etcétera. Todas estas entidades biológicas son delicadas moléculas de tamaño nanométrico con propiedades basadas principalmente en la química y debido a que en esencia realizan funciones de máquinas con precisión atómica también pueden ser caracterizadas y optimizadas con enfoques de la física y la ingeniería.

La célula crea las biomoléculas

Debido a que las biomoléculas son productos exclusivos del metabolismo celular, el desarrollo de la biología molecular en las últimas décadas ha sido de gran ayuda para la bionanotecnología permitiendo conocer los detalles de los mecanismos de muchas de estas “nanomáquinas”.

De inmensa importancia ha sido el desarrollo de la tecnología del ADN recombinante en la expansión de la bionanotecnología ya que ha permitido modificar y producir en gran escala de forma barata y rápida las “bionanomáquinas” y biomateriales necesarios para la bionanotecnología. Como el ADN posee toda la información necesaria para generar una proteína funcional (la gran mayoría de las “bionanomáquinas” están compuestas de proteína), es decir, contiene secuencias de ácidos nucleicos que codifican para los aminoácidos de una proteína, solo basta alterar y editar las secuencias del ADN para modificar una proteína particular con precisión atómica y así optimizar su funcionamiento y propiedades o generar nuevas y novedosas máquinas de proteína, las cuales son producidas en gran cantidad a partir de substratos baratos al crecer la célula con el gen en particular. La capacidad de manipular la célula es sin duda un cambio de paradigma que ha revolucionado tanto la ciencia como la forma en que vemos al mundo.

La Bionanotecnología trabaja interdisciplinariamente

Además de optimizar y modificar las biomoléculas a escala nanométrica para aplicaciones específicas, la bionanotecnología se ha adentrado en nuevos caminos y consolidado como un área altamente interdisciplinaria. Fusionándose con la ciencia de materiales ha desarrollado novedosos materiales híbridos entre compuestos inorgánicos y bioorgánicos, superando así la tradicional separación entre estos dos tipos de materia y borrando las fronteras entre la materia viva e inanimada.

Esta área usa proteínas y ácidos nucleicos como unidades programables de reconocimiento molecular, las cuales son acopladas (ligadas químicamente) a nanopartículas inorgánicas con propiedades ópticas, electrónicas y catalíticas diversas e interesantes, útiles para elaborar materiales y dispositivos inteligentes basados en compuestos híbridos que se auto-ensamblan en complejos supramoleculares nanométricos usados en aplicaciones bioanalíticas y biomédicas para diagnóstico, visualización y tratamiento de enfermedades y también para computación, electrónica, óptica y manufactura molecular.

Borrando Fronteras entre la Materia

El punto cardinal en la Bionanotecnología es la materia y la disolución de la frontera bioorgánica/inorgánica. Objetos vivos e inanimados están hechos por átomos. Las propiedades de la materia cambian de acuerdo con el patrón en que estén ordenados y enlazados los diferentes átomos que la componen: carbón y diamante, arena y chips de computadora, cáncer y tejido sano, tienen cierta disposición que hace la diferencia entre lo enfermo de lo sano y lo barato de lo valioso, tal como dice el apóstol de la nanotecnología, Erik Drexler en su famoso libro Máquinas de creación.

Hemos entrado en la era conjunta de la manipulación atómica y genética. Hay muchos riesgos pero también mucho potencial, que bien balanceado y en un ambiente democrático puede ser aprovechado para atender problemáticas específicas dentro del contexto mexicano.

Así, los bionanotecnólogos han creado nuevos horizontes en la ciencia, han descubierto excitantes áreas de desarrollo tecnológico y científico, novedosas e inéditas aplicaciones de las biomoléculas y han generado hitos de interdisciplinariedad al asociar disciplinas comúnmente separadas. La pregunta es, parafraseando al Nobel Richard Feynman en su discurso inaugural de la nanotecnología, ¿habrá suficiente espacio en el fondo de nuestra mente para apoyar la bionanotecnología en México?

Escrito por Armando Hernández y publicado originalmente en su blog acerca de bionanotecnología

[hozbreak]

Acerca del autor

Armando Hernández García es Químico de Alimentos egresado de la UNAM. Obtuvo el doctorado en la Universidad de Wageningen, Holanda y actualmente realiza un postdoctorado en la Universidad de Northwestern en Chicago. Su investigación se ha enfocado a entender y controlar los principios que subyacen la formación de nanoestructuras funcionales con proteínas y su posible aplicación biomédica. Contacto: armaquim@gmail.com y blog: http://bionanotecnologias.blogspot.com.

GIFs de tus huesos en movimiento.

manoMientras escribimos en el teclado de nuestra computadora, nuestras manos y muñecas, con sus cincuenta y cuatro huesos, no se detienen. Cuando te de hambre y tengas ir a prepararte algo de comer, tus pies te moverán a la cocina con sus veintiséis huesos. Y mientras éstos se mantienen unidos y en locomoción por articulaciones móviles, hay otros que están juntos por articulaciones que no se mueven -como las de nuestro cráneo-. Con estos GIFs, realizados por Cameron Drake a petición del cirujano ortopedista Noah Weiss, podrán observar cómo se ven nuestros huesos en movimiento. Y en esta página puedes ver más videos.

Fuentes:

Nota original en el Blog de Historias Cienciacionales

Argumentos, datos y posturas sobre cómo conservar la biodiversidad del Nevado de Toluca

Colaboración de Alicia Mastretta Yanes, Renata Cao, Sergio Nicasio Arzeta, Paulo Quadri, Tania Escalante Espinosa, Libertad Arredondo y Daniel Piñero

En esta entrada resumimos cuáles han sido las diferentes posturas desde el punto de vista de la biología y del manejo de recursos naturales en uno de los sucesos más importantes que la política de la conservación mexicana ha visto: por decreto presidencial, el 1ro de octubre del 2013, el Nevado de Toluca dejó de ser un Parque Nacional y pasó a ser un Área de Protección de Flora y Fauna. Planteamos también por qué un correcto diagnóstico ambiental es indispensable y cómo, como científicos y sociedad, debemos proponer mejores opciones de manejo a las autoridades.

Quienes promovieron el cambio de categoría y realizaron el estudio previo justificativo se sustentan en el siguiente argumento: por definición, los parques nacionales deben ser propiedad de la nación, sin embargo, el Nevado de Toluca y muchos otros parques nacionales del país pertenecen a ejidos y propietarios privados; estas condiciones incapacitan a los dueños de la tierra para un sustento económico de manera legal, por lo que recurren a la tala ilegal y a actividades agropecuarias que no se encuentran permitidas. Lo anterior, argumentan, ha llevado al deterioro ambiental del Nevado de Toluca a grado tal que la conservación de su biodiversidad se encuentra en grave riesgo.

Esta es una postura compartida entre el Dr. Gerardo Ceballos del Instituto de Ecología de la UNAM, el PROESNEVADO (un programa especial del gobierno del Estado de México) y un grupo de forestales de la Universidad Autónoma del Estado de México. Puede consultarse más en extenso en un artículo de divulgación científica que el Dr. Ceballos escribió para la revista Oikos del Instituto de Ecología de la UNAM.

Por otro lado, preocupados porque el cambio de categoría lograra conservar la biodiversidad del Nevado de Toluca y los servicios ambientales que nos brinda, un grupo de biólogos y geólogos de diversas instituciones nacionales (UNAM, INECOL, entre otros) y extranjeras (University of East Anglia, University of California Santa Cruz e IPNA-CSIC), entre los que nos encontramos la Biól. Alicia Mastretta Yanes, el Dr. Daniel Piñero, la Mtra. Libertad Arredondo, el Mtro. Paulo Quadri, la Dra. Tania Escalante y 30 científicos más, decidimos revisar el programa de manejo de la ahora Área de Protección de Flora y Fauna Nevado de Toluca.

El programa de manejo es el documento que dicta y regula las actividades y su ubicación dentro del territorio del Área Natural Protegida y con qué acciones la Comisión Nacional de Áreas Naturales Protegidas (CONANP) garantizará la conservación de su biodiversidad. Tras revisar los artículos científicos citados por el programa de manejo y por el estudio previo justificativo, y después de realizar nuevos análisis, concluimos que el proceso de recategorización y el borrador del programa de manejo tienen vacíos de información y datos o interpretaciones incorrectas, tanto desde el punto vista ambiental, como socioeconómico y de política pública.

Por ejemplo, el deterioro del área natural protegida no es homogéneo ni responde a las mismas causas que hace 40 años (Figura 1). Además, la tasa de deforestación planteada en el programa de manejo está sobrestimada y en realidad se refiere a la pérdida de densidad arbórea (detalle en este link). Todo lo cual oculta el hecho de que no todos los tipos de bosque se encuentran afectados. En el mismo número de la revista Oikos, hemos publicado un artículo de divulgación donde resumimos el resultado de estos y otros análisis.

CambiosNevadodeToluca

El área abierta a la agricultura (amarillo) en el Nevado de Toluca no aumentó de 1972 al 2012 y los bosques de oyamel (verde oscuro) y latifoliadas (marrón) no disminuyeron en densidad ni en cobertura. Las imágenes satelitales de 1986 y del 2012 están disponibles en Google Timelapse y el artículo de Franco et al. 2006 aquí (parte A) y aquí (parte B).

 

Hemos insistido mucho en los problemas técnicos con los datos del estudio previo justificativo y del programa de manejo porque es con ellos que se realizó el diagnóstico ambiental y con los que se está fundamentando cómo manejar al Nevado de Toluca. En otras palabras, al igual que con una enfermedad humana, si el diagnóstico es incorrecto el tratamiento también lo será y perjudicará en vez de beneficiar. La labor del médico que lo descubra es informarlo y empezar cuanto antes con el tratamiento que sí sea adecuado.

En el caso del Nevado de Toluca, lo preocupante es que no existe evidencia de que las actividades y zonificación propuestas por el borrador del programa de manejo del 2013 (y de su nueva versión al 2014), crearán las condiciones socio-ambientales necesarias para conservar al Nevado de Toluca y para mejorar la calidad de vida de sus habitantes. El manejo que tendría el Área Natural Protegida no está diseñado para favorecer la conservación de su biodiversidad y la restauración de los bosques que se encuentran degradados, sino que favorece que los bosques que sí están conservados sean abiertos a la explotación forestal.

Lo que los proponentes del cambio de categoría están haciendo es promover una visión de explotación de los recursos naturales en lugar de una de conservación y manejo con bases ecológicas y de visión sistémica. Este cambio de paradigma pone en gravísimo riesgo la conservación de la biodiversidad, los servicios ambientales que nos brinda el Nevado de Toluca y no garantiza beneficios sociales para los pobladores locales.

Nuestro involucramiento con la CONANP empezó en noviembre del 2013 en respuesta a la consulta pública sobre el borrador del programa de manejo del 2013. En los subsecuentes nueve meses realizamos una serie de propuestas para mejorarlo, principalmente en torno a la Subzonificación. El 1ro de agosto del 2014, la CONANP puso a consulta pública la segunda versión del borrador del programa de manejo. Dicha versión modificó nuestras propuestas sin brindarnos argumentos técnicos sólidos que lo justificaran.

Actualmente, la consulta pública de la segunda versión está abierta a revisión, es por eso que invitamos a los interesados a consultarla y realizar recomendaciones.

La obligación de las autoridades es atender las observaciones de la ciudadanía y la comunidad científica, pues cualquier argumento para modificar los instrumentos regulatorios de un área natural protegida debe realizarse con datos fidedignos y poder sostenerse ante una evaluación estricta y crítica. De forma subsecuente, la CONANP debe garantizar que el manejo de un área natural protegida afectada por dichos cambios se hará en pro de la conservación y del bien común.

[hozbreak]

La foto del Nevado de Toluca al inicio de esta entrada fue tomada por Benjamin Bernal.

[hozbreak]

Acerca de los autores

A. Mastretta Yanes es bióloga egresada de la UNAM. Del 2007 al 2010 trabajó en proyectos de manejo sustentable de recursos naturales y pago por servicios ambientales. Actualmente realiza su doctorado en la University of East Anglia, Inglaterra. Su proyecto estudia el efecto de los cambios climáticos históricos en la distribución de la diversidad genética en plantas de las montañas más altas del centro de México.

R. Cao es bióloga egresada de la UNAM. Del 2011 al 2013 trabajó en proyectos de conservación y manejo sustentable de los recursos naturales en la Selva Lacandona. Este año egresó de la Maestría en Gestión Ambiental, Conservación y Manejo Sustentable de Recursos Naturales por la Universidad de Queensland, Australia, en donde enfocó sus estudios al manejo y gestión de Áreas Naturales Protegidas.

S. Nicasio Arzeta es biólogo egresado de la UNAM. Desde 2011 es estudiante de doctorado en el Centro de Investigaciones en Ecosistemas en Morelia. Su proyecto consiste en evaluar el potencial del territorio con actividades humanas para mantener la conectividad del paisaje de mamíferos terrestres y plántulas de árboles dentro de fragmentos de bosque tropical húmedo en la Selva Lacandona.

P. Quadri estudió comunicación en la Universidad de las Américas Puebla. Del 2007 al 2010 trabajó en la CONANP. Es maestro en estudios ambientales por la Universidad de Yale en los Estados Unidos. Actualmente es estudiante de doctorado en el departamento de Estudios Ambientales de la Universidad de California, donde investiga las relaciones entre cambios en la cobertura y uso del suelo, microclimas y el funcionamiento de las comunidades y ecosistemas en bosques del centro de México.

T. Escalante Espinosa realizó sus estudios de doctorado y posdoctorado en la UNAM. Actualmente es profesora Titular A de tiempo completo en la Facultad de Ciencias de la UNAM en el grupo de trabajo de Biogeografía de la Conservación, del Departamento de Biología Evolutiva. Sus líneas de investigación son la biogeografía, la biología de la conservación, la distribución de la biodiversidad y la mastozoología.

L. Arredondo-Amezcua es Maestra en Ciencias por el Centro de Investigaciones en Ecosistemas de la UNAM. Actualmente trabaja como técnico externo para el proyecto de la Flora alpina del centro de México, para el Instituto de Ecología A.C. – Centro Regional del Bajío; cuyo objetivo es inventariar la diversidad florística de los pastizales alpinos de los volcanes más altos de la Faja Volcánica Transmexicana, así como su estado de conservación.

D. Piñero es investigador del Instituto de Ecología de la UNAM. Dirige proyectos sobre genética de poblaciones de plantas, en particular de filogeografía y estructura genética en especies mexicanas.

A sudar para poner tu celular a cargar

sudar La abuela del primo de un amigo dice que hacerse un tatuaje es como ponerle una calcomanía a un Ferrari. Pero ¿qué cara pondría la abuela si supiera que puede cargar la batería de pequeños dispositivos electrónicos con uno de ellos?

Gracias a un tatuaje temporal es posible generar energía eléctrica a partir de la transpiración de nuestro cuerpo. Esto es así porque cuando realizamos actividad física, nuestro cuerpo activa un proceso que se llama glicolisis. Así, rompe la glucosa que hay en nuestra sangre y produce energía. Como resultado, se genera una sustancia llamada lactato, misma que se mantiene en la sangre y en el sudor. El tatuaje utiliza este lactato y lo transforma en energía eléctrica.

Este tatuaje temporal es resultado del desarrollo de dispositivos para medir el lactato del cuerpo, una práctica muy común, pero intrusiva y tediosa porque se necesita colectar sangre en diferentes momentos durante el ejercicio. Entonces, los atletas profesionales que monitorean sus niveles de lactato para evaluar sus programas de entrenamiento, y los médicos que lo hacen en pacientes que presentan padecimientos de corazón y pulmones, deben tomar muestras de sangre cada determinado tiempo.

En cambio, este tatuaje contiene un sensor flexible con una molécula que le quita los electrones al lactato y así, además de generar la electricidad, permite conocer los niveles de lactato.

Hasta ahora, la electricidad generada es muy débil como para poder alimentar un reloj de pulsera, pero los autores del trabajo perfeccionarán el diseño para que pueda ser utilizado en aparatos electrónicos. ----------------------

Bibliografía:

Nota fuente en ScienceArtículo original en Agewandte Chemie|Nota original en el Blog de Historias Cienciacionales

 

Tu bloqueador solar contamina el agua de mar
.

sunblock"Playa" es una de las primeras palabras que vienen a la mente cuando uno huele crema bloqueadora. Su uso protege nuestra piel de los rayos del Sol. Pero cuando nos metemos al mar, la crema se lava con las olas, y se queda en el agua. Aunque esto es aparentemente inofensivo, algunos de los ingredientes son tóxicos para los habitantes del mar.

Son las partículas del dióxido de titanio y el óxido de zinc presentes en el bloqueador solar que, al reaccionar con los rayos ultravioleta, forman agua oxigenada (peróxido de hidrógeno).

En grandes cantidades, el agua oxigenada daña al fitoplancton, las algas microscópicas de las que muchos animales, desde peces pequeños, hasta enormes ballenas, se alimentan.

Para llegar a esta conclusión, un grupo de investigadores españoles recolectaron muestras de agua de mar en las playas de las islas de Mallorca. El análisis mostró que los ingredientes del bloqueador solar son los principales responsables por el incremento en los niveles de peróxido de hidrógeno en las aguas costeras durante el verano.

El estudio muestra que la presencia del agua oxigenada en el mar en altas concentraciones a causa de nuestros bloqueadores solares tiene consecuencias peligrosas para la vida marina y para el ecosistema acuático.

Fuentes:

Artículo original | Nota de la Sociedad Estadounidense de Química | Imagen tomada de Pinterest | Nota original en el Blog de Historias Cienciacionales.

Epistemología: filosofía de/en/desde/con/para la ciencia

En su célebre conferencia de 1957 (convertida después en el último capítulo del libro La ciencia, su método y su filosofía) titulada "Filosofar científicamente y encarar la ciencia filosóficamente", el epistemólogo Mario Bunge le cuenta a sus alumnos (tanto de aquel tiempo como los que ahora lo leemos) la necesidad urgente de generar epistemólogos de primer nivel en Latinoamérica, con el fin de incrementar la difusión y el estudio de los fundamentos de la ciencia, y con ello ofrecer a la sociedad una serie de expertos que estén capacitados para analizar, debatir y proponer soluciones a los problemas filosóficos que se derivan de la actividad científica. Bunge nos habla de revitalizar la carrera de filosofía, la cual parece que prepara más especialistas en filosofía antigua y medieval, que filósofos propiamente dichos. También denuncia la falta de cultura científica de los especialistas en filosofía y la ignorancia filosófica de los científicos profesionales. Si esta situación sigue así, comentaba Bunge en el 57 aunque el problema aún continúa hasta hoy, estamos condenados a seguir viendo esa separación abismal entre ciencia y filosofía, con especialistas de ambas áreas despreciándose unos a otros.

Una de las áreas que une la rigurosidad y el respeto por los hechos que muestra toda ciencia, y el análisis lógico de conceptos y la formalización de la filosofía exacta, es la epistemología. Pero, ¿qué es la epistemología? El concepto puede causar cierta confusión ya que más de un libro lo utiliza como sinónimo de gnoseología o teoría del conocimiento. Pero esta confusión es innecesaria y puede evitarse si se define de forma clara el área de la epistemología.

Puede decirse entonces, por un lado, que la gnoseología es la rama de la filosofía que se ocupa del estudio de los principios del conocimiento. El conjunto de cuestiones, debates y respuestas sobre ¿qué es el conocimiento?, ¿qué podemos llegar a conocer?, ¿cómo conocemos? entre otras cuestiones, forman parte de la gnoseología. Esta área se ha visto enriquecida sobre todo gracias a las ciencias cognitivas que nos ofrecen respuestas a muchas de estas preguntas, generando nuevas cuestiones. Desde luego, el que la ciencia cognitiva nos ayude a resolver problemas gnoseológicos no significa que la gnoseología se quede sin campo de estudio; las ciencias cognitivas también presentan un fondo gnoseológico en el cual apoyan sus nuevas hipótesis. No podemos saber si algún día la gnoseología acabará siendo una ciencia cognitiva más, adquiriendo independencia de la filosofía; lo que sí sabemos, es que la gnoseología representa la cuna de una serie de problemas fascinantes sobre nuestra relación (como sujetos) con el universo (como objeto de estudio).

Pero la epistemología no se ocupa de problematizar sobre los problemas del conocimiento, así, de forma general. Tal vez podríamos ver a la epistemología como "gnoseología especializada", pues se enfoca en problematizar sobre un tipo de conocimiento muy especial: el conocimiento científico. La epistemología es el mejor ejemplo de un enlace de filosofía y ciencia.

La epistemología busca debatir y proponer respuestas a preguntas como ¿qué es el conocimiento científico?, ¿cuáles son los principios filosóficos presupuestos en la investigación científica?, ¿qué es el método científico?, ¿existe "el" método científico como un proceso lineal e inmutable?, ¿cuáles son las diferencias entre ciencia, semiciencia, protociencia y pseudociencia?, ¿son lo mismo ciencia y tecnología?, ¿la ciencia presupone la realidad autónoma y la legalidad del mundo?, ¿cómo se relacionan las teorías científicas con la realidad y la experiencia?, ¿la ciencia puede ir más allá de los fenómenos y la relación entre éstos?, ¿es posible describir las cosas reales con minuciosidad y una precisión perfecta?, ¿qué son las leyes y las explicaciones científicas?, ¿qué función desempeñan las matemáticas en las ciencias factuales?, ¿la filosofía puede desempeñar una función constructiva en la investigación científica?, ¿la ciencia está moralmente comprometida?, ¿existen límites al avance de la ciencia? Cuestionarse sobre los principios, fines y la naturaleza de la ciencia es el primer paso para hacer epistemología.

Mario Bunge enfatiza en esto al decirnos que la epistemología es pues, la filosofía de, en, desde, con y para la ciencia. Filosofía de la ciencia hace referencia al examen filosófico de la ciencia (sus problemas, sus métodos, su estructura, etc.). Filosofía en la ciencia (o más exactamente filosofía de la ciencia en la ciencia) comprende el estudio de las implicaciones filosóficas de la ciencia, el examen de las categorías e hipótesis que intervienen en la investigación científica, o que emergen en la síntesis de sus resultados. Es pues, el estudio de las hipótesis filosóficas que en ciencia se presuponen y se utilizan como punto de partida. La filosofía desde la ciencia sugiere que se trata de una filosofía que hace hincapié en la ciencia, que ha sustituido la especulación sin freno por la investigación guiada en el método científico, teniendo un respeto profundo por los hechos empíricos y por la consistencia lógica. Filosofía con la ciencia trata de una filosofía que acompaña a la ciencia, es decir, una filosofía que está al margen de los logros de la ciencia, que no se pone a especular sinsentidos sobre el ser y el tiempo. Por último, la filosofía para la ciencia sugiere una filosofía que no solo se nutre de la ciencia, sino que aspira a serle útil, que busca servir para establecer, por ejemplo, las diferencias que existen entre la definición y el dato, o entre la verdad factual y la proposición que es verdadera o falsa, independientemente de los hechos. Esta es una filosofía que no sólo escarba en los fundamentos filosóficos que las ciencias admiten, sino que además busca aclarar la estructura y función de los sistemas científicos, señalando relaciones y posibilidades inexploradas.

Pero hablar de filosofía de, en, desde, con y para la ciencia tal vez sea demasiado largo y poco estético. ¿Por qué no mejor utilizar un sólo concepto: epistemología?, o ¿por qué no llamarlo sólo filosofía de la ciencia? Una disciplina que resulta ser, por su objeto de estudio, una metaciencia. Pues bien, un epistemólogo como tal no puede ser un filósofo que pregona una filosofía contra, sobre y/o bajo la ciencia. Una filosofía contra la ciencia (tal como han existido y siguen existiendo) resultará ser una filosofía irracionalista, que desprecia el respeto por los hechos y la consistencia. Una filosofía contra la ciencia resulta ser anticientífica. Este tipo de posturas son las que alimentan doctrinas como las del fundamentalismo religioso, la tecnofobia y el activismo contra la investigación y aplicación científica. Quien filosofa contra la ciencia, o aun al margen de ella, ignorándola por completo (tal como nos dice Bunge) imita a los escolásticos que rehusaban mirar por el anteojo astronómico de Galileo.

Si hablamos de una filosofía sobre la ciencia estamos haciendo referencia a una disciplina superior rectora de las disciplinas científicas. Aunque éste ha sido el anhelo de muchos que en el pasado se han llamado a sí mismos "epistemólogos", lo cierto es que estos intentos no han sido otra cosa más que la burla de los científicos, pues siempre han mostrado grados intolerables de arrogancia combinados con ignorancia científica. Si quieres hacer que la comunidad científica se burle de la filosofía y la desprecie, tan sólo di que la filosofía es superior a la ciencia y que la primera le dice cómo actuar a la segunda.

Por otro lado, la expresión filosofía bajo la ciencia sugiera una posición inversa, como si la filosofía dependiera de forma absoluta de la ciencia. Este error, aunque poco común entre los filósofos que miran sus propuestas casi siempre como superiores a los anteriores, suele ser expresado como una virtud epistemológica. Sin embargo, la filosofía de la ciencia no sólo comporta el examen de los supuestos filosóficos de la investigación científica, sino que tiene derecho a una elaboración creadora de un nivel diferente del científico aunque reposa sobre éste último: el nivel metacientífico.

La comprensión precisa de la epistemología como la principal disciplina filosófica que, estando al margen de la ciencia, la cuestiona, la crítica y la analiza como la manifestación humana que es, probablemente sea el primer paso para comprender la relación tan estrecha entre filosofía y ciencia. Algo importante a comprender es que no todo el que tiene título en filosofía es un epistemólogo, del mismo modo que el no tener título en filosofía no significa que no se sea (o no se pueda ser) epistemólogo. Existen filósofos con perspectiva científica y científicos con inquietudes filosóficas que enriquecen por igual esta disciplina fascinante. Un segundo paso para este mismo propósito sería hablar de los logros e importancia de la epistemología para con la investigación, la aplicación y la divulgación de la ciencia, pero eso ya será tema para otra entrada.

*Publicación original en La pipa de Russell.

 


 

Acerca del Autor:

Daniel Galarza Santiago es estudiante de filosofía en el Centro Universitario de Ciencias Sociales y Humanidades (CUCSH) de la Universidad de Guadalajara. Autor de los blogs El escéptico de Jalisco y La pipa de Russell, también ha colaborado en otros espacios en línea tales como Blog Escéptico, Despertando Mentes, Magufobusters, Escépticos Unidos Mexicanos y Fundación Richard Dawkins para la Razón y la Ciencia.

100,000 Strong in the Americas, ¿qué podemos esperar?

“When we study together, we learn together, we work together and we prosper together.” President Barack Obama, May 2013, Mexico City.

“Cuando estudiamos juntos, aprendemos juntos, trabajamos juntos y prosperamos juntos.” Presidente Barack Obama, Mayo 2013, Ciudad de México.

Históricamente la relación entre los Estados Unidos Mexicanos y los Estados Unidos de América ha sido compleja y ha estado moldeada por lazos políticos, de negocios, culturales y familiares. El intercambio demográfico actual en la región es tan grande que la población hispana de los Estados Unidos de América ha superado los 50 millones de personas, haciéndolo el país con más hispanohablantes después de México. Sin embargo, intercambio demográfico no necesariamente significa un óptimo intercambio cultural e ideológico y aún hay un gran trabajo conjunto por hacer para impulsar la cooperatividad y el crecimiento en la región.

En la visita más reciente del Presidente Barack Obama a nuestro país, un tema importante en la agenda de discusión fue el programa 100,000 Strong in the Americas (100,000 Fuertes en las Américas), cuyo propósito principal es impulsar la movilidad de estudiantes no sólo entre los Estados Unidos de América y México, sino en todo el continente. Este programa pretende atraer a 100,000 estudiantes latinoamericanos a estudiar en EUA, mientras 100,000 estudiantes estadounidenses van a estudiar a Latinoamérica anualmente, con el objetivo final de lograr una mejor integración social, cultural y comercial en el continente. Este programa será financiado por el Gobierno de los Estados Unidos de América, la Asociación de Educadores Internacionales (NAFSA), gobiernos de países latinoamericanos, universidades y el sector privado.

¿Por qué es necesario un plan como este? La población del continente americano alcanza cerca de los 1,000 millones de habitantes (México: ~120 millones; Estados Unidos de América: ~300 millones) y se proyecta que para 2050 la población del continente rebase los 1,250 millones. Este crecimiento demográfico demanda soluciones innovadoras a problemas en sectores como salud, medio ambiente, educación, migración, seguridad, entre otros.

Actualmente existen diversos esfuerzos por crear soluciones a los problemas conjuntos de las Américas, pero a pesar de la cercanía geográfica aún hay grandes puentes que tender para lograr un entendimiento más profundo de la diversidad cultural. Esta vasta diversidad ideológica y cultural enriquece al continente pero al mismo tiempo hace que sea complicado crear políticas que funcionen y sean efectivas en toda la región. Estas soluciones sólo serán producto de trabajo en equipo entre los futuros líderes e innovadores de las naciones americanas. Facilitar el intercambio académico y cultural entre estos jóvenes futuros líderes los ayudará a comprender de manera más integral estos problemas, compartir ideas y crear soluciones para los mismos.

Sin duda las áreas de ciencia, tecnología, ingeniería y matemáticas (las famosas áreas “STEM” por sus siglas en inglés: science, technology, engineering and mathematics) serán de vital importancia en este programa y para el futuro desarrollo del continente.

¿Quién se beneficiará de un programa como este? En el corto plazo, los jóvenes estudiantes. La experiencia de estudiar en el extranjero crea una nueva forma de percibir tus raíces, un sentido de responsabilidad por volver a casa y ayudar a quienes están ahí. En el mediano y largo plazo: los países participantes en este programa, pues habrá una red de profesionales pensando en los problemas de estos países desde una perspectiva global, con ideas provenientes de todo el continente, buscando la manera de colaborar para crecer juntos. Se espera que el intercambio comercial en América crezca como resultado de esta iniciativa y de esta forma el sector privado también resultaría beneficiado, impulsando el crecimiento económico del continente.

Este intercambio académico traerá consigo intercambio de ideas e impulsará la cooperación. Los lazos de amistad creados a partir de la movilidad de estudiantes dentro del continente fortalecerán los lazos humanos en las Américas, sin duda indispensables para el crecimiento de nuestro continente. Durante la etapa de estudios universitarios se crea una manera de pensar y abordar problemas, la movilidad estudiantil creará una mente multicultural entre los estudiantes de las Américas, se fomentarán amistades entre personas de diferentes países, estos lazos traerán un mayor intercambio comercial, cultural y de valores para el continente.

¿Qué debe hacer México? Creo que la respuesta es simple, hacer lo que nos corresponde de la mejor manera. Si eres estudiante: estudia; en México o en el extranjero, donde estés hazlo lo mejor posible, no hay más. A los líderes políticos, apoyar e impulsar programas como este, facilitar los medios para que más estudiantes mexicanos se beneficien de esta iniciativa. Los profesores y académicos, mejorar su desempeño día a día para que las institutions educativas mexicanas sean más atractivas para estudiantes no sólo de Estados Unidos y Latinoamérica, sino de todo el mundo, de esta forma el intercambio académico y cultural será continuado así como los beneficios que lo acompañan.

Si la población hispana en los Estados Unidos actualmente es de más de 50 millones de personas, ¿podrán 100,000 estudiantes latinoamericanos impactar en la forma en que EUA mira a Latinoamérica? Y si la población de toda América es de casi 1,000 millones de personas, ¿podrán 200,000 jóvenes estadounidenses y latinoamericanos mejorar la calidad de vida y proponer soluciones a los grandes problemas del continente? El reto es grande, pero también lo son el liderazgo, la pasión y el talento de los jóvenes de las Américas.

Escrito por Jorge Buendía y publicado originalmente en AILUM

[hozbreak]

Acerca del autor

Jorge Eduardo Buendía Buendía es egresado de la Licenciatura en Ciencias Genómicas de la UNAM y actualmente investigador asistente en la Universidad de Edimburgo. Es también co-fundador de la Asociación de Ingenieros Líderes Unidos por México A.C. Sus intereses académicos yacen en la intersección entre matemáticas, computación y biología. De manera paralela se interesa en temas como educación, salud pública y literatura.

¿Te llevarías a ti mismo a una isla desierta?: la aversión a nuestra propia mente

cerebro En Internet abundan las listas de las 10 cosas que te llevarías a una isla desierta. "¿Cuáles son los 10 libros que te llevarías a una isla desierta?" "¿Cuáles discos?" "¿Cuáles pinturas?" Estas listas pretenden elegir obras de tanta calidad que no nos importaría pasar el resto de nuestras vidas repitiéndolas una y otra vez. Curiosamente, la pregunta más importante sobre las islas desiertas no cabe en formato de lista: "¿Te llevarías a ti mismo a una isla desierta?" La idea de pasar el resto de tu vida sin el acceso a ninguna obra artística o de entretenimiento ni a ningún contacto social, y quedarte contigo mismo y nada más, es la verdadera idea de una isla desierta. Pero ¿cuántos de nosotros aceptaríamos llevarla a cabo?

Recientemente, un grupo de científicos estadounidenses sugirió que la mayoría de nosotros nunca aceptaría, principalmente porque eso implicaría quedarnos a solas con nuestra propia mente. Tim Wilson y su equipo de la Universidad de Virginia realizaron un experimento con el fin de averiguar qué tan placentero es un ejercicio de pensamiento dirigido, sin distracciones externas de ningún tipo. Le pidieron a estudiantes universitarios voluntarios que se quedaran en un cuarto vacío de 6 a 15 minutos a solas y sin distracciones (ni libros ni música ni teléfonos celulares ni nada que pueda hacer un viaje a una isla desierta más placentero) y les sugirieron que pensaran sobre algún tema de su elección. Al salir, les preguntaron qué tan placentera había sido la experiencia. Cerca de la mitad de los participantes dijeron que no había sido placentera, cerca del 60 por ciento dijo que no había podido concentrarse y cerca del 90 por ciento, que su mente había divagado.

Pensando que el escenario de un cuarto de laboratorio sería la fuente de su incomodidad, los investigadores les pidieron a los voluntarios que hicieran un ejercicio similar, esta vez en sus propias casas. Los resultados fueron parecidos y, lo que es más, muchos admitieron haber hecho trampa y haberse distraído con sus teléfonos u otros objetos.

En entrevista para la revista Nature, Wilson se mostró sorprendido. "Tenemos un gran cerebro que está lleno de memorias placenteras y que tiene la capacidad de contar historias y construir fantasías: no debería ser tan difícil."

Tal vez Wilson tiene en la mente un mundo en el que las distracciones no están tan a la mano como ahora. Cada vez es más difícil elegir nuestras cosas para la isla desierta porque estamos inundados de cosas que piden que las llevemos. ¿No será esto un problema exclusivo de esos jóvenes universitarios, que nació con distracciones bajo el brazo? Los investigadores repitieron los experimentos con voluntarios que consiguieron en un mercado y en una iglesia de la localidad, con edades de 18 a 77 años. Los resultados volvieron a repetirse.

La conclusión de los investigadores hasta este punto era que las personas examinadas prefieren hacer algo a no hacer nada (aunque es discutible si el hecho de quedarse a solas con sus pensamientos es efectivamente no hacer nada, como se discutirá más abajo). La siguiente pregunta que abordaron fue si las personas preferirían hacer algo desagradable a no hacer nada. Idearon un experimento en el que dejaban a las personas a solas con sus pensamientos y con una máquina de toques (que con anterioridad los voluntarios habían admitido que eran tan desagradables que pagarían dinero para no sufrirlos), diciéndoles que usarla era su decisión. Al final del experimento, casi el 70% por ciento de los hombres y el 25% de las mujeres se administraron de 1 a 4 choques eléctricos durante algún momento del tiempo que pasaron a solas.

Para Wilson y su equipo, este es un resultado fascinante. "¿Por qué pensar fue tan difícil y desagradable?", preguntan en su artículo científico, publicado este mes en la revista Science. Aventuran un par de explicaciones. Es probable que los voluntarios se hayan metido a un ciclo de pensamientos negativos. Sin embargo, las entrevistas posteriores sobre qué habían pensado no mostraron una tendencia clara hacia las ideas negativas. Otra explicación es que a los voluntarios les resultó difícil ser los actores de sus propios pensamientos: ser a la vez "los guionistas" y los "experimentantes" (como los llamaron en su artículo) de sus fantasías. Sin embargo, en algunas versiones del experimento les daban a los voluntarios un tiempo de preparación para planear sobe lo que iban a pensar y esto no disminuía el desagrado final. ¿Cuál es la explicación entonces?

Los investigadores no aventuran más explicaciones que la más simple de todas: que a nuestras mentes no les gusta estar con ellas mismas. Sin embargo, también reconocen que esto no es universal. Al mencionar que hay estudios que muestran que las mentes son difíciles de controlar, señalan que hay personas que buscan mejorar el control de sus pensamientos por medio de la meditación y otras técnicas. "Sin ese entrenamiento", escriben Wilson y sus colegas en su artículo, "las personas prefieren hacer algo a pensar, aun cuando ese algo sea tan desagradable que normalmente pagarían para evitar hacerlo."

Quizá, después de todo, la principal respuesta a la pregunta "¿Qué te llevarías a una isla desierta?" debería ser: "una mente a la que no le desagrade pensar a solas."

_____________________

Bibliografía:

Nota fuente en Nature   | Artículo original en Social Psychology|Nota original en el Blog de Historias Cienciacionales

Los mejores amigos comparten todo, hasta los genes

amigos Del 1 al hermano del alma, piensa en aquellos amigos que se acercan más al límite de hermandad. En términos genéticos, considerar a tus mejores amigos como familia no es descabellado. De hecho, ellos son el equivalente a un familiar en cuarto grado, que es lo mismo a un primo que comparte contigo un tatara-tatarabuelo.

De acuerdo con un trabajo realizado por investigadores de diferentes universidades, que incluyen a la de Yale, en Estados Unidos, nuestro círculo social más cercano comparte el 1% de nuestros genes.

Dicho número puede parecer insignificante, pero muestra algo importante: somos más parecidos a nuestros amigos que a la gente que nos rodea todos los días.

Los genes que pertenecen a este porcentaje están relacionados con el sentido del olfato, pero se carecen de genes similares de la inmunidad. Esto significa que los mejores amigos perciben el mundo a través de los olores de una manera similar, pero que tienen una protección diferente contra las enfermedades.

Para llegar a esta conclusión, los autores del estudio trabajaron con el material genético de casi dos mil personas divididas en dos grupos: parejas de amigos y parejas de extraños.

Los investigadores mencionan que, a pesar de que las personas tenían ancestros europeos y fueron obtenidos de la misma población, los resultados no son un artefacto de sus antecedentes étnicos.

Finalmente, basados en las observaciones genéticas, los investigadores desarrollaron una “calificación de amistad” para predecir quiénes serán amigos con una precisión igual a la de los estudios que muestran las probabilidades de desarrollar esquizofrenia. ——————-

Bibliografía:

Nota fuente en Eurekalert   | Artículo original en PNAS|Nota original en el Blog de Historias Cienciacionales

 

De poco ayuda tener mucho talento en el mundial

copa Alemania se coronó hace unos domingo como el mejor equipo de futbol del mundo. Y aunque Argentina tenía al único jugador del planeta con cuatro balones de oro –reconocimiento al mejor jugador del año-, fue también sólo un gol el que los mandó a recoger las medallas de plata. En un equipo no hay espacio para mucho talento.

La intuición dice que un equipo con mucho talento entre sus jugadores es también el que se desempeña mejor. Este talento lleva a una mejor participación, pero existe un límite de máximo talento que, si se sobrepasa, puede ser perjudicial para la coordinación interna del equipo.

Dicha conclusión fue propuesta por un grupo de psicólogos de tres diferentes universidades, quienes analizaron los niveles de calificación de los jugadores en la copa del mundo del 2010 y la de 2014.

Las observaciones mostraron que los equipos se benefician de tener jugadores de élite en tanto que ellos no representen tres cuartos de la plantilla. Si el número de talentosos se desborda, su rendimiento cae.

Este resultado es congruente con el basquetbol y el beisbol. Un trabajo del mismo tipo realizado en la Asociación Nacional de Basquetbol estadounidense mostró que a lo más el 60% del equipo puede estar conformado por los mejores  jugadores para ayudar en . Por otro lado, un estudio en la liga de Beisbol del mismo país mostró que si la proporción de los mejores jugadores sube, su número de victorias aumenta. La diferencia radica en que, mientras los movimientos de los jugadores de basquetbol y futbol se traslapan en el terreno de juego, llevándolos a pelear y competir por la pelota entre ellos, en el beisbol las posiciones están muy especializadas.

Este trabajo pudo haber sido una llamada de advertencia para muchos equipos en este mundial que acaba de terminar. Por ejemplo, el director técnico del equipo francés, Didier Deschamps, anunció que mientras más jugadores élite pudiera conseguir para armar a la plantilla francesa, mejor sería el equipo para disputar la copa del mundo. Francia perdió por un gol también contra el ahora campeón del mundo. ----------------------------------

Bibliografía:

Nota fuente en Science Artículo original en Psychological Science|Nota original en el Blog de Historias Cienciacionales

 

 

Los cazadores del último bosón. A dos años del descubrimiento del bosón de Higgs.

Evento real de detección de un bosón de Higgs en el detector ATLAS del Gran Colisionador de Hadrones. El bosón de la imagen se encuentra decayendo en dos pares de electrones marcados en rojo y azul. ATLAS Experiment © 2014 CERN.  

Hace más de dos años, el 4 de julio de 2012, científicos de la Organización Europea para la Investigación Nuclear (CERN por sus siglas en inglés) mataron dos pájaros de un tiro: hicieron que Stephen Hawking perdiera una apuesta de cien dólares y pusieron fin a la búsqueda más intensiva de la que la ciencia moderna tiene registro. Esta búsqueda requirió de la construcción del Gran Colisionador de Hadrones (LHC), el complejo científico más grande del mundo con un costo superior a los nueve mil millones de dólares y un equipo de trabajo de más de diez mil científicos e ingenieros de todo el mundo. ¿Qué era lo que buscaban estos físicos con tanto empecinamiento? ¿Qué descubrimiento monumental requería de esfuerzos tan notables por parte de la comunidad científica internacional? Nada monumental, por el contrario, la búsqueda era en pos de algo en un orden de magnitud tan pequeño, que resulta incluso incomprensible. Lo que encontraron fue la última pieza de un rompecabezas llamado Modelo Estándar de las Partículas Elementales, una partícula que daría coherencia a los modelos físicos actuales. La infame, pero popularmente llamada Partícula de Dios: el bosón de Higgs.

 

Un gran descubrimiento… que no sorprendió a muchos

La primera imagen que viene a mi cabeza cuando recuerdo esa primera semana de julio de 2012 es la de un montón de periodistas tratando de explicar al mundo la importancia de un evento científico que sabían era de gran relevancia, pero que en realidad, no comprendían en lo más mínimo. Y es que la física de partículas subatómicas rara vez llega a los titulares, pero este descubrimiento ameritaba todos los reflectores.

Después de más de dos décadas de planeación, construcción y calibración de la instalación experimental más grande y compleja jamás construida, el Gran Colisionador de Hadrones cumplió el objetivo para el que había sido diseñado: la detección de una partícula cuyas características correspondían a las predicciones de lo que se esperaba era el bosón de Higgs.

 

ATLAS. Uno de los detectores multipropósito del Gran Colisionador de Hadrones. Lleva a cabo un amplio rango de labores, desde la búsqueda del bosón de Higgs y extra dimensiones, hasta la detección de partículas generadoras de materia obscura. ATLAS Experiment © 2014 CERN.

 

 

El descubrimiento del bosón corrobora las predicciones teóricas que Peter Higgs, Gerald Guralnik, Richard Hagen, Tom Kibble, Robert Brout y Françoise Englert realizaron en la década de los sesentas –¡la cacería duró cerca de medio siglo!- con respecto a la física de partículas subatómicas. El hallazgo, que le brindó el premio Nobel a Higgs y a Englert, era el último eslabón para que el Modelo Estándar estuviera completo, validando el trabajo de décadas de muchos físicos teóricos. La comunidad científica esperaba con ansias la comprobación de la existencia del bosón, ¡no podía no existir! La alternativa, un escenario mucho más interesante para la ciencia según Stephen Hawking, hubiera implicado el replanteamiento de muchos de los postulados físicos vigentes. La existencia comprobada del bosón de Higgs abre la puerta a nuevas concepciones sobre la forma en la que se comporta nuestro universo y podría ser el parte aguas para superar el Modelo Estándar y dar paso a una “nueva física”.

Se estarán preguntando ¿por qué tanto alboroto?, ¿qué es lo que hace a esta partícula tan especial? o ¿por qué la física moderna dependía de su descubrimiento? Para responder todo esto tenemos que empezar por una pregunta más general… ¿qué demonios es un bosón?

 

La naturaleza cuántica de un bosón

A mediados del siglo pasado, los físicos elaboraron el Modelo Estándar, una ambiciosa colección de ecuaciones y postulados cuyo objetivo es describir el comportamiento de todas las partículas subatómicas y la forma en las que estas interactúan. Es una teoría de casi todo y, aunque no considera elementos como la fuerza de gravedad o la materia obscura, es el modelo más ambicioso de la física moderna.

De acuerdo al Modelo Estándar, todas las partículas pueden ser divididas en dos grupos: los fermiones y los bosones. Los fermiones son las partículas subatómicas que constituyen la materia y se dividen a su vez en quarks (que conforman a los protones y neutrones) y leptones (de los cuales el electrón es el más conocido). Los bosones, por otro lado, son las partículas responsables de las fuerzas fundamentales asociadas a la naturaleza. Los fotones, por ejemplo, son los bosones relacionados con el electromagnetismo; los gluones, se encuentran asociados a las interacciones fuertes de los núcleos atómicos, responsables de que protones y neutrones no se desintegren en un frenesí de quarks; y los bosones W y Z se relacionan a las interacciones débiles, responsables de cambiar las propiedades de los quarks y de otras curiosidades como el decaimiento radiactivo y la fusión nuclear que mantiene al Sol brillando y generando calor para que podamos aprovechar un buen día de playa. Hasta aquí todo “fácil”.

 

¿Qué papel juega Higgs en todo esto?

En el Modelo Estándar bosones y fermiones interactúan alegremente para darle forma al universo como lo conocemos, permitiendo la expansión de las galaxias, la formación de estrellas y la vida en nuestro planeta. Para que esta armonía sea posible, las interacciones entre materia y energía deben ajustarse a ciertas reglas o simetrías. Sin embargo, la evidencia empírica empezó a jugar en contra del modelo: había partículas con más masa de la esperada, fuerzas que actuaban de forma distinta a lo predicho… ¡El caos! ¡Sería necesario reevaluar todos los postulados de la física moderna! ¡Tardaríamos décadas en reconstruir un modelo igual de robusto! O…podríamos intentar balancear el Modelo Estándar tomando en cuenta las anomalías y ver qué pasa.

El postulado teórico que vino a balancear el Modelo Estándar es asombroso. En teoría, el universo estaría embebido en una especie de red –el Campo de Higgs- encargada de suministrar de masa a la materia del universo. ¡Todas las partículas del universo obtienen su masa por la interacción con este campo y el bosón de Higgs es una expresión de esta interacción! ¿Confundidos? Intentemos visualizar lo siguiente. Imagínense que el universo se reduce a la superficie de un –enorme- charco de lodo. Sobre la superficie del charco hay un sinnúmero de canicas, algunas se deslizan sobre la superficie tan rápido que no dejan rastro de su paso y ni siquiera se embarran de lodo, otras cruzan por el charco con menos gracia y no se libran de alguna salpicadura y están aquellas que van rodando sin mayor preocupación y están hechas una porquería. Las primeras canicas corresponden a las partículas que carecen de masa, como los fotones. Las segundas corresponden a fermiones como los electrones y a algunos bosones que tienen masas muy bajas. Las últimas canicas son los quarks, componentes de los protones y neutrones del núcleo de los átomos. En esta pequeña analogía, el campo de Higgs sería el lodo y el bosón de Higgs… ¡las ondas que se forman por la interacción entre las canicas y el lodo!

Explicar el campo y el bosón de Higgs resulta tan complicado que a finales del siglo pasado, el Ministerio de Ciencias del Reino Unido ofreció una botella de champaña de la mejor calidad a aquel que realizara la analogía más sencilla al respecto. El premio se lo llevo David Miller del University College of London. Aquí les dejo una interpretación animada de su solución, esperando que, entre ésta y el lodazal, queden claros los conceptos más generales del campo de Higgs.

 

http://www.youtube.com/watch?v=joTKd5j3mzk

 

A dos años de detectar el bosón

La historia del bosón de Higgs, desde su concepción hasta su descubrimiento, es uno de los mejores ejemplos de cómo debe funcionar la ciencia moderna. Por un lado, nos demostró el poder que tienen las teorías científicas para realizar descripciones y predicciones sobre nuestro universo. Pero también es un recordatorio de que la única forma de validar nuestras ideas, debe ser a través del método científico.

El túnel principal del Gran Colisionador de Hadrones no ha visto muchas colisiones recientemente y, contrario a lo esperado por actores sensacionalistas de opiniones pseudocientíficas, todavía no ha destruido al universo. El mantenimiento es costoso y llevará tiempo. Sin embargo, los datos que se generaron en el complejo durante su periodo operativo siguen siendo analizados y los resultados siguen sorprendiendo a muchos. Hoy se cuenta con evidencia (observen la primera imagen de este artículo) de el decaimiento del bosón de Higgs hacia fermiones (su descubrimiento se basó exclusivamente en el decaimiento a bosones de baja masa) y se tienen más elementos para analizar a fondo la naturaleza del campo de Higgs. Recientemente se presentó el plan de trabajo para los próximos años de los distintos experimentos activos en el LHC.

El Modelo Estándar está completo. Ahora, la labor de la ciencia es terminar de entenderlo y expandirlo con la ayuda de las nuevas evidencias. Seguimos muy lejos de tener una “teoría de todo”, pero no cabe duda que dimos un paso gigante en esa dirección.

 

Crónica de una mantis marina conmovida en su mundo multicolor

mantis marina Me da mucha ternura cuando los humanos se emocionan por los colores que pueden ver. Que si la primavera llena de colores sus jardines o que si la lluvia del verano les pinta el cielo con un arcoíris. Pero ver el mundo con tres receptores de colores está sobrevalorado. Si nos vamos a poner estrictos, mejor verlo con 12, como nosotras. Así como lo dije, nosotras, las mantis marinas, tenemos 12 tipos diferentes de receptores de luz en nuestros ojos. Como si esto no fuera suficiente, un grupo de humanos acaba de observar con sus tres tipos de receptores que seis de nuestros receptores tienen la capacidad de diferenciar entre varios tipos de ondas de luz ultravioleta –cinco ondas, para ser exacta–.

Quienes nos estudiaron, de universidades estadounidenses y suecas, mencionan en su trabajo que hacemos uso de unos filtros ópticos ultravioleta que están presentes en las células de nuestros ojos. Ellos analizaron de lo que están hechos nuestros filtros y detectaron que es una sustancia que se puede encontrar en la piel o esqueleto de algunos organismos marinos.

Los humanos llaman a esta sustancia “protector solar natural”, muy al estilo de la crema que se ponen cuando van a la playa a asolearse. Y es que esta sustancia que encontraron en nuestros ojos nos protege de los daños causados por los rayos UV.

Una cosa es cierta: los humanos entienden muy poco nuestra visión, a la que ellos llaman “compleja”. Ahora, tienen la idea de que esta detección de rayos UV nos permite identificar presas en los corales.

Y claro, yo podría decirles la verdad. Pero prefiero seguir por ahí, andando en mi mundo brillante y lleno de imágenes fascinantes. ___________________

Bibliografía:

Nota fuente en Science Daily   | Artículo original en Cell|Nota original en el Blog de Historias Cienciacionales

¿Comer por dos en el embarazo?

Mi abuela decía que echando a perder se aprende y yo lo viví echando a perder mis codos cuando estaba tratando de aprender a andar en bicicleta. Al final sólo me quedaron unas cicatrices y no pasó a mayores, pero a mi tía Karina no le fue tan bien. Cuando Manuelito nació, todos estábamos encantados. ¡Pesaba más de cuatro kilos! Era increíble. Sobre todo considerando que en la familia somos más bien menuditos.

Se veía tan grande y gordo que nos pareció muy extraño que tuviera que quedarse en el hospital. Aparentemente no respiraba bien. En una de las visitas que le hicimos, el doctor nos explicó que la tía Karina había cursado con diabetes gestacional y que por eso Manuelito había nacido tan grande y estaba teniendo problemas para respirar. Nos dijo que se le había quedado líquido en los pulmones y tendría que estar en observación unos días.

Alimentación en el embarazo

Foto: Teresa Rodríguez

Una adecuada alimentación durante el embarazo es crucial tanto para la madre como para el bebé que está por nacer. Al planear un embarazo con asesoría nutricional es posible corregir las deficiencias y excesos en la alimentación de la futura madre que pudieran representar un riesgo para ella o para el feto.

bebé - alimentación embarazo

Foto: radloff

Para las mujeres embarazadas es común escuchar la frase “estás comiendo por dos”. La dicen en películas, en libros y en ocasiones hasta las mamás y las abuelitas. Sin embargo, durante los tres primeros meses de gestación, una dieta equilibrada, tal como la que debe llevar cualquier otra persona, es suficiente para cubrir los requerimientos tanto de la madre como del producto. Es importante aumentar el consumo de agua (en la medida que lo recomiende el médico o nutriólogo) para contribuir a la formación del líquido amniótico, el cual rodea al bebé durante el embarazo.

En el tercer trimestre del embarazo se pueden suplementar alrededor de 500kcal adicionales al requerimiento normal, vigilando siempre la calidad sobre la cantidad. Esto implica consumir alimentos que contengan proteínas de buena calidad (como carnes y leguminosas), ácidos grasos esenciales (como pescado graso y nueces) y frutas y verduras, llevando una dieta variada y suficiente. Es importante evitar la comida rápida (frita y con alimentos en conserva o congelados), los alimentos ricos en sal y el exceso de grasa y azúcares en la dieta. Una regla no escrita es que la madre debe haber ganado un total de 10 kilos al término del embarazo. En general, puede ser un buen dato a tener en mente, pero claramente depende del caso, ya que no todas las personas inician su embarazo en las mismas condiciones ni con el mismo peso. Por ejemplo, para personas que inician el embarazo con sobrepeso, este rango normalmente se reduce de 5-9 kg. En el 2008 se publicó un reporte en Estados Unidos con el fin de ayudar a médicos y nutriólogos a proporcionar una mejor asesoría respecto a este tema durante el embarazo y evitar el uso de esa “regla de dedo”.

La diabetes gestacional es uno de los posibles problemas que pueden surgir durante el embarazo. Están en riesgo, principalmente las personas mayores de 25 años, con sobrepeso o con antecedentes diabéticos en la familia. Actualmente, desconocemos el porcentaje exacto de la población que sufre este padecimiento, pero el número de casos reportados ha aumentado en los últimos años.

El detectar este padecimiento en etapas tempranas permite que la mujer gestante reciba el tratamiento adecuado para reducir al mínimo los riesgos asociados al mismo. Estos riesgos incluyen hipertensión arterial, preclampsia y eclampsia en la madre. Mientras que en el bebé puede causar un tamaño demasiado grande o demasiado pequeño, complicaciones respiratorias e ictericia, entre otros problemas. El llevar un buen control de peso y nutricional es crucial para prevenir este padecimiento durante el embarazo.

A mamá le extrañó mucho que eso fuera lo que tenía la tía Karina. Ella me dijo que la diabetes más bien le da a personas mayores o que consumen mucha azúcar.

La diabetes gestacional no siempre se presenta a causa de sobrepeso, de hecho, parece estar asociada a las hormonas placentarias que pueden llegar a bloquear los efectos de la insulina en el cuerpo de la madre. Esto hace que no haya suficiente insulina para transportar la glucosa a las células y convertirla en energía, causando así diabetes. Algunos de los síntomas incluyen visión borrosa, mareos, vómito y sed, entre otros. Todo esto puede evitarse con una adecuada alimentación.

Mientras Manuelito seguía en el hospital, mamá y yo nos quedamos con la tía Karina. Ella se sentía muy cansada todo el tiempo y siempre tenía sed. Al parecer así había pasado todo el embarazo. No sólo eso, también había tenido muchos “ascos” y de repente veía borroso.

En la actualidad es común que las mujeres embarazadas, sobre todo las adolescentes, tengan miedo de engordar y por ello busquen comer lo menos posible durante el embarazo. Cuando las ratonas preñadas, son alimentadas con una dieta pobre en proteínas se han observado problemas en el desarrollo del cerebro y páncreas del feto.

El embarazo adolescente y los embarazos espaciados por menos de un año son situaciones donde el cuerpo de la madre puede presentar mayores deficiencias. El embarazo en adolescentes es un tema muy delicado ya que, en muchos casos, la futura madre sigue creciendo; este crecimiento provoca una competencia por recursos con el feto en desarrollo, lo cual puede traer consecuencias como bajo peso al nacer o partos prematuros. La solución no es tan simple como alimentar más a la madre, ya que es fácil que al comer más, la chica aumente de peso mucho más de lo recomendado. No es una cuestión de cantidad, sino de hacer lo posible por cumplir con las necesidades tanto de la madre como del producto. Si la madre ya tiene una deficiencia nutricional importante, el cuerpo suele darle preferencia a la madre, mientras que cuando la alimentación es ligeramente deficiente, el cuerpo de la madre favorece al feto.

En los últimos años se han llevado a cabo diversas campañas para fomentar que las mujeres embarazadas consuman nutrientes como el ácido fólico. Esto es debido a que bajos niveles de hierro y de ácido fólico durante la gestación pueden llevar a partos prematuros y retraso en el crecimiento del feto. A pesar de que el mecanismo exacto en que actúa el ácido fólico se desconoce, hay evidencia de su importancia para disminuir la incidencia de malformaciones como la espina bífida.

La espina bífida es una malformación de los tejidos neurológicos. No es la única, pero es la más común. En ella, la columna vertebral de los bebés no cierra adecuadamente y frecuentemente es necesario operarla para evitar que el daño empeore. Esto hace muy importante el llevar una dieta adecuada durante la gestación y consumir suplementos cuando así sea requerido.

Alimentación en el embarazo - 3 w&b

Foto (modificada): Thomas Hellberg

A la tía Karina la trataron con una dieta restrictiva y Manuelito, no tardó en salir del hospital. El doctor le dijo a mamá que, a pesar de las complicaciones, Manuelito ya estaba bien y fuera de peligro. Le comentó que en muchos casos, después de sufrir diabetes gestacional, una persona puede volverse diabética, por lo que la tía Karina debería ir a revisiones periódicas para hacer lo posible para evitar que la diabetes se consolidara.

[hozbreak]

Bibliografía

En “Diabetes gestacional. Comportamiento de los factores de riesgo en población mexicana” los autores revisaron los principales factores de riesgo para esta enfermedad en México.

Aquí pueden encontrar la liga acerca de la alimentación en madres adolescentes, así como el aumento de peso recomendado en ellas.

Guía general (revisada por médicos) de las necesidades nutricionales de la mujer embarazada. En ella se mecionan los aumentos de peso durante el embarazo que suelen recomendarse. En Outcomes of Maternal Weight Gain se realizó una revisión de la literatura con el fin de orientar la atención médica y nutricional de mujeres embarazadas con respecto a su peso.

Estudio sobre la resistencia a insulina en ratones tratados con placenta humana.

En “Influences of pre- and postnatal nutritional exposures on vascular/endocrine systems in animals” se menciona los efectos que una dieta pobre en proteínas puede tener en el desarrollo del páncreas de ratones.

Los autores de "Early life protein restriction alters dopamine circuitry" y "Early protein malnutrition disrupts cerebellar development and impairs motor coordination" argumentan que una dieta pobre en proteínas puede causar un desarrollo deficiente del sistema nervioso.

En Recommendations for Weight Gain During Pregnancy in the Context of the Obesity Epidemic se mencionan algunas recomendaciones para el control de peso y alimentación durante el embarazo de personas con sobrepeso.

En el artículo de revisión: Diabetes mellitus gestacional. Puede encontrarse información acerca de las causas y posibles consecuencias de la diabetes gestacional.

En el artículo The Risk of Maternal Nutritional Depletion and Poor Outcomes Increases in Early or Closely Spaced Pregnancies, los autores mencionan cómo el tener embarazos consecutivos y una mala nutrición pueden afectar tanto al feto como a la madre.

[hozbreak]

Acerca del autor

Libertad Pantoja Hernández nació en la Ciudad de México. Estudió Ciencias Genómicas en el campus Morelos de la UNAM. En el 2008 y 2009 participó el concurso iGEM de máquinas genéticas. Actualmente estudia el Doctorado en Ciencias Biomédicas en la UNAM y participa en el Taller de Narrativa impartido por Alberto Chimal. Cada vez que puede escribe y dibuja.

El gato de Schrödinger: ¿estaba entonces vivo o muerto?

¿Puede un gato estar vivo y muerto a la vez? En esta colaboración, nuestro amigo Juan de Pedazos de Carbono responde esta pregunta y nos explica por qué. ------

Seguramente habrás escuchado, quizá sin enterarte mucho de los detalles, sobre la paradoja del famoso gato de Schrödinger. Yo mismo sabía desde hace años sobre este experimento mental, pero fue hace poco gracias a la explicación de Jim Al-Khalili en “Paradox” que finalmente entendí la solución a esta aparente paradoja. La respuesta sobre si todo este tiempo el gato estaba vivo o muerto es: . Pero mejor déjenme explicar antes la pregunta.

GatoSchroedinger

El gato de Schrödinger, ¿simultaneamente vivo y muerto? / Imagen: Dhatfield *

Erwin Schrödinger se preguntó lo que pasaría si colocamos a un gato dentro una caja especialmente preparada y después la cerramos. Dentro de la caja se encuentra también una muy pequeña cantidad de algún material radioactivo, tan pequeña que en el transcurso de una hora hay sólo un 50% de probabilidad de que el material emita una partícula cargada de energía. Si la partícula es emitida entonces activará un detector que, a su vez, liberará un potente ácido matando al gato de forma instantánea. (Recuerda: es un experimento mental, ¡ningún gato ha sido lastimado pensando en las implicaciones de este experimento!)

Si repitiéramos el experimento muchas veces—colocamos un gato en la caja, cerramos la caja, esperamos una hora, abrimos la caja—la mitad de las veces encontraríamos un gato muerto (cuando se emitió la partícula) y la mitad de las veces un gato vivo (cuando la partícula no fue emitida). Esto puede sonar un poco cruel, pero nada extraño. Schrödinger notaba que lo realmente absurdo es que, según la física cuántica, cuando la caja estaba cerrada la partícula fue “emitida” y “no emitida” al mismo tiempo. En el mundo cuántico ambas posibilidades ocurrieron simultáneamente en realidad y, por consecuencia, mientras no mirábamos el gato estaba simultáneamente vivo y muerto. Más aún, parecería que nuestra acción de abrir la caja y observar el interior fue lo que “decidió” el destino del gato.

¡Eso sí que suena completamente absurdo! ¿Qué tenemos de especial que con sólo observar podemos estar decidiendo el destino de los gatos?

Antes de contestar estas preguntas, y revelar la solución a la aparente paradoja, quizá sea importante entender exactamente qué es lo que dice la física cuántica, y por qué es que sabemos que lo que dice es cierto.

Un electrón, por poner un ejemplo, en realidad no es una pequeña canica que se encuentre siempre en algún lugar determinado. La posición del electrón se puede entender más bien como una onda, cuya amplitud está relacionada con la probabilidad de encontrar al electrón en distintos sitios. Ojo, no se trata de que seamos nosotros los que no sepamos la posición exacta del electrón y por lo tanto usemos probabilidades como una aproximación, el hecho es que el electrón realmente se encuentra en distintos sitios al mismo tiempo.

Esto puede comenzar a sonar algo bizarro pero la verdad es que, hasta este punto, la situación no es muy distinta a lo que ocurre cuando dejas caer una piedra en un lago y observas las ondas producidas sobre la superficie. La onda no está localizada en un punto exacto sobre el lago, sino distribuida y ocupando distintos sitios al mismo tiempo. De modo similar, al chocar unos con otros los electrones “interfieren” entre ellos—sumándose o cancelándose sus amplitudes—del mismo modo como lo hacen las ondas en el lago.

El comportamiento de los electrones no es muy distinto al de las ondas en la superficie de un lago / Foto: Scott Robinson

Esto se puede comprobar en el famoso experimento de la doble rejilla donde a un solo electrón se le hace pasar por dos caminos distintos que—al juntarse después de nuevo—ocasionan que el electrón haga interferencia “consigo mismo”. Espero que con la explicación que acabo de dar te puedas hacer en la mente una idea más o menos de lo que está sucediendo. No es muy complicado. Quizá nunca lo habías pensado de esta manera, pero también te darás cuenta que no es tan descabellado como sonaba en un principio.

Lo realmente inesperado y sorprendente es lo siguiente: si en uno de los dos caminos pones un detector para determinar si el electrón pasó o no pasó por ahí, entonces los patrones de interferencia desaparecen y el electrón parece ser forzado a elegir entre tomar “uno” o “el otro” camino, ya no ambos al mismo tiempo. Pareciera que el electrón puede felizmente recorrer los dos caminos distintos al mismo tiempo mientras nadie lo mira, pero al observarlo el electrón es forzado a elegir una y sólo una de las dos opciones.

El párrafo anterior contiene una de las ideas centrales de la física cuántica, la que daba dolores de cabeza a Schrödinger, y de la que surgen muchas de las otras extrañezas que seguro has escuchado sobre física cuántica. Y no se trata de filosofía ni de un experimento mental, esta es en realidad la forma en que los electrones—al igual que fotones y otras partículas energéticas—se comportan cuando se les estudia en el laboratorio. Este es un hecho de nuestro universo.

Desafortunadamente ésta es también la idea de la física cuántica que más suele ser mal interpretada, dando dar lugar a ideologías como “El Secreto” o toda la pseudo-filosofía de Deepak Chopra. Y es que el experimento parece decir que las cosas no son “reales” hasta que las observamos, que nuestro acto consciente de observar al mundo es el que ocasiona que el destino se desenlace de una u otra manera. “Tu mente decide la realidad.” Pero esto no es así.

Lo curioso es que la solución a este malentendido resuelve también la paradoja del gato de Schrödinger. Y es que el “observar” que hace que un electrón tome uno u o otro camino—o que una partícula se emita o no se emita, y por lo tanto se produzca o no la muerte del gato—no requiere una mente consciente que esté “observando”. No requiere un humano, ni siquiera un par de ojos: el electrón es “observado” al interactuar de cierta manera con cualquier otro sistema—por ejemplo un detector de electrones—en un proceso llamado decoherencia cuántica.

El gato no pudo estar vivo y muerto al mismo tiempo pues, si en algún momento el detector “observa” que la partícula radioactiva es emitida, a partir de entonces el destino de la partícula—y fatalmente también del gato—ha sido definido. La respuesta es entonces que , en todo momento el gato está vivo o muerto—según el detector determine—pero nunca se encontraba en ambos estados al mismo tiempo.

En conclusión los efectos cuánticos son reales, pero solo aplican en escalas muy pequeñas del tamaño de los átomos, así como a electrones, fotones y partículas más pequeñas. En cuanto tienes un sistema más grande y complejo—como un detector, un gato, o una persona a quien le gustan los gatos—el proceso de decoherencia pronto ocurre y los efectos cuánticos desaparecen. Cuando se entiende un poco más la física cuántica no parece ya taaan extraña, ¿verdad?

Juan

--

Escrito por Juan A. Navarro Pérez y publicado originalmente en Pedazos de Carbono

* La imagen aquí utilizada para ilustrar el gato de Schrödinger es distinta a la que se presentó en la versión original de Pedazos de Carbono

El vibrante arcoíris de las aves.

pajCharles Bukowski tenía un pájaro azul en su corazón que sólo dejaba salir algunas noches, cuando todo mundo dormía. Los pájaros, sean corazones atrapados o cantantes libres, tienen impreso el arcoíris en sus plumas. El color de las plumas de las aves está dado por los carotenoides, pigmentos orgánicos que también dan color a las plantas y a algunas bacterias y hongos.El ancestro común de todas las aves con un colorido plumaje vivió hace 56 millones de años, más de 100 millones de años después de que los pájaros cafés y negros se adueñaran de los cielos.

Esta conclusión fue alcanzada por un grupo de investigadores de instituciones estadounidenses y neozelandesas, quienes colectaron y analizaron los compuestos químicos de plumas de casi 10 mil especies de pájaros extintos. Sus resultados mostraron que el plumaje del 40% de todas las aves estudiadas contenía carotenoides, lo que es 25% más de lo que se había estimado.

Después de construir un árbol genealógico entre especies, los investigadores han propuesto que los pájaros se han vuelto más coloridos con el paso del tiempo.

Fuentes: Nota fuente de Science | Artículo original | Traducción del poema “Bluebird” de Bukowski | Nota de Historias Cienciacionales  | Imagen

De cuando Triceratops, junto con nuestra infancia, casi se extingue.

dinoo La imagen de Triceratops en libros, películas y caricaturas fue una constante. Este dinosaurio fornido de tres cuernos y cráneo expandido es un clásico en los libros infantiles, el herbívoro por excelencia, una presa típica para los siempre hambrientos Tyrannosaurus de papel.

Por otra parte, Torosaurus es una especie emparentada con Triceratops, pero un poco diferente. Y hasta hace poco escondía un profundo secreto. La fronda craneal de Torosaurus es más alargada y tiene dos huecos, y el tamaño que alcanzan los adultos es mayor al que alcanzan los adultos de Triceratops. John Scannella y Jack Horner, ambos de la Universidad Estatal de Montana, en Estados Unidos, notaron algo raro en este patrón: no hay registro fósil de ejemplares pequeños de Torosaurus. Todos los fósiles que se conocen son adultos y, curiosamente, su tamaño comienza a partir del tamaño de los ejemplares más grandes de Triceratops.

Se dieron cuenta de esto al analizar los hallazgos que durante 10 años el proyecto Hell Creek llevó a cabo en la formación Hell Creek, en Montana y Dakota, donde se recuperaron muchos cráneos de Triceratops desde menos de 50 centímetros hasta unos que alcanzaban los dos metros. En ese mismo estrato encontraron pocos cráneos de Torosaurus, todos ellos de dos a tres metros de longitud. ¿Cómo explicar la ausencia de individuos jóvenes en Torosaurus? Quizá con el argumento de que el registro fósil es incompleto, lo cual es cierto. Sin embargo, si consideramos que estos dinosaurios vivieron y murieron de manera contemporánea a los Triceratops, podemos pensar que la probabilidad de fosilización fue similar para ambas especies, lo cual nos lleva a preguntarnos si existe una mejor explicación a este descubrimiento, sobre todo si tomamos en cuenta que es más fácil que se fosilicen restos pequeños.

El único rasgo que distingue sin duda a Triceratops y Torosaurus es que el último tiene una fronda más grande con dos aperturas. Todas las demás características entre ambos dinosaurios son muy similares. Los dos han sido encontrados únicamente en la formación Hell Creek, lo cual quiere decir que compartieron tiempo y espacio hace aproximadamente 67-65 millones de años, durante el periodo Cretácico. Fue en este periodo que ocurrió la extinción de los "lagartos terribles", por lo que Triceratops y Torosaurus son considerados como los últimos dinosaurios con cuernos. Quizá la respuesta al misterioso patrón encontrado por John Scannella y John Horner yace en una explicación ontogenética. La ontogenia se refiere a los cambios morfológicos por los que un individuo pasa a lo largo de su vida, desde que es un embrión hasta que muere. Podemos pensar en los cambios ontogenéticos como los cambios en el desarrollo de un organismo, como la aparición de vello facial en los hombres o el cambio en la proporción de la cabeza respecto el resto del cuerpo. Así como los mamíferos, todos los seres vivos tienen cambios ontogenéticos.

La pregunta que se plantearon Scannella y Horner fue si el patrón del registro fósil observado podía deberse a cambios ontogenéticos en Triceratops, y no a la existencia de dos especies que en su tiempo fueron contemporáneas. Para contestarse, tomaron todos los cráneos disponibles de ambas especies y los analizaron sin diferenciarlos entre sí. Clasificaron todos estos cráneos en estadios según el tamaño, es decir, en “etapas de vida” –bebés, juveniles, subadultos, adultos– y después midieron diversos rasgos que podían cambiar durante el desarrollo de los individuos.

Encontraron que varios rasgos van cambiando como un continuo a través de los cráneos, es decir, que en ningún momento se nota un brinco o diferencias muy grandes que separen los ejemplares de Triceratops de los de Torosaurus. Por ejemplo, en los cráneos clasificados tradicionalmente como “Triceratops adultos” existen regiones cada vez más delgadas en la fronda mientras mayores son los cráneos. La posición de estas regiones coincide con la de los huecos en las frondas de Torosaurus, de manera que lo que se ve, al analizar todos los cráneos juntos, es que las frondas van adelgazando paulatinamente.

Ésta y otras evidencias ontogenéticas llevó a los paleontólogos a dudar si lo que estaban viendo en el registro fósil realmente eran dos especies diferentes o si, más bien, se trataba de una sola cuyos adultos fueron clasificados por error como un dinosaurio distinto. Los análisis estadísticos que realizaron juntando la información que existía sobre los cráneos de Triceratops y Torosaurus no mostraron diferencias que pudieran separarlos como dos especies distintas. Más bien, en la mayoría de los rasgos analizados, Triceratops y Torosoaurus muestran un patrón continuo, como el que se esperaría si fueran una misma especie en diferentes etapas ontogenéticas.

Así, Torosaurus y Triceratops, antes consideradas como dos especies, se fusionaron en una sola. El nombre de Triceratops fue el que se decidió conservar, respetando a todos esos niños –y no tan niños– que recuerdan a Triceratops con cariño. Torosaurus, por desgracia, pasó a la historia.

Este ejemplo ilustra cómo nuestro conocimiento sobre la vida en el pasado está sujeto a las herramientas que tenemos para estudiarlo y analizarlo ¿Ocurrirá este sesgo también en el estudio de la vida en el presente? Lo más probable es que sí. Nuestro conocimiento, y por lo tanto nuestra percepción de la vida, están condicionados por cómo nos podemos aproximar a ella. Triceratops, afortunadamente (y por ahora), seguirá en los libros para colorear.

Fuentes:

Artículo original aquí |  Nota de Historias Cienciacionales | Imagen 

Vine, vi, muté y vencí: la rápida adaptación de Helicobacter pylori a tu estómago.

helico La próxima vez que te lleves las manos al estómago por un dolor de úlcera, piensa que lo más probable es que se deba a la bacteria Helicobacter pylori y trata de consolarte con el hecho de que este bicho está dándole a tu cuerpo la oportunidad de convertirse en un auténtico escenario de evolución. Porque ¿qué escenario más adecuado para mostrar las capacidades extremas de adaptación de esta bacteria que la violenta acidez de tu estómago? Es un lugar tan hostil que H. pylori es prácticamente la única bacteria capaz de habitarlo. Y por si los jugos gástricos no bastaran, esta bacteria también debe lidiar con nuestro sistema inmune, el coco de casi todos los organismos que pretenden habitar nuestro cuerpo con intenciones sospechosas. ¿Cómo es que H. pylori supera estos desafíos de forma tan eficaz, al grado de que se puede encontrar en la mitad de la población humana?

H. pylori supera el desafío de la acidez, en parte, enterrándose con sus flagelos en forma de tornillo en la mucosa gástrica del estómago, donde encuentra un ambiente menos hostil y desde donde produce una sustancia que descompone la urea del estómago en dióxido de carbono y amoníaco, un compuesto básico que neutraliza los ácidos estomacales. La forma en que H. pylori supera el segundo desafío, el del sistema inmune, no se conocía muy bien, pero se sabe que lo hace de una manera muy eficaz, pues es capaz de sobrevivir en un estómago durante todo el tiempo que el dueño de ese estómago se mantenga con vida. La mayor parte de las veces, la infección de H. pylori no produce síntomas, pero a veces provoca dolorosas úlceras gástricas que hacen que uno se lleve las manos al estómago y vuelva a pensar “¿por qué debo ser yo el escenario perfecto de un caso de éxito evolutivo?” Y precisamente, ¿por qué es la infección de H. pylori un caso de éxito evolutivo?

Un equipo de investigadores de la Universidad Estatal de Pennsylvania, Estados Unidos, creen haber encontrado las respuesta a cómo H. pylori evade el sistema inmune. Ellos sabían que la bacteria tiene una relación evolutiva muy antigua con sus hospederos: diferentes grupos humanos en diferentes partes del mundo alojan diferentes cepas de H. pylori. Esto es seña de que la bacteria evoluciona dentro del cuerpo humano. También hay estudios sobre cuánta mutación (cambios en el ADN) sufre la bacteria dentro del cuerpo a lo largo de los años. Pero a estos investigadores, liderados por Bodo Linz, les interesaba saber si esas mutaciones podían explicar el éxito de H. pylori al colonizar tu estómago.

Para responderse, compararon los genomas de diferentes cepas de la bacteria en diferentes momentos de la infección: antes de alojarse en el estómago de voluntarios, a los 20 y a los 44 días de infección. Además, hicieron un experimento similar con macacos. Encontraron en ambos casos que las bacterias mutan mucho más frecuentemente (de 30 a 50 veces más) en la fase temprana de la infección que en la tardía, una vez que bacteria y sistema inmune llegan a un equilibrio.

Linz y su equipo creen que estas altas tasas de mutación son la estrategia que H. pylori usa evadir al sistema inmune. El sistema inmune reconoce a los organismos ajenos por medio de las moléculas en las membrana de los invasores. Si el sistema no reconoce la molécula, debe pasar por una fase de respuesta más larga comparada con la que pasaría si la reconociera de inmediato. Así que una forma que tienen los microorganismos invasores de esquivar el sistema es innovar constantemente en la composición de sus moléculas de mebrana. Los investigadores creen que las altas tasas de mutación de H. pylori al inicio de la infección les permiten generar nuevas y mejores moléculas en sus membranas.

Para decirlo mejor, las mutaciones les confieren a las bacterias de H. pylori una azarosa vastedad de nuevas características, algunas de las cuales les ayudarán a sobrevivir en el estómago, algunas de las cuales las cambiarán tanto que no sobrevivirán y algunas de las cuales no les servirán ni les dañarán. Entre aquellas características nuevas y benéficas, los investigadores creen que tal vez las más útiles sean las que les dan la capacidad de generar nuevas moléculas de membrana. Y así, aquellas bacterias que, por fortuna para ellas, le hayan atinado a una mutación benéfica, sobrevivirán y se reproducirán más, pues el sistema inmune no las atacará de inmediato. Y con tasas tan altas de mutación, las bacterias pueden colonizar tu estómago en menos tiempo de lo que le toma a tu sistema inmune deshacerse de ellas. Es evolución plena y en acción (desafortunadamente, para tu perjuicio).

Así que la próxima vez que te lleves las manos a tu estómago por una dolorosa úlcera, piensa que el dolor es el precio que hay que pagar por llevar en el cuerpo un escenario de evolución tan eficaz e ilustrativo.

______________________

Aquí el estudio original | Aquí la nota fuente | Nota Original en el Blog de Historias Cienciacionales | Imagen tomada de la nota fuente.

La concepción acerca del tiempo y espacio de "Alicia en el país de las maravillas"

conejitoPara cuando Lewis Carroll publicó los dos libros de las aventuras de Alicia, en las matemáticas y la física se debatía la idea de tiempo y espacio. Carroll, cuyo nombre real era Charles Dodgson, era matemático y lógico, y compartía la visión de que la geometría del espacio y tiempo no son universales. Carroll observó que los problemas de temporalidad eran fundamentales para la lógica y para otros mundos. Y es justamente el tiempo el que funciona como gatillo en las aventuras de Alicia. Ejemplo claro de ello es cuando el conejo saca un reloj de su chaqueta y ella lo sigue.

Durante la vida de Carroll, espacio y tiempo comenzaron a ser entendidos como conceptos relacionados. Un año antes de que se publicara "A través del espejo", el físico Hermann von Helmholtz unió muchas de las propuestas en geometría realizadas en las últimas dos décadas, como la posibilidad de que dos líneas paralelas se crucen. Con esto, concibió la idea de que existan seres inteligentes viviendo en planetas aplastados, con cuatro o dos dimensiones.

Carroll no compartía esta visión del mundo de manera profesional, pero dejó que esto empapara la ficción. Así, Alicia se encoje y se hace enorme, es aplastada en la casa del conejo o tiene un cuello más alto que el follaje de los árboles. En un espacio y tiempo alternativo, la forma de su cuerpo no es constante, y la relación con su ambiente es aproximado.

En el segundo libro, Carroll demuestra un entendimiento por cómo tiempo y espacio se pueden arrugar. Alicia se vuelve consciente de que la manera en que concebimos el tiempo no es el único patrón disponible. Por ejemplo, cuando la reina roja se entera que los días ocurren uno a la vez en el país de Alicia, ella menciona que “esa es una mala manera de hacer las cosas. Aquí, la mayoría de las veces tenemos días y noches dos o tres veces al mismo tiempo, y a veces en invierno tomamos hasta cinco noches juntas –tú sabes, para calentarse–“.

El tiempo en las aventuras de Alicia tiene sentido sólo de forma local. Pero las diferentes formas que éste toma no pueden estar juntas porque se resisten a tener una conclusión. Tal vez las diferentes modalidades que tiene el tiempo en estas aventuras explica la atracción de los surrealistas por Alicia, algo que le sucedió a Salvador Dalí.

____________________

Comentario publicado por Gillian Beer en la revistaNature | Nota Original de Historias Cienciacionales | Imagen

La aerodinámica incontrolable de los balones del mundial.

tumblr_n7hd9cmyOY1snnhngo1_1280“Es claro que la persona que diseñó este balón nunca jugó fútbol. Pero no hay nada que podamos hacer; debemos jugar con él”, fue lo que dijo Robinho durante el mundial de Sudáfrica cuando se le preguntó sobre el balón diseñado para esa copa del mundo. Para el mundial del país africano, Adidas lanzó el Jabulani esperando superar el trago amargo por las críticas hacia el Fevernova y el Teamgeist, balones de los dos mundiales anteriores. Las novedades involucraban parches moldeados y una superficie que pretendía mejorar la aerodinámica. Sin embargo, Jabulani recibió incluso más críticas que estos dos balones.

Las variaciones sutiles en cada nuevo balón hacen la diferencia en su desempeño en la cancha. Las superficies son importantes para la manera en que vuelan. El jugador brasileño Luís Fabiano llamó al Jabulani “súper natural” porque su trayectoria cambiaba impredeciblemente mientras volaba por el aire. En cambio Brazuca, el balón con el que se juega hoy en Brasil, tiene costuras que son 50% más largas, lo cual hace que el balón sea menos liso y con un vuelo más predecible.

Ahora, pasemos a la física. Lionel Messi patea los balones basándose en el efecto Magnus, principio que sostiene que las pelotas se curvan en la dirección del giro que se le da al balón. Es así que, cuando el argentino patea el balón en un tiro libre, lo golpea hacia fuera, haciendo que dibuje una curva de derecha a izquierda. Pero si Messi pateara un balón muy liso, el balón haría todo lo contrario: una curva de izquierda a derecha.

Los brasileños dicen que un balón es “una paloma sin alas” cuando tiene un movimiento impredecible si se le da giro con la patada. Esto se pudo ver en el partido de Italia contra Inglaterra del mundial en Brasil, cuando el jugador Pirlo engañó al portero, pero el balón golpeó el poste. Una prueba de que Brazuca presenta problemas de aerodinámica.

Es cierto que los balones de fútbol no son totalmente lisos, pero las modificaciones han ido en esa dirección a lo largo de los años. Mientras que otros deportes, como el baseball, tienen reglas estrictas para los cambios en las pelotas, el fútbol no.

__________________________

Artículo fuente  |  Nota fuente de ScienceDaily  | Con este video Adidas presentó a Brazuca  |  Nota Original en el Blog de Historias cienciacionales | Imagen

La impresionante diversidad genética mexicana.

mex Si pensamos en los rasgos entre un japonés y un alemán, podremos darnos una idea de lo distintos que son sus genomas. De este tamaño es la diferencia a nivel genético entre los mexicanos.

El primer estudio de la variación genética de los mexicanos, realizado con una precisión súper fina, mostró que México contiene 65 grupos étnicos diferentes –y no 55 como se había reportado con anterioridad–.

Los autores de este trabajo, que representan a instituciones mexicanas, inglesas, francesas y estadounidenses, tomaron muestras del material genético de 511 personas pertenecientes a poblaciones de todo el país, desde el desierto de Sonora, en el norte, hasta las selvas de Chiapas, en el sur.

Los resultados demostraron que los grupos en México con las diferencias más grandes son comparables a la relación entre europeos y asiáticos del este. Además, mientras más grande sea la distancia geográfica entre dos mexicanos, más distintos serán sus genomas.

Los autores llaman a estas variantes “globalmente extrañas, pero localmente comunes”, lo cual significa que una característica particular en el genoma de una población, como los mayas del sur, está bien representada entre sus integrantes, pero no en la de otro grupo que desciende de europeos, por ejemplo.

Una parte del estudio tomó en cuenta que muchos de los mexicanos son mestizos, resultado de la mezcla entre indígenas, europeos y africanos. El análisis sugiere que estas personas tienden a poseer las distinciones genéticas de sus indígenas vecinos, al punto de poder rastrear ancestros nativos. Por ejemplo, si se buscan los distintivos genéticos de los mayas, se podrá ver que se ubican en personas que actualmente viven en la península de Yucatán y en la parte norte del golfo, un vestigio de la ruta de comercio de esta civilización ancestral.

En el estudio se menciona que la diversidad a nivel genético se explica por el aislamiento de las poblaciones gracias a montañas, desiertos y demás barreras geográficas que caracterizan el territorio mexicano.

Este trabajo ayudará a rastrear, desde un punto genético, la historia de las poblaciones indígenas y, como mencionan los autores, a desarrollar mejores diagnósticos de enfermedades genéticas.

Bibliografía:

Artículo original en Science | Nota de Science | Nota Original en el Blog de Historias Cienciacionales