Blog Archives

El contacto entre amantes sincroniza su respiración, los latidos del corazón y reduce el dolor

Los científicos llevan tiempo intentando analizar por qué la gente que camina junta intenta inconscientemente sincronizar sus pasos o por qué las personas tienden a imitar la postura del interlocutor que tienen enfrente y a mover los labios como hace la persona a la que se escucha. Alguno estudios recientes se habían centrado en el hecho de que cuando varias personas cantan juntas se produce una sincronización de los latidos del corazón y de la respiración.

Esta nueva investigación, llevada a cabo por Pavel Goldstein, postgrado de la Universidad de California en Boulder y por el profesor Simone Shamay-Tsoory de la Universidad de Haifa, ha puesto su foco en las parejas de enamorados para comprobar si es posible que se produzca esa sincronización por razones sentimentales y si esta cercanía también tiene efectos en la percepción del dolor.

Para llevarlo a cabo se reclutaron 23 parejas heterosexuales de entre 23 y 32 años y se les enfrentó a situaciones análogas a las que se pueden producir en la sala de partos, es decir el hombre tiene un papel de observador pasivo y la mujer tiene un papel activo en el que padece dolor. Equipados con distintos aparatos que medían a la vez la respiración, el ritmo cardíaco, la temperatura corporal y otros parámetros fisiológicos, a la mujer se le colocaba en el brazo un dispositivo que le producía una pequeña molestia en el brazo aplicando calor. Alternativamente, se les sentaba en habitaciones separadas, en la misma habitación pero sin contacto físico o en la misma habitación juntos y cogidos de las manos.

Como era de esperar, la sincronización se produce desde el momento en el que se sientan juntos, aunque no haya contacto. El efecto desaparece en cuanto ella empieza a sentir dolor pero regresa en cuanto se toman de las manos ¡y el dolor se reduce!

En test psicológico previos se había medido la empatía entre la pareja, lo sincronizados que estaban mentalmente, y los experimentos revelaron que la reducción del dolor era mayor en las parejas más empáticas lo uqe, hipotéticamente, podría deberse a que afecte a una región del cerebro llamada Cortex cingulado anterior, que se asocia con la percepción del dolor, la empatía, y el corazón y la función respiratoria.

Este experimento, que podría entenderse como una constatación científica de que el cariño ayuda a pasar las penas, puede tener implicaciones terapéuticas en el tratamiento del dolor y en la reducción de la prescripción de opiáceos contra el dolor, auténtica epidemia en Estados Unidos.

Según sus autores, quedan pendientes los experimentos en los que sea el hombre el que padece el dolor y en los que se trata de parejas homosexuales para tener una visión más amplia de el efecto del contacto.

Catálogo actualizado de exoplanetas: 30 planetas habitables

El equipo del Telescopio Espacial Kepler ha presentado un catálogo actualizado de exoplanetas que incluye 219 nuevos planetas, de los cuales 10 se añaden a los 20 hasta ahora conocidos que tienen un tamaño similar  a la Tierra y están en la zona habitable de la estrella, que es la distancia que permite que el agua líquida se acumule en la superficie de un planeta rocoso.

Éste es el más extenso y detallado catálogo de exoplanetas publicado hasta la fecha. Con estos datos (disponibles públicamente en el NASA Exoplanet Archive) hasta ahora se han dscubierto 4.034 exoplanetas, de los cuales 2.335 ya han sido verificados; de los 50 planetas candidatos a “primos” de la Tierra, 30 también han sido verificados.

Este catálogo de la NASA va a servir para determinar la prevalencia en nuestra galaxia de planetas sin superficie sólida o que la tienen oculta tras una bajo una densa y profunda atmósfera. Hasta ahora, los datos del catálogo Kepler, indican que más de la mitad de los exo planetas son de este tipo. De hecho, en el Sistema Solar, así son los mayores planetas, los situados más allá del Cinturón de Asteroides, empezando por el gigantesco Júpiter y terminado en el azul Neptuno. Por supuesto, este tipo de planetas gaseosos son absolutamente inadecuados para el desarrollo de vida.

Otro dato curioso descubierto tras el análisis de los ingentes detos proporcionados por el Kepler, es que casi el setenta y cinco por ciento de los planetas rocosos descubiertos hasta la fecha son mayores que la propia Tierra. Aunque no es descartable que se trate simpemente de un problema de calidad en las observaciones, también es pòsible que exista alsgún proceso en la formación planetaria que haga que una vez alcanzado cierto tamaño, los planetas “barran” todo el helio y e hidrógeno a su alrededor para convertirse en planetas de tamaño más cervcano a Neptuno que a la propia Tierra.

De todas maneras,mlos datos ahora conocidos son el fruto de observaciones realizadas en lo spasados alos y ahora mismo el Telescopio Espacial Kepler está recogiendo y es previsible que en los próximos años siga recogiendo más y más información para conocer exoplanetas cercanos a la Tierra y con la condición de habitables para la especie humana.

¿Cómo se metieron los gatos en nuestras casas? La culpa es de Egipto

Restos de ADN encontrados en excavaciones arqueológicas muetran que los orígenes del gato doméstico están en el Antiguo Egipto. Los gatos fueron domesticados hace aproximadamente diez mil años y después se expandieron por Europa y otras partes del mundo a través del comercio. Los anális de ADN también muestran que la mayoria de los gatos domésticos primitivos eran rayados y que los gatos con manchas fueron raros hasta bien entrada la Edad Media.

Hoy en día se conocen cinco subespecies de gato silvestre, Felis silvestris, y los esqueletos de todas ellas son indistinguibles de los gatos domésticos actuales. En consecuencia. es imposible determinar a través de los esqueletos recuperados en excavaciones arqueológicas, cuál de esas subespecies (o cuáles de ellas) fueron domesticadas en tipos lejanos. Un equipo formado por investigadores de la Uiversidad de Leuven y del Real Instituto Belga de Ciencias Naturales se propuso descifrar este enigma a través del código genético. Para ello emplearon ADN recuperado de huesos, dientes piel y pelo de casi doscientos gatos recuperados en excavaciones arqueológicas en el Cerano Oriente, África y Europa. Los restos tenñian entre cien y nueve mil años de antigüedad.

Restos arqueológicos de gatos

Las muestras de ADN han revelado que todos los gatos domesticadso descienden del gato salvaje africano o Felis silvestris lybica,una subespecie frecuente en el norte de África y en Oriente Próximo. Los primeros gatos fueron domesticados hace aproximadamente hace diez mil años y se acercaron a los asentamientos agrícolas humanos que, a su vez, erán, tremendamente atractvos para los roedores. Con el tiempo, la relación se fue estrechando y una selección basada en un comportamiento más tolerante con el ser humano condujo a la domesticación.

La expansión de los gatos tuvo lugar probablemente gracias al comercio, ya que permitía a los barcos mercantes mantener su mercancía protegida de ratas y ratones. Desde Egipto, las rutas comerciales llevaron los gatos por todo el Mediterráneo, el Mar Negro el Medio Oriente. Incluso han aparecido huesos de un gato con una marca egipcia en un poblado vikingo cerca del Mar Báltico.

No está del todo claro, pese a todo, si los gatos que se distribuyeron por el mundo desde Egipto eran propios de la zona o llegaron desde Babilonia, donde se inició todo el proceso de sedentarización agrícola.

Colateralmente, el estudio ha permitido determinar el patrón en la piel de los gatos a partir del ADN de ejemplares momificados. Del mismo modo que los gatos representados en las pinturas murales egipcias eran rayados, los gatos “con manchas” son relativamente recientes y no aparecieron hasta bien avanzada la Edad Media.

 

 

Pruebas nocturnas para robots interplanetarios

En estos días están teniendo lugar en el Parque Nacional del Teide, en las Islas Canarias, distintos ensayos diurnos y nocturnos del Rover Autonomy Testbed (banco de pruebas de autonomía de rovers),

En esta fotografía que vemos a continuación, uno de los dos sistemas desplazados hasta el archipiélago canario gira sobre sí mismo con las luces encendidas, en una prueba que simula el entorno poco iluminado de los polos lunares.

Los rovers que están siendo sometidos a pruebas por un equipo de GMV en España y el equipo Heavy Duty Planetary Rover de la ESA, están equipados con sistemas de ayuda a la navegación con y sin luz natural. entre los que se incluyen visores láser e iluminación. Con estos y con otros sensores, están diseñados para elaborar sobre la marcha mapas en 3D de su entorno, bien para operar de modo autónomo, bien para la asistencia al operador en modo de control remoto.

La principal razón por la que se han desplazado estos equipos y sus correspondientes técnicos hasta el Parque Nacional del Teide es la similitud del entorno rocoso con los posibles escenarios lunares a los que estarían destinados final mente los rovers. También hay que tener en cuenta todas las infraestructuras que ofrece la isla para temas astronómicos  el conocimiento de la región por muchos equipos de científicos de la materia.

Para no perderse detalle de la evolución de estos tests, se puede seguir en Twitter la etiqueta #DarkRover

#PorSiTeLoPerdiste – Girando en la noche, así pillaron al HPDR rover @KpRobotics en Tenerife: https://t.co/xN8OWa4PfC #DarkRover pic.twitter.com/HJJmTGxLov

— ESA España (@esa_es) 17 de junio de 2017

Las presas hidroeléctricas ponen en peligro el futuro de la cuenca del Amazonas

Un equipo internacional de científicos advierte de los profundos impactos ambientales que las más de 100 presas de este tipo tienen en el sistema fluvial de la región

Cristina G. Pedraz/DICYT La cuenca del Amazonas cuenta con más de un centenar de presas hidroeléctricas y en la actualidad se están considerando numerosas propuestas para construir otras tantas. Pero, ¿tiene la cuenca del Amazonas capacidad para soportar todas estas infraestructuras sin perturbar su ecosistema? Los expertos lo tienen claro. Seguir en esta línea pone en claro riesgo el futuro de la cuenca.

Cuenca del Amazonas/E.M. Latrubesse

Así lo alerta en un artículo conjunto publicado en Nature un equipo internacional de investigadores de la Universidad de Texas (EEUU), la Universidad Tecnológica Nanyang (Singapur), la Universidad de California (EEUU), la Universidad de Arizona (EEUU), el Instituto Nacional de Investigaciones Amazónicas (Brasil), el Instituto Tecnológico Karlsruhe (Alemania), la Universidad de Duke (EEUU), Yachay tech (Ecuador), la Universidad Federal del Amazonas (Brasil), la Universidad de Oxford (Reino Unido) y la Universidad de São Paulo (Brasil).

En el trabajo, los científicos liderados por Edgardo M. Latrubesse, de la Universidad de Texas, explican que los efectos ambientales negativos acumulados por las presas existentes y los que producirán las presas propuestas, si se construyen, “desencadenarán perturbaciones hidrofísicas y bióticas masivas que afectarán a las llanuras de inundación –espacios de terreno adyacentes a los ríos que quedan cubiertas de agua durante las crecidas-, al estuario –la desembocadura- y a los penachos de sedimentos”.

‘Thamnophilus huberi’, especie endémica en peligro de extinción que solo se encuentra en la ribera del Tapajós/F. d’Horta

El artículo cuestiona así si los beneficios ecológicos de la generación de energía hidroeléctrica a través de la construcción de presas superan los costos del enorme daño que se está produciendo en el sistema fluvial más rico y productivo del mundo.

Hasta el momento, la mayoría de evaluaciones de los impactos ambientales de estas presas se habían centrado en los efectos a escala local en las proximidades de cada una de ellas. Para estimar el impacto actual y el impacto potencial futuro en toda la cuenca amazónica, el equipo diseñó una nueva herramienta, un Índice de Vulnerabilidad Ambiental. Los resultados de su análisis apuntan que los impactos varían según la región, de acuerdo con el número de presas actuales y futuras. También exploran la vulnerabilidad del sistema en relación a los cambios en el flujo de sedimentos, ya que su atrapamiento por las grandes presas se considera uno de los mayores problemas.

Río Madeira, el mayor afluente de la cuenca del Amazonas/E.M. Latrubesse

Los investigadores encontraron que la región que enfrenta la mayor amenaza debida a la construcción de presas hidroeléctricas es la cuenca del Madeira, el afluente más grande del Amazonas, que proporciona alrededor del 50% del sedimento al sistema fluvial. Además, prevén que la región de Tapajós sufrirá grandes impactos de carácter hidrológicos debido al gran número de presas construidas (28) y planificadas (90), también a lo largo de este importante afluente.

Por todo ello, advierten de “la necesidad de una acción colectiva entre estados y naciones para evitar los impactos acumulados y de largo alcance” y sugieren innovaciones institucionales para evaluar y evitar el probable empobrecimiento de los ríos amazónicos. Por ejemplo, señalan que el sector energético “debe formar parte integrante en la planificación y gestión de iniciativas en la cuenca del Amazonas” y que se deben implementar “procesos participativos que consideren las necesidades y expectativas de las comunidades locales”. Por otro lado, abogan por “integrar la información científica y técnica multidisciplinar en múltiples escalas y lugares, incluidos los análisis políticos y socioeconómicos”.

Referencias bibliográficas:
Latrubesse, E.M., Arima, E.Y., Dunne, T., Park, E., Baker, V.R. et al. (2017). “Damming the rivers of the Amazon basin”. Nature. doi:10.1038/nature22333

 

Un software detecta la difamación fraudulenta en sitios web de comercio electrónico

El programa es capaz de identificar la acción coordinada de evaluación negativa de productos realizada por falsos usuarios en tiendas online

AGENCIA FAPESP/DICYT Las empresas de comercio electrónico (e-commerce) que utilizan recomendaciones realizadas por sus clientes en sus sitios web para promover sus productos y servicios se encuentran sujetas a la acción de falsos usuarios. Mediante un plan coordinado, éstos pueden evaluar negativamente un determinado producto, por ejemplo, con la intención de desalentar a otros consumidores para que no lo compren.

Un grupo de investigadores del Instituto de Ciencias Matemáticas y Computación de la Universidad de São Paulo (ICMC-USP), en su campus de la ciudad de São Carlos (São Paulo, Brasil), desarrolló un software que promete detectar con mayo eficiencia esas acciones de difamación fraudulenta en sistemas de recomendación online.

Dicho sistema, denominado Orfel (las siglas en inglés de Online-Recommendation Fraud ExcLuder), se desarrolló durante la maestría del estudiante Gabriel Perri Gimenes y en el marco de los proyectos de investigación intitulados “División relacional por semejanza en bancos de datos” y “Procesamiento analítico de grandes grafos”, realizados con el apoyo de la FAPESP.

Los resultados de la aplicación de este nuevo método aparecen descritos en un artículo publicado en la revista Information Sciences.

“El algoritmo logró detectar más del 95% de los potenciales ataques maliciosos en sistemas de recomendación online y con mayor eficiencia que uno de los principales algoritmos utilizados actualmente con esa finalidad”, declaró Perri Gimenes a Agência FAPESP.

De acuerdo con el estudiante, quien ahora realiza su doctorado también con beca de la FAPESP, este nuevo método se orienta a detectar un comportamiento llamado “lockstep” en sistemas de recomendación de tiendas online como Google Play y Amazon.

Con la intención de expandir sus bases de clientes, estas empresas utilizan un sistema de recomendación mediante el cual los usuarios efectúan reviews (evaluaciones) sobre los productos o los servicios que adquirieron y les ponen notas, que varía de 0 a 5 estrellas, por ejemplo.

Sin embargo, estos sistemas de recomendación son susceptibles al comportamiento de “lockstep”, cuando, en una acción coordinada, un grupo de usuarios con perfiles falsos le asigna al mismo tiempo una misma nota baja a un conjunto de productos con la intención de rebajar su reputación.

“Supongamos que un grupo de cinco usuarios de una tienda de aplicaciones online le asigne una nota baja a una determinada aplicación a las 22 horas de un día cualquiera y que ese mismo grupo de personas efectúe evaluaciones negativas de otra aplicación un día después. Esto constituye un indicio del comportamiento ‘lockstep’”, explicó Perri Gimenes.

La dificultad para detectar estos ataques de múltiples usuarios falsos que interactúan con diversos productos en momentos aleatorios reside en que los mismos se concretan en medio de millones de evaluaciones de productos realizadas por usuarios por segundo. Por eso mismo es que pueden quedar camuflados.

No obstante, el punto débil de estos ataques consiste en que suelen perpetrarse durante una misma ventana de tiempo y en flujos o bursts, tal como los denominan los investigadores.

Con el objetivo de identificar estos patrones de comportamiento, el algoritmo desarrollado por Perri Gimenes en colaboración con los profesores Robson Leonardo Ferreira Cordeiro y José Fernando Rodrigues Júnior, del ICMC-USP, efectúa un seguimiento de las evaluaciones realizadas por los usuarios en un sistema de recomendación online y verifica si las mismas se concretaron en un mismo intervalo de tiempo y si otorgan las mismas notas, por ejemplo.

De ser así, el software apunta esos comportamientos sospechosos para que se pueda analizar si se trata o no de acciones fraudulentas.

De confirmarse las sospechas, la empresa puede expulsar a los autores de las evaluaciones y remover todas las interacciones que hayan concretado en su base de datos.

“La idea es que una empresa de comercio electrónico observe las listas de comportamientos sospechosos detectados por el sistema y realice un análisis manual o automatizado a los efectos de confirmar si se trata o no de “lockstep”, un comportamiento mucho más raro, pero más fácil de detectarse que un ataque individual a la reputación de un producto”, comparó Perri Gimenes.

Con una sola computadora

La eficiencia del nuevo algoritmo para detectar potenciales ataques “lockstep” se evaluó mediante el empleo de datos sintéticos de interacciones entre usuarios y productos en un sistema hipotético de recomendación online.

Los investigadores generaron artificialmente ataques al sistema y ejecutaron el algoritmo en una sola computadora para evaluar su capacidad de detección comparada con un algoritmo llamado CopyCatch.

Este último algoritmo, que está considerado como el estado del arte y fue desarrollado por investigadores estadounidenses, se vale de un abordaje análogo al de Orfel para detectar comportamientos artificiales entre usuarios y páginas de Facebook –tales como “me gusta” fraudulentos–, pero mediante el empleo de clústeres computacionales (conjunto de computadoras que trabajan en forma coordinada).

Los resultados de los análisis de desempeño indicaron que, aun al ejecutárselo en una sola computadora, Orfel fue capaz de detectar más del 95% de los ataques simulados y en un lapso de tiempo comparable al que CopyCatch tardó para ejecutar la misma tarea empleando mil ordenadores.

“Demostramos que la combinación de técnicas de computación, tales como el procesamiento paralelo centrado en disco, puede erigirse en una alternativa a los clústeres computacionales para solucionar diversos problemas, como el de la detección de difamación fraudulenta”, afirmó Perri Gimenes.

De acuerdo con los investigadores, el algoritmo también puede tener otras aplicaciones: para caracterizar la promoción ilegítima de publicaciones y páginas en Facebook y para detectar citas cruzadas en revistas científicas, por ejemplo.

Descubren el secreto de las plantas para alargar sus raíces

Frente a la expansión de las zonas áridas o secas como consecuencia del cambio climático, un grupo de científicos de Argentina, Corea del Sur, Austria y Francia decidió enfrentar el problema de raíz

CONICET/DICYT Los investigadores descubrieron rutas moleculares que alargan los llamados “pelos radiculares” de las plantas, lo cual posibilitaría una mejor captación de nutrientes y agua y, en definitiva, una mayor productividad. El hallazgo fue publicado en la revista “Proceedings of the National Academy of Sciences” (PNAS).

“Los resultados son muy alentadores”, señala el codirector de la investigación, el doctor José Manuel Estévez, jefe del Laboratorio Bases Moleculares del Desarrollo Vegetal del Instituto de Investigaciones Bioquímicas de Buenos Aires (IIBBA)-CONICET y del Instituto Leloir. “Cultivos como el trigo, el maíz y la soja podrían mejorar la captación de nutrientes esenciales y agua en suelos pobres en fosfatos y en períodos prolongados de sequía”.

Pelos radiculares de las plantas/Conicet

En el estudio, Estévez y sus colegas (un equipo de 15 investigadores y becarios) identificaron una conexión molecular a la que definieron como “crucial”: las hormonas auxinas, que favorecen el aumento del tamaño de las células vegetales, activan la expresión de cientos de genes aunque aproximadamente siete de ellos son claves en el control de la prolongación de los pelos radiculares.

“Si bloqueábamos esa hormona o esos genes, la longitud de los pelos radicales disminuía”, afirman las primeras autoras del avance, la doctora Silvina Mangano, y las licenciadas Silvina Denita-Juárez y Eliana Marzol, investigadoras del CONICET en el laboratorio de Estévez.

En cambio, la manipulación de esas “piezas” permitió duplicar la longitud de los pelos radiculares, dice Estévez. “Este conocimiento sienta bases para el desarrollo de estrategias que impacten en la productividad de cultivos a gran escala”, agrega el científico cuyo trabajo se inició en el IFIBYNE (centro de investigación ubicado en la Facultad de Ciencias Exactas y Naturales de la UBA) hace aproximadamente 4 años y luego se desarrolló a partir de abril de 2015 en el IIBBA.

Para realizar el experimento, los científicos combinaron el uso de herramientas genéticas junto con técnicas de microscopia avanzada y biología celular en Arabidopsis thaliana (una crucífera que se suele usar como modelo en estudios de fisiología vegetal y que comparte genes con plantas de interés agronómico).

Un sueño de Einstein se hace realidad: pesar una estrella con la gravedad

La deflexión o desviación gravitatoria de la luz estelar que pasó alrededor del Sol durante el eclipse solar de 1919 proporcionó mediciones que confirmaron la teoría de la relatividad general de Einstein. Ahora, los científicos han utilizado una técnica parecida para registrar esas desviaciones luminosas en una estrella y medir su masa.

Unos cien años después de que Einstein desarrollara la teoría de la relatividad general, que ha revolucionado la forma en que los seres humanos comprendemos el universo, un grupo de investigadores liderados desde el Space Telescope Science Institute (EE UU) ha logrado determinar la masa de una estrella enana blanca a partir de sus leyes.

Hasta el momento, la posibilidad de medir la masa de una estrella en función de los efectos gravitacionales que esta ejerce sobre la luz pertenecía al plano teórico. En un artículo publicado en 1936 en Science, el propio Einstein sostenía que era imposible: “No hay esperanza de observar este fenómeno de forma directa”.

Ilustración de cómo la gravedad de una estrella enana blanca deforma el espacio y dobla la luz procedente de otra estrella distante situada detrás. El telescopio espacial Hubble registra el fenómeno. / NASA, ESA, and A. Feild (STScI)

Una de las predicciones clave de su relatividad general establecía que la curvatura del espacio cerca de cuerpos enormes, como las estrellas, hace que cualquier rayo de luz que pase cerca de estas se desvíe el doble de lo que se esperaría en función de las leyes de gravedad tradicionales.

El padre de la relatividad predijo que, cuando una estrella frontal se interpone entre nosotros y otra estrella situada de fondo, se produce un fenómeno llamado microlente gravitacional que genera un anillo de luz perfecto, también llamado ‘anillo de Einstein’.

Sin embargo, tras un siglo de avances tecnológicos, no se había logrado observar un escenario un poco diferente a este: dos estrellas apenas desalineadas que generen un anillo de Einstein asimétrico. Según Einstein, esta asimetría es importante debido a que ocasionaría que la estrella de fondo se viera desviada del centro, de forma que podría utilizarse para determinar la masa de otra estrella frontal localizada delante.

El equipo de científicos coordinados por Kailash Chandra Sahu desde el Space Telescope Science Institute buscó de forma proactiva esta rara alineación asimétrica en más de 5.000 estrellas. En marzo de 2014 descubrieron que la estrella enana blanca Stein 2051 B estaba en la posición perfecta, justo delante de una estrella de fondo.

La ayuda del telescopio espacial Hubble

Entonces, los científicos dirigieron el telescopio espacial Hubble para observar el fenómeno y midieron pequeños cambios en la posición aparente de la estrella de fondo a lo largo del tiempo. A partir de la información recopilada, los autores pudieron estimar que la masa de la enana blanca era equivalente aproximadamente al 68% de la de nuestro Sol.

“En concreto, la medición de esta deflexión en múltiples momentos nos permitió determinar la masa de Stein 2051 B –la sexta enana blanca más próxima al Sol– como 0,675 ± 0.051 masas solares”, señalan los autores en su estudio, que se publica esta semana en Science, a la vez que se presenta en la reunión de primavera que la American Astronomical Society celebra estos días en Austin (EE UU).

La medición directa de la masa de Stein 2051 B también ofrece datos importantes para comprender mejor la evolución de las enanas blancas, el tipo de estrellas más común en el universo. De hecho, la mayoría de las estrellas que se han formado en nuestra galaxia, incluido el Sol, se convertirán o son ya enanas blancas.

Referencia bibliográfica:
K.C. Sahu et al. “Relativistic deflection of background starlight measures the mass of a nearby white dwarf star”. Science, 7 de junio de 2017.

Las manos (y no la mente) del neandertal limitaban sus trabajos artesanales

Los neandertales y otros homínidos apenas dejaron muestras artísticas ni fabricaron microlitos, un tipo de tecnología de piedra de minúsculo tamaño

UCM/DICYT Unas falanges más cortas y unas manos menos habilidosas son las responsables de la ausencia de pequeñas herramientas de piedra en época neandertal, y no las deficiencias cognitivas ni simbólicas de los homínidos, como se pensaba. Así lo revela una investigación del Centro Mixto UCM-ISCIII de Evolución y Comportamiento Humano con participación de la Universidad Isabel I de Burgos, tras la recreación de estas extremidades a partir de hallazgos arqueológicos.

“Las manos de alguno de nuestros ancestros o coetáneos, como el Neandertal, fueron tan parecidas a las nuestras que nadie había sospechado que ahí podía encontrarse una diferencia crucial”, justifica Manuel Martín-Loeches, investigador del departamento de Psicobiología de la UCM.

Mediante una reconstrucción de la mano del Neandertal, basada en diversos hallazgos arqueológicos, se determinó el grado de esfuerzo que para esta especie hubiera supuesto la fabricación de este tipo de industria.

Los resultados, publicados en Journal of Anthropolological Sciences, revelaron que de las ocho posiciones manuales necesarias, seis suponían un tremendo estrés mecánico para la mano del Neandertal.

Según Martín-Loeches, muchos autores habían atribuido esta escasez de microlitos previa al Homo sapiens a las menores capacidades cognitivas o “simbólicas” de homínidos anteriores. Sin embargo, “fabricarlo no es nada fácil, exige una gran habilidad por parte de ambas manos, con movimientos muy definidos y precisos durante su fabricación”, añade.

Expertos talladores, a examen

Este tipo de tecnología en piedra –conocida como microlitos y de entre uno y tres centímetros– apenas figura en el registro fósil antes de la aparición de nuestra especie. Comienza a ser abundante desde hace 40 mil años, y ya se hacía de manera sistemática hace al menos 70 mil, en Sudáfrica.

En la investigación, los científicos filmaron las manos y brazos de dos expertos talladores de piedra con diferentes grados de experiencia mientras fabricaban microlitos, desde la extracción de lascas de un núcleo hasta el detalle y retoque de las minúsculas piezas microlíticas.

El posterior análisis biomecánico de los movimientos necesarios para la fabricación de esta industria, mediante software especializado, reveló una serie de posiciones de la mano fundamentales para la obtención de un microlito.

“Las falanges de los dedos Neandertales no eran lo suficientemente largas como para que el reparto de fuerzas necesario no hubiera sido eficiente durante la fabricación de microlitos”, apunta Francia Patiño, coautora y en ese momento alumna del Máster de Neurociencia de la UCM.

Los resultados apoyan recientes propuestas sobre el origen del arte en nuestra especie basadas en modelos de la psicología que establecen que la principal razón por la que otros homínidos no dejaron muestras de arte se encuentra en sus menores habilidades manuales, más que en la ausencia o presencia de una capacidad mental.

Referencia bibliográfica:
Patiño, F.Y.; Luque, M.; Terradillos-Bernal, M.;Martín-Loeches, M. “Biomechanics of microliths manufacture: A preliminary approach to Neanderthal’s motor constrains in the frame of embodied cognition”. Journal of Anthropolological Sciences. 2017 DOI: 10.4436/JASS.95005.

Descubren un exoplaneta gigante casi tan caliente como el Sol

Investigadores de 10 países, entre ellos Portugal, han descubierto un exoplaneta del tamaño de Júpiter y más caliente que la mayoría de las estrellas

CGP/DICYT Un planeta del tamaño de Júpiter que rodea a su estrella cada día y medio, con temperaturas más altas que la mayoría de las estrellas y con una gigantesta y brillante cola de gas, como un cometa. Esto es lo que ha encontrado un equipo internacional de astrónomos liderado por las universidades Ohio State y Vanderbilt (Estados Unidos) en órbita alrededor de una estrella masiva a la que han denominado KELT-9, ubicada a 650 años luz de la Tierra en la constelación Cygnus. El trabajo, en el que participa una entidad portuguesa, el Crow Observatoryde Portoalegre, acaba de publicarse en la revista Nature.

Con una temperatura que durante el día alcanza un máximo de 4.600 grados Kelvin (unos 4.326 grados Celsius), el recién descubierto exoplaneta es tan sólo 1.200 grados Kelvin (unos 926 grados Celsius) más frío que nuestro propio Sol. Se trata de una temperatura tan alta que podría causar que las moléculas se separaran y su atmósfera se evaporara.

La razón por la que este exoplaneta es tan caliente es que la estrella que orbita es más del doble de grande y casi el doble de caliente que el Sol. “KELT-9 emite tanta radiación ultravioleta que puede evaporar completamente el planeta”, apunta Keivan Stassun, profesor de la Universidad de Vanderbilt, quien ha dirigido el trabajo junto con Scott Gaudí.

El exoplaneta tiene otras características igual de inusuales. Por ejemplo, es un gigante gaseoso 2’8 veces más masivo que Júpiter pero sólo la mitad de denso, porque la radiación extrema de su estrella ha causado que su atmósfera se hinche como un globo. Debido a la cercanía entre ambas –están tan cerca como está la Luna de la Tierra-, el planeta por el día está perpetuamente bombardeado por radiación estelar y, como resultado, es tan caliente que moléculas como el agua, el dióxido de carbono y el metano no pueden formarse allí.

De este modo, si la estrella empieza a expandirse, engullirá al planeta. “KELT-9 se hinchará para convertirse en una estrella gigante roja en alrededor de mil millones de años”, asegura Stassun.
Este hallazgo, -realizado también por investigadores de Dinamarca, Italia, Japón, Hawai, Suiza, Australia, Alemania y Sudáfrica-, ayuda a mejorar la comprensión de los planetas que orbitan alrededor de estrellas masivas y muy calientes, que hasta la fecha ha sido limitado debido al pequeño número de observaciones disponibles.

Se sabe que existen miles de exoplanetas en tránsito, pero sólo seis se han encontrado en órbita alrededor de estrellas calientes de tipo A (que tienen temperaturas de 7.300-10.000 kelvin), y ninguna se ha encontrado alrededor de estrellas más calientes de tipo B. Anteriormente, el planeta más caliente conocido (alrededor de 3.300 kelvin) se encontró orbitando una estrella con una temperatura de alrededor de 7.430 kelvin. La estrella que orbita el exoplaneta gigante hallado tiene una temperatura estimada de alrededor de 10.170 kelvin, colocándose en la línea divisoria entre las estrellas de tipo A y B.

Referencia bibliográfica:
Gaudi, B.S., Stassun, K. G., Collins, K. C., Beatty, T.G., Zhou, G. et al. (2017). “A giant planet undergoing extreme-ultraviolet irradiation by its hot massive-star host”. Nature. doi:10.1038/nature22392