Tecnología Archive

Un software detecta la difamación fraudulenta en sitios web de comercio electrónico

El programa es capaz de identificar la acción coordinada de evaluación negativa de productos realizada por falsos usuarios en tiendas online

AGENCIA FAPESP/DICYT Las empresas de comercio electrónico (e-commerce) que utilizan recomendaciones realizadas por sus clientes en sus sitios web para promover sus productos y servicios se encuentran sujetas a la acción de falsos usuarios. Mediante un plan coordinado, éstos pueden evaluar negativamente un determinado producto, por ejemplo, con la intención de desalentar a otros consumidores para que no lo compren.

Un grupo de investigadores del Instituto de Ciencias Matemáticas y Computación de la Universidad de São Paulo (ICMC-USP), en su campus de la ciudad de São Carlos (São Paulo, Brasil), desarrolló un software que promete detectar con mayo eficiencia esas acciones de difamación fraudulenta en sistemas de recomendación online.

Dicho sistema, denominado Orfel (las siglas en inglés de Online-Recommendation Fraud ExcLuder), se desarrolló durante la maestría del estudiante Gabriel Perri Gimenes y en el marco de los proyectos de investigación intitulados “División relacional por semejanza en bancos de datos” y “Procesamiento analítico de grandes grafos”, realizados con el apoyo de la FAPESP.

Los resultados de la aplicación de este nuevo método aparecen descritos en un artículo publicado en la revista Information Sciences.

“El algoritmo logró detectar más del 95% de los potenciales ataques maliciosos en sistemas de recomendación online y con mayor eficiencia que uno de los principales algoritmos utilizados actualmente con esa finalidad”, declaró Perri Gimenes a Agência FAPESP.

De acuerdo con el estudiante, quien ahora realiza su doctorado también con beca de la FAPESP, este nuevo método se orienta a detectar un comportamiento llamado “lockstep” en sistemas de recomendación de tiendas online como Google Play y Amazon.

Con la intención de expandir sus bases de clientes, estas empresas utilizan un sistema de recomendación mediante el cual los usuarios efectúan reviews (evaluaciones) sobre los productos o los servicios que adquirieron y les ponen notas, que varía de 0 a 5 estrellas, por ejemplo.

Sin embargo, estos sistemas de recomendación son susceptibles al comportamiento de “lockstep”, cuando, en una acción coordinada, un grupo de usuarios con perfiles falsos le asigna al mismo tiempo una misma nota baja a un conjunto de productos con la intención de rebajar su reputación.

“Supongamos que un grupo de cinco usuarios de una tienda de aplicaciones online le asigne una nota baja a una determinada aplicación a las 22 horas de un día cualquiera y que ese mismo grupo de personas efectúe evaluaciones negativas de otra aplicación un día después. Esto constituye un indicio del comportamiento ‘lockstep’”, explicó Perri Gimenes.

La dificultad para detectar estos ataques de múltiples usuarios falsos que interactúan con diversos productos en momentos aleatorios reside en que los mismos se concretan en medio de millones de evaluaciones de productos realizadas por usuarios por segundo. Por eso mismo es que pueden quedar camuflados.

No obstante, el punto débil de estos ataques consiste en que suelen perpetrarse durante una misma ventana de tiempo y en flujos o bursts, tal como los denominan los investigadores.

Con el objetivo de identificar estos patrones de comportamiento, el algoritmo desarrollado por Perri Gimenes en colaboración con los profesores Robson Leonardo Ferreira Cordeiro y José Fernando Rodrigues Júnior, del ICMC-USP, efectúa un seguimiento de las evaluaciones realizadas por los usuarios en un sistema de recomendación online y verifica si las mismas se concretaron en un mismo intervalo de tiempo y si otorgan las mismas notas, por ejemplo.

De ser así, el software apunta esos comportamientos sospechosos para que se pueda analizar si se trata o no de acciones fraudulentas.

De confirmarse las sospechas, la empresa puede expulsar a los autores de las evaluaciones y remover todas las interacciones que hayan concretado en su base de datos.

“La idea es que una empresa de comercio electrónico observe las listas de comportamientos sospechosos detectados por el sistema y realice un análisis manual o automatizado a los efectos de confirmar si se trata o no de “lockstep”, un comportamiento mucho más raro, pero más fácil de detectarse que un ataque individual a la reputación de un producto”, comparó Perri Gimenes.

Con una sola computadora

La eficiencia del nuevo algoritmo para detectar potenciales ataques “lockstep” se evaluó mediante el empleo de datos sintéticos de interacciones entre usuarios y productos en un sistema hipotético de recomendación online.

Los investigadores generaron artificialmente ataques al sistema y ejecutaron el algoritmo en una sola computadora para evaluar su capacidad de detección comparada con un algoritmo llamado CopyCatch.

Este último algoritmo, que está considerado como el estado del arte y fue desarrollado por investigadores estadounidenses, se vale de un abordaje análogo al de Orfel para detectar comportamientos artificiales entre usuarios y páginas de Facebook –tales como “me gusta” fraudulentos–, pero mediante el empleo de clústeres computacionales (conjunto de computadoras que trabajan en forma coordinada).

Los resultados de los análisis de desempeño indicaron que, aun al ejecutárselo en una sola computadora, Orfel fue capaz de detectar más del 95% de los ataques simulados y en un lapso de tiempo comparable al que CopyCatch tardó para ejecutar la misma tarea empleando mil ordenadores.

“Demostramos que la combinación de técnicas de computación, tales como el procesamiento paralelo centrado en disco, puede erigirse en una alternativa a los clústeres computacionales para solucionar diversos problemas, como el de la detección de difamación fraudulenta”, afirmó Perri Gimenes.

De acuerdo con los investigadores, el algoritmo también puede tener otras aplicaciones: para caracterizar la promoción ilegítima de publicaciones y páginas en Facebook y para detectar citas cruzadas en revistas científicas, por ejemplo.

Tecnoestrés, un desajuste físico y emocional por falta de habilidades en el uso de las TIC

Ansiedad, cansancio, dolores de cabeza, fatiga mental y física, dolores musculares, temor, aburrimiento, aislamiento y conductas agresivas o negativas hacia los demás, sus síntomas, indicó Juana Patlán, de la Facultad de Psicología de la UNAM

UNAM/DICYT Cada vez más personas presentan tecnoestrés, entendido como un estado psicológico negativo y una respuesta adaptativa ocasionada por el uso excesivo de las tecnologías de la información y la comunicación (TIC) y por la falta de habilidad para manejar o trabajar con ellas de manera saludable, afirmó Juana Patlán, profesora de la Facultad de Psicología (FP) de la UNAM.

El trastorno se presenta en todas las personas que por su trabajo o actividades cotidianas están en contacto con el uso de las TIC, sobre todo en los jóvenes.

Estas herramientas han facilitado ciertas actividades, pero también han traído alteraciones como el tecnoestrés, que algunos autores definen como “el impacto negativo que tienen las TIC en las actitudes, pensamientos y conductas, y que generan un alto nivel de activación psicofisiológica del organismo”, apuntó.

El tecnoestrés, abundó, se deriva de un desajuste entre las demandas laborales (tecnoestresores o tecnodemandas) y los recursos personales (tecno recursos).

Su aparición depende de las habilidades de las personas para el manejo de las tecnologías (características individuales), del contenido y los cambios en los puestos de trabajo, y de las estrategias utilizadas por las empresas para la implementación de las TIC; si no cuenta con buenas bases, entonces generan un desajuste que puede provocar ansiedad, cansancio, dolores de cabeza, fatiga mental y física, dolores musculares, temor, aburrimiento, aislamiento y conductas agresivas o negativas hacia los demás.

La situación cobra importancia si se consideran los datos que indican qué tan extendido es el uso de las TIC. “De acuerdo con la Encuesta sobre las Tecnologías de la Información y las Comunicaciones del INEGI (2013), 88.7 por ciento de las empresas usan computadoras, 84.6 tienen Internet y 93.7 emplean Internet de banda ancha”, refirió la universitaria.

En cuanto a la disponibilidad y uso de las TIC en los hogares, la Encuesta Nacional sobre Disponibilidad y Uso de TIC en Hogares realizada por el INEGI (2015-2016) arrojó un dato importante: en 2016, 45.6 por ciento de los hogares contaban con computadora y 47 por ciento con conexión a Internet.

Asimismo, 47 por ciento de usuarios de computadora tiene seis años o más, y en ese mismo rango de edad, 59.5 por ciento emplean Internet.

Padecimientos por el uso de las TIC

La especialista en conducta y comportamiento organizacional señaló que del uso de las TIC se han derivado otros padecimientos, como el síndrome de fatiga informativa, provocado por la sobrecarga informática y el manejo excesivo de información, y la tecnofobia, que se caracteriza por tener miedo o ansiedad hacia las tecnologías, resistencia a su uso y pensamientos hostiles y agresivos hacia las mismas.

De igual manera, hay quienes quieren estar al día en cuanto a los avances tecnológicos y presentan tecnoadicción: compulsión incontrolable para utilizar las TIC, generando la necesidad de estar conectados, a través de dispositivos móviles o computadoras, a cualquier hora del día.

Ante esta situación, Juana Patlán consideró necesario trabajar las habilidades de organización y administración del tiempo. “El autocontrol también es importante para que una persona conozca sus habilidades en el manejo de las TIC y las emplee adecuadamente sin generar resistencias o adicciones”.

Por su parte, las empresas deben capacitar adecuadamente a sus empleados en el manejo de estas tecnologías y aprovechar las habilidades de cada uno en el uso de las mismas; además, debe evitarse el trabajo rutinario y fomentarse la realización de actividades en equipo para evitar el aislamiento de los trabajadores, concluyó.

Diseñan una lengua electrónica capaz de distinguir la calidad de muestras de azafrán

El trabajo ha sido realizado por investigadores de la Universidad de Valladolid, la Universidad de Castilla-La Mancha y las universidades iraníes de Teherán y Shahrekord.

UVA/DICYT El Grupo de Sensores de la Universidad de Valladolid (UVaSens), en colaboración con investigadores de la Universidad de Castilla-La Mancha y de las universidades iraníes de Teherán y Shahrekord, ha desarrollado una lengua electrónica portátil capaz de discriminar la calidad de muestras de azafrán.

El azafrán es un condimento muy valorado que se obtiene del pistilo de la flor ‘Crocus sativus’. España es uno de los principales países productores y exportadores de esta especie a nivel mundial, gracias a su alta calidad, e incluso cuenta con una Denominación de Origen, La Mancha. El azafrán iraní es uno de los mayores competidores del azafrán español, debido entre otros factores a su precio más bajo.

A través de la colaboración entre el Grupo UVaSens, dirigido por la catedrática María Luz Rodríguez, y algunas universidades iraníes, cuyos investigadores han realizado estancias en la UVa, el equipo decidió realizar un estudio en el que se tratara de comprobar la eficacia de una red de sensores de líquidos –lengua electrónica- para distinguir el sabor de muestras de azafrán iraní y español.

Como explica la coordinadora del Grupo, se ha desarrollado un tipo de lengua electrónica a partir de sensores voltamétricos basados en electrodos serigrafiados, ensayando electrodos de trabajo de diferente naturaleza química (por ejemplo carbono, oro o electrodos de carbono modificados químicamente por derivados de ftalocianina de cobre). Los electrodos se sumergieron en infusiones de azafrán para producir curvas voltamétricas que fueron caracterizadas por cada muestra.

“Estos datos se compararon con los obtenidos con un análisis químico convencional, con el fin de establecer correlaciones con los compuestos químicos que otorgan el sabor y el color al azafrán”, precisa Rodríguez. Los investigadores comprobaron que las señales electroquímicas proporcionadas por la red de sensores mostraban una buena correlación con los datos del análisis químico tradicional, en particular con el kaempferol, un flavonol con actividad antioxidante.

Finalmente, el equipo científico demostró que la lengua electrónica basada en electrodos serigrafiados modificados con ftalocianina era eficaz para discriminar muestras de azafrán con diferentes cualidades.

Sensores desechables

Pese a que el grupo está especializado en el uso de técnicas sofisticadas para desarrollar sensores nanoestructurados utilizando, por ejemplo, nanopartículas metálicas, grafeno o nanotubos de carbono, cuya selectividad y sensibilidad en el análisis de muestras de alimentos es altísima, en este caso se optó por implementar una red de sensores desechables que, para determinadas aplicaciones, aportan numerosas ventajas. Entre ellas está, según la experta, su bajo precio, alrededor del euro, lo que permitiría realizar un análisis masivo de muestras a un coste razonable; o su portabilidad, de modo que puede ser trasladada para analizar muestras ‘in situ’.

Aunque se trata de una línea de investigación prometedora, esta lengua electrónica es un prototipo inicial que, para ser transferido a la industria, necesitaría de un mayor desarrollo, de modo que los investigadores están abiertos a la posibilidad de obtener financiación por parte de alguna empresa u organismo interesado en su comercialización.

Lenguas y narices electrónicas para analizar alimentos

El trabajo surge de la colaboración establecida desde hace varios años entre el Grupo de Sensores de la UVa y el experto de la Cátedra de Química Agrícola de la Universidad de Castilla La-Mancha Gonzalo Alonso, con el que ya habían trabajado en materia de azafrán en anteriores publicaciones, en concreto, en el desarrollo de otra red de sensores, en este caso una nariz electrónica, para distinguir también la calidad de estas muestras. En este trabajo, detalla Rodríguez, “en lugar de elaborar una infusión a partir de azafrán, se calentaban los estambres de la flor para liberar los aromas, que eran posteriormente analizados con una nariz electrónica, con la que también se logró un alto poder de discriminación”.

El Grupo UVaSens tiene una amplia experiencia en el diseño de sensores de gases o líquidos –narices y lenguas electrónicas-, un ámbito en el que trabajan desde 1992. El grupo, que tiene su sede en la Escuela de Ingenierías Industriales, está formado por un equipo multidisciplinar de químicos, físicos e ingenieros que aplican estos dispositivos al análisis y control de calidad de bebidas y alimentos, principalmente vinos, aunque también han trabajado con aceites o pescados.

Referencia bibliográfica:
Heidarbeigi, K., Mohtasebi, S. S., Serrano-Diaz, J., Medina-Plaza, C., Ghasemi-Varnamkhasti, M., Alonso, G. L., … y Rodríguez Méndez, M. L. (2016). “Flavour characteristics of Spanish and Iranian saffron analysed by electronic tongue”. Quality Assurance and Safety of Crops & Foods, 1-10.

Un cambio en el genoma produce tomates sin semillas

El estudio del tomate, denominado ‘hydra’, ha permitido la identificación de un gen clave en la formación de los frutos de esta planta

CSIC/DICYT Un estudio liderado por investigadores del Consejo Superior de Investigaciones Científicas (CSIC) ha permitido la identificación de un gen clave en la formación de los frutos de tomate sin semillas. Los resultados de la investigación han sido publicados en la revista New Phytologist.

“Los frutos partenocárpicos, o sin semillas, tienen interés en agricultura ya que permiten el crecimiento del ovario de la fruta sin necesidad de que exista fertilización, una ventaja en caso de que las condiciones ambientales no favorezcan la polinización. De cara al consumidor, su valor reside en que la ausencia de semillas puede aumentar la vida útil de los frutos y supone una ventaja en el caso de la fabricación de zumos y pastas de tomate, en las que se tienen que eliminar las semillas durante el proceso de elaboración”, explica la investigadora Concha Gómez Mena, del Instituto de Biología Molecular y Celular de Plantas, centro mixto del CSIC y de la Universitat Politècnica de València.

Los tomates de la variedad hydra son un 40% más pequeños y pesan un 80% menos que los de la variedad clásica a partir de la que se ha conseguido la mutación (Solanum lycopersicum). Según los investigadores, esto podría deberse a que las semillas constituyen fuentes de señales hormonales que promueven el crecimiento del ovario en las plantas silvestres.

Desarrollo sin semillas

La reproducción de las plantas angiospermas, o plantas con flores, comienza con el desarrollo floral y termina con la formación de frutos que protegen los embriones durante el desarrollo y contribuyen a la dispersión de semillas. La formación del fruto generalmente ocurre después de una polinización y la fertilización de los óvulos, lo que desencadena el crecimiento del ovario de la planta, que se convierte en el fruto. Sin embargo, en determinadas circunstancias, el desarrollo del fruto puede darse sin la fertilización y sin el desarrollo de la semilla, dando lugar a frutos partenocárpicos.

Existen dos estrategias para obtener frutos partenocárpicos: una, mediante cultivo de variedades de plantas que han mutado y producen frutos sin semillas; y la otra, que consiste en la aplicación externa de reguladores del crecimiento, tales como las auxinas y las giberelinas.

“Mediante técnicas de clonación, silenciamiento génico y experimentos de análisis de expresión, hemos identificado el gen HYDRA, que es similar al gen SPOROCYTELESS/NOZZLE de la planta modelo Arabidopsis. Nuestro estudio realizado en tomate ha revelado una nueva función para estos genes, que es la prevención del crecimiento precoz de los ovarios, con lo que al estar el gen inactivo en la variedad hydra se produce el desarrollo de frutos sin semillas, añade el investigador José Pío Beltrán, del Instituto de Biología Molecular y Celular de Plantas.

Referencia bibliográfica
Pilar Rojas-Gracia, Edelin Roque, Mónica Medina, Maricruz Rochina, Rim Hamza, María Pilar AngaritaDíaz, Vicente Moreno, Fernando Pérez-Martín, Rafael Lozano, Luis Cañas, José Pío Beltrán y Concepción Gómez-Mena. The parthenocarpic hydra mutant reveals a new function for a SPOROCYTELESS-like gene in the control of fruit set in tomato. New Phytologist (2017) DOI: 10.1111/nph.14433

Sistemas criptográficos optomecánicos para aumentar la seguridad de las comunicaciones ópticas

Investigadores de la UPV participan en un estudio, liderado por el Instituto Catalán de Nanociencia y Nanotecnología (ICN2), en el que proponen una nueva alternativa para transportar información codificada

UPV/DICYT Un estudio, en el que han participado investigadores de la Universidad Politécnica de Valencia, a través de su Centro de Tecnología Nanofotónica; el Instituto Catalán de Nanociencia y Nanotecnología (ICN2) –líder del trabajo- y la Universidad de La Laguna, ha establecido las bases para el desarrollo de una tecnología de bajo coste que permitiría alcanzar grandes niveles de seguridad en comunicaciones ópticas. La clave reside en la generación de señales caóticas en una cavidad optomecánica fabricada en un chip de silicio. Su trabajo ha sido publicado en la revista Nature Communications.

Según explican los investigadores, la luz es esencial para las comunicaciones modernas basadas en la fibra de vidrio. Los cristales optomecánicos se diseñan a escala nanométrica para confinar fotones y unidades cuánticas de movimiento mecánico (fonones) en un mismo espacio físico. Estas estructuras todavía se estudian en entornos experimentales complejos pero podrían cambiar el futuro de las telecomunicaciones.

Investigadores de la Universidad Politécnica de Valencia UPV

En una cavidad optomecánica hay varias partículas interactuando fuertemente entre sí: aparte de fotones (luz) y fonones (vibraciones), se pueden generar electrones por fenómenos de origen no lineal. La interacción entre dichas partículas es muy compleja, pero se puede controlar de forma adecuada para dar lugar a nuevos fenómenos físicos.

“Las no linealidades son claves en nuestro sistema: al inyectar luz a una cavidad tan pequeña se produce la interacción controlada entre fotones, fonones y electrones, lo que nos permite tener múltiples estados, y pasar de estados muy ordenados – emisión coherente de fonones – a muy desordenados – generación caótica de fonones – cambiando la longitud de onda de la excitación láser” apunta Alejandro Martínez, investigador del Centro de Tecnología Nanofotónica de la UPV.

La interacción entre fotones y movimiento mecánico está mediada por fuerzas ópticas que, al interactuar con un cristal optomecánico, producen un haz de luz fuertemente modulado. En los estudios de optomecánica las no linealidades ópticas suelen considerarse perjudiciales y se procura minimizar sus efectos. Los investigadores sugieren usarlas para transportar información codificada en el caos.

“Sería factible codificar datos en las señales caóticas que se generan, lo que tendría una enorme utilidad en comunicaciones seguras no descifrables. Con la estructura propuesta la forma de generar señales caóticas es muy sencilla y eficiente, aunque todavía tenemos que demostrar la sincronización de cavidades optomecánicas actuando como fuente y receptor de señales caóticas. La idea sería incorporar a un sistema óptico de comunicaciones dos chips integrados que contengan cavidades optomecánicas para proteger la información añadiendo caos en el haz de luz en el punto de emisión y eliminándolo en el punto de recepción”, apunta Alejandro Martínez.

En el artículo publicado en Nature Communications, los investigadores presentan las complejas dinámicas no lineales observadas en un cristal optomecánico de silicio. El Dr. Daniel Navarro-Urrios es el primer autor de este trabajo que describe cómo un láser de onda continua y baja potencia se ve alterado tras atravesar una de esas estructuras que combinan las propiedades ópticas y mecánicas de la luz y la materia.

“Los resultados establecen las bases de una tecnología de bajo coste que permitiría alcanzar grandes niveles de seguridad en comunicaciones ópticas mediante la integración de sistemas criptográficos optomecánicos basados en el caos”, destaca.

Este estudio se enmarca dentro de PHENOMEN, un proyecto Europeo liderado por el ICN2, cuyo objetivo es establecer las bases de una nueva tecnología de la información que combine fonónica, fotónica y señales electrónicas de radiofrecuencia (RF).

La patata europea, a salvo por ahora de la bacteria que la ataca en América y Nueva Zelanda

Un estudio realizado por investigadores del Consejo Superior de Investigaciones Científicas (CSIC) ha constatado que existe un riesgo bajo de que la enfermedad causada por la bacteria Candidatus Liberibacter solanacearum (Lso), presente en los cultivos de América y Nueva Zelanda, afecte a la patata europea. El trabajo, publicado en Scientific Reports, ha comprobado que los insectos presentes en España no son vectores eficaces de la enfermedad en este cultivo.

Psila de la zanahoria, Bactericera trigonica. Foto: CSIC.

Lso es una bacteria fitopatógena que afecta al tejido conductor encargado del transporte de azúcares y otros nutrientes en las plantas (floema) y que causa pérdidas millonarias a la industria de la patata en América y Nueva Zelanda. Hasta el momento, los cultivos de patata en Europa no se han visto afectados, pero sí se han producido importantes pérdidas económicas en algunas especies hortícolas, como la zanahoria, el apio y otras apiáceas, en el Mediterráneo y norte de Europa.

“La transmisión de esta bacteria corre a cargo de diferentes especies de psilidos, un grupo de insectos que se alimenta absorbiendo la savia del floema de sus plantas huéspedes. En España existen diferentes especies de psilidos pero hasta el momento el único vector conocido de Lso es el psílido de la zanahoria, Bactericera trigonica. Existen otros posibles vectores como el psilido del puerro y la cebolla, B. tremblayi”, sin embargo hasta el momento su capacidad de transmitir la enfermedad no había sido estudiada, explica el investigador del CSIC Carlos Antolinez, del Instituto de Ciencias Agrarias.

Durante el estudio, los investigadores evaluaron la transmisión de la bacteria por ambos tipos de insectos en diferentes cultivos hortícolas: zanahoria, apio, patata y puerro. Los resultados prueban que B. trigónica es un gran transmisor de Lso en el apio y la zanahoria, pero no en la patata, donde es incapaz de localizar y alimentarse del floema de la planta. Por otro lado, el otro vector potencial, B. tremblayi, a pesar de ser capaz de alimentarse y adquirir la bacteria de zanahorias infectadas, se mostró incapaz de inocularla en plantas sanas.

“Los resultados de este trabajo son fundamentales para entender cómo se dispersa Lso en Europa y completan estudios previos sobre el comportamiento alimenticio de los Psílidos y su relación con la transmisión de bacterias fitopatógenas. Este conocimiento ayudará a idear estrategias de control a largo plazo que impidan la transmisión de la bacteria, ya que, aunque los vectores que tenemos en España no son capaces de transmitirla, si se encontrase o introdujese en Europa una especie de insecto capaz de alimentarse de la patata, como ocurre con la psila americana, el riesgo sería muy elevado”, concluye el investigador.

Referencia bibliográfica
C. A. Antolinez, A. Fereres, A. Moreno. Risk assessment of ‘Candidatus Liberibacter solanacearum’ transmission by the psyllids Bactericera trigonica and B. tremblayi from Apiaceae crops to potato. Scientific Reports. DOI: 10.1038/srep45534

Un sensor permitirá detectar la glucosa en la lágrima de las personas diabéticas con el móvil

La UJI diseña un sensor óptico con nanopartículas integrable en la cámara de los teléfonos móviles inteligentes

UJI/DICYT Investigadores de la Universitat Jaume I de Castelló (UJI) han comenzado a diseñar un sensor óptico con nanopartículas, integrable en la cámara de los teléfonos móviles inteligentes, para detectar el nivel de glucosa en la lágrima de las personas con diabetes. El proyecto Nanotears está liderado por el Grupo de Investigación de Óptica (GROC) y se desarrolla con la colaboración del Servicio de Oftalmología del Hospital General Universitario de Castelló y la empresa BQ. Además, esta iniciativa es la primera de la UJI que recibe una ayuda Marie Skłodowska-Curie de la modalidad becas individuales del programa europeo Horizonte 2020.

El objetivo principal de Nanotears es fabricar nanopartículas con tecnología láser basada en la ruptura nanométrica del material deseado mediante el uso de un láser pulsado. Uno de los puntos clave de este método es que no genera residuos durante la producción, lo que le caracteriza por ser sostenible y respetuoso con el medio ambiente. En concreto, la investigadora de GROC y coordinadora de este proyecto, Gladys Mínguez, comenta que en los laboratorios de la Escuela Superior de Tecnología y Ciencias Experimentales de la UJI se sintetizan «puntos cuánticos de carbono, es decir, nanopartículas de carbono menores de 10 nm –unas 10.000 veces más pequeñas que el tamaño de un cabello–, que se caracterizan por tener una baja toxicidad, ser fotoluminiscentes y fotoestables».

Un laboratorio de bolsillo para la diabetes

«Queremos desarrollar un dispositivo diagnóstico no invasivo, compacto e integrado en la cámara de un teléfono inteligente, que actuará de pequeño laboratorio de bolsillo con el que se medirá la concentración de glucosa en lágrima de una forma sencilla y confiamos que en el futuro permita facilitar el control de la diabetes», asevera la profesora de Física. Sin embargo, durante el desarrollo de este proyecto «vamos a realizar el trabajo preliminar para el diseño de la tecnología necesaria para crear este innovador medidor de glucosa en lágrima mediante la luz», agrega.

El investigador principal del proyecto Nanotears y director de GROC, Jesús Lancis, también vicerector de Investigación y Doctorado, asegura: «La alta pureza de la superficie de los nanomateriales generados por ablación láser ha de ser la clave para su modificación química en el desarrollo de la acción Nanotears que permitirá un avance en la monitorización de pacientes diabéticos mediante telemedicina». Lancis recuerda que las tecnologías fotónicas y los dispositivos basados en el empleo de luz, como muestra este proyecto financiado por la Comisión Europea, «juegan un papel cada vez más significativo en la resolución de los retos a los que se enfrenta la sociedad actual como la generación de energía, la eficiencia energética, el envejecimiento saludable, el cambio climático o la seguridad de la población».

Por su parte, el investigador postdoctoral que será contratado en la UJI con la subvención Marie Curie para desarrollar Nanotears, Wycliffe Kiprop Kipnusu, considera un reto en su carrera «avanzar hacia nuevas fronteras de la ciencia, como la fabricación asistida por láser de sensores de glucosa, la investigación en el campo médico y las tecnologías móviles actuales». Kiprop también desea que el proyecto tenga un resultado positivo, ya que «ello supondría un cambio significativo en la lucha contra la diabetes a escala mundial».

El Servicio de Oftalmología del Hospital General Universitario de Castelló será el encargado de supervisar la actividad de Nanotears vinculada con la obtención de muestras de pacientes con diabetes, tanto de lágrima como de sangre, para desarrollar la nueva herramienta de medición, correlacionar los valores obtenidos de la glucosa en lágrima con los de un glucómetro convencional, además de establecer los protocolos de ética y protección de datos de la investigación.

La doctora Elena Sorlí es la responsable de esta línea de trabajo y apunta que, actualmente, el mecanismo para el control de glucosa utilizado por el paciente diabético en su domicilio es mediante punción digital con una lanceta y medición con un glucómetro. Suele realizarse dos o tres veces al día, con la consiguiente molestia y riesgo de infección. Por ello, Nanotears pretende desarrollar un sistema de determinación de glucosa alternativo, en lágrima, fiable y no invasivo.

Para iniciar el diseño del sensor, «va a ser fundamental un adecuado sistema de recogida de lágrima del paciente. Se realizará mediante un capilar de 20 microlitros posicionado cuidadosamente en el menisco lagrimal y evitando tanto la estimulación conjuntival como la secreción lagrimal refleja, que podría modificar las características de la muestra», explica la oftalmóloga. A continuación, las muestras se trasladarán al Departamento de Física de la Universitat Jaume I, donde «pondremos en contacto las lágrimas con los puntos cuánticos funcionalizados y aplicaremos una luz láser o LED de color azul a la muestra. Esta emitirá una señal de fluorescencia y calibrándola calcularemos la cantidad de glucosa y desarrollaremos el sensor óptico que, con posterioridad, se incorporará a la cámara de los móviles. Desde este dispositivo se podrán detectar sencilla y rápidamente los cambios de glucosa mediante simples cambios de intensidad de la señal fluorescente», exponen los miembros de GROC.

BQ: la emergencia de la mHealth

Por su parte, el fundador de BQ, Ravin Dhalani, y supervisor de Nanotears en los laboratorios de I+D en tecnología de la imagen que la empresa dispone en Madrid, argumenta que los sensores de glucosa adaptados a la tecnología móvil «facilitarán el acceso a la detección de diabetes en segmentos mayores de población en los países en vías de desarrollo, gracias tanto al aumento de la potencia de procesamiento en los teléfonos móviles como a las posibilidades para emplearse en amplias zonas geográficas, en contraste con equipos sofisticados que se concentran en un número limitado de países». De hecho, «la conocida como mHealth, es decir, la práctica de la medicina apoyada por los dispositivos móviles, está teniendo un gran auge en las últimas décadas y la participación de BQ en este proyecto muestra nuestra apuesta por avanzar en esta dirección y por mejorar la calidad de vida de las personas diabéticas», concluye Dhalani.

La diabetes es una enfermedad crónica que aparece cuando el páncreas no produce insulina suficiente o cuando el organismo no utiliza eficazmente la insulina que produce. Existen 422 millones de personas diabéticas en el mundo, según cifras de 2016 de la Organización Mundial de la Salud (OMS), es decir, afecta al 8,5% de la población adulta, y fue responsable de 1,2 millones de muertes en el año 2012.

La prevalencia de diabetes en España es el 10,6% de los hombres y el 8,2% de las mujeres. Entre las posibles complicaciones de esta enfermedad se incluyen afectaciones a nivel cardiaco, neurológico, renal, ocular, vascular periférico y riesgo fetal en embarazadas. «Es imprescindible un buen control de los factores de riesgo, un diagnóstico precoz de la enfermedad y un adecuado manejo terapéutico de la misma a fin de intentar controlar las severas consecuencias de esta patología», insiste la oftalmóloga Sorlí.

La manipulación de la luz centra las diversas líneas de trabajo del Grupo de Investigación de Óptica (GROC) de la Universitat Jaume I, dirigido por Jesús Lancis. Sus miembros son expertos en el diseño de algoritmos para el control digital de la luz mediante dispositivos programables. La aplicación de esta tecnología les ha permitido patentar, conjuntamente con investigadores de la Universidad de Murcia, un procedimiento para la visualización de la retina en personas afectadas por cataratas, así como colaborar en la fabricación de fluidos con nanopartículas en suspensión para mejorar las propiedades de absorción y transmisión de calor de los fluidos térmicos convencionales.

Una empresa española desarrolla el sistema más preciso que existe en la actualidad para verificar las dosis en los tratamientos de radioterapia

Resulta especialmente adecuado para abordar tumores de pequeño tamaño y tumores cerebrales. Es una tecnología rápida y fiable que permite liberar tiempo de trabajo en los hospitales, con la posibilidad de tratar a más pacientes sin disminuir la calidad de los tratamientos

Dart (Detection and Radiation Technologies) es una empresa surgida de la Universidad de Santiago de Compostela (USC). Ha diseñado un detector que evalúa la precisión de los tratamientos de radioterapia hospitalaria que se aplican a los pacientes con tumores. Es una tecnología rápida y fiable que permite liberar tiempo de trabajo en los hospitales, aumentado el número de pacientes a tratar sin disminuir la calidad de los tratamientos.

La firma nace en 2014 como resultado de más de una década de experiencia de sus promotores en el desarrollo de tecnología de detección dentro del Grupo de Investigación en Radiofísica de la Universidad de Santiago, donde ya habían hecho varios prototipos para su aplicación en radioterapia. Consiguieron financiación de la Xunta de Galicia y de una empresa de logística del sector hospitalario que vio la trascendencia de su proyecto, lo que les permitió llegar a un volumen de inversión suficiente para producir los detectores.

La radioterapia externa es uno de los tratamientos más comunes para tratar el cáncer. Se basa en la utilización de haces de radiación para eliminar o dañar las células cancerosas. Mediante un acelerador de electrones se dirigen una serie de haces de radiación desde diferentes incidencias, cada una de ellas con una sección de forma diferente y de manera precisa hacia el tumor. La selección de las incidencias y de la forma de las secciones debe ser tal que la dosis de radiación se maximice en el tumor y se minimice en los tejidos sanos que lo rodean.

La creciente incidencia del cáncer y la complejidad de los tratamientos requiere sistemas que verifiquen que el tratamiento calculado es correcto.

El proceso clínico para administrar radioterapia comienza realizando un TAC al paciente y, con la imagen obtenida, el médico delimita el volumen de tumor que hay que tratar y la dosis que se debe aplicar. El tratamiento se calcula mediante un programa informático. Se planifican los campos de radiación, el tipo de haz que se va a usar y qué dosis se suministra en cada haz. La dosis que finalmente se le administra al paciente se verifica con antelación mediante un sistema de detección, de modo que si hay discrepancias entre lo planificado y lo medido habrá que hacer ajustes. Así, la correcta verificación es un pilar esencial en estos tratamientos.

Según los datos aportados por los investigadores, en el mundo existen unos 8.000 centros hospitalarios que aplican radioterapia y todos ellos necesitan detectores de radiación para controlar la calidad del tratamiento. “La creciente incidencia del cáncer y la cada vez mayor complejidad de los tratamientos de radioterapia (complejidad que busca optimizar su eficacia) requiere de la existencia de instrumentación que pueda, en el menor tiempo posible y sin reducir la fiabilidad de la medida, verificar que el tratamiento calculado es correcto” -señala el físico Faustino Gómez, uno de los cuatro socios de la empresa junto a otros dos físicos y un ingeniero industrial-.

Hasta ahora los sistemas que se utilizaban para verificar las dosis en radioterapia eran a través de una película que había que revelar o escanear para obtener los resultados, lo que añade lentitud al proceso. Por su parte, los sistemas electrónicos, con lectura en tiempo real, no ofrecen la precisión necesaria en el caso de tumores muy pequeños.

El detector desarrollado por Dart resulta especialmente adecuado para campos de radiación pequeños, de gran utilidad en radiocirugía, en particular para tumores de menor tamaño y tumores cerebrales; aunque también se puede usar en otras técnicas de tratamiento y en campos de mayores dimensiones. Es el sistema con mayor resolución que existe en la actualidad y, además, funciona en tiempo real y permite calcular en dos dimensiones e incluso en 3D. Aporta mayor fiabilidad y rapidez en el proceso.

“Es un sistema de control de calidad que ayuda a la práctica clínica, pasando de dos días de respuesta cuando se usa película a apenas cinco minutos. Así, es posible tratar a un mayor número de pacientes y con un coste menor” -asegura Aurelio Vázquez, ingeniero industrial, socio de la firma y jefe de diseño y producción-.

A mediados de año la empresa podría tener su producción estandarizada

En Dart realizan el ensamblado final del producto. Diferentes proveedores fabrican cada una de las piezas o partes del detector, previamente diseñadas por el equipo. Para ello trabajan con fabricantes nacionales y con uno del Reino Unido.

La firma está pendiente del Marcado CE para poder comercializar el producto, un requisito exigido para certificar que el equipo comercializado cumple con la legislación; de modo que a mediados de año ya podrían tener su producción estandarizada. Además del mercado nacional y europeo, mantienen contactos con distribuidores en Latinoamérica y Asia.

El Hospital General de Valencia ya usa esta tecnología

En este período de investigación y diseño, Dart ha colaborado con varios hospitales que han probado su detector. El principal probador de esta tecnología es el Hospital General Universitario de Valencia, que ya emplea los prototipos de la firma de forma satisfactoria.

Robots para encontrar la aguja en el pajar

El departamento de Ingeniería Electrónica, de Sistemas Informáticos y Automática de la Universidad de Huelva ha desarrollado un método matemático que mejora los resultados de exploración de los autómatas. De esta manera, se podrán crear robots con función de localización de personas y objetos más eficaces y con menor consumo energético.

En el artículo publicado por la revista IEEE/ASME Transactions on Mechatronics con el título ‘Toward Simple Strategy for Optimal Tracking and Localization of Robots with Adaptive Particle Filtering’, los científicos han desarrollado un método algorítmico basado en una serie de ecuaciones básicas que determina la forma en la que los robots deben buscar objetivos concretos minimizando el tiempo, la capacidad de cómputo y, por tanto, la energía que tardan en encontrarlo.

“El problema en los sistemas de localización actuales es que utilizan muchos recursos innecesarios para conseguir la meta que se les plantea. Requiere buscar los parámetros óptimos que automaticen el proceso”, explica a la Fundación Descubre el investigador de la Universidad de Huelva Tomás Mateo Sanguino, autor del artículo.

Ejemplo de aplicación en visión artificial del algoritmo de búsqueda de partículas localizadas en el color azul

El experto, perteneciente al grupo de investigación de Control y Robótica, añade que la capacidad de los sistemas robóticos para navegar de forma autónoma en entornos desconocidos depende en gran medida de estrategias como la superación de los problemas de creación de mapas, la localización simultánea, la generación autónoma de trayectorias o evitar obstáculos. Esto no siempre se logra de manera óptima. Los resultados son poco eficientes, el coste computacional alto y la configuración de las variables, en la mayoría de los casos, demasiado complejas.

Menos energía, más eficiencia

Un robot debe, en primer lugar, conocer su ubicación en un lugar concreto y analizar los elementos espaciales que le rodean. Después, debe establecer su objetivo y evaluar las distintas posibilidades que le permitan conseguirlo en el menor tiempo posible. Además, debe recalcular todo de nuevo si en algún momento cambian las condiciones del entorno.

Ejemplo de funcionamiento del sistema

Por tanto, los expertos persiguen la generalización de los problemas para aplicarlos en distintos escenarios donde las variables cambian en el tiempo. La combinación de estrategias de adaptación, predicción y optimización incrementa la eficiencia en la búsqueda de soluciones. Hasta el momento, estos ajustes se realizan con mucha dificultad y con un nivel de acierto bajo. Sin embargo, los expertos han confirmado que el algoritmo creado permite una generalización muy amplia y aprovecha ciertas técnicas de optimización para ser más eficaz.

A partir de aquí, los investigadores proponen aplicar esta metodología fundamentada en el filtro de partículas adaptativo basado en dispersión (DAPF), que consiste en proporcionar un mayor número de partículas durante el estado de búsqueda inicial del problema (cuando la localización presenta mayor incertidumbre) y menos partículas durante el estado de seguimiento siguiente (cuando hay menos incertidumbre). Podría compararse con la búsqueda de objetivos usando un conjunto de canicas inteligentes. Al principio, se dedicaría un mayor número de bolas para encontrar la característica objetivo cuando no se conoce el espacio donde se está buscando (por ejemplo, píxeles azules en una imagen). Las canicas irían copando todo el espacio de búsqueda y conforme encuentran el objetivo se agruparían en torno a él. Gracias al algoritmo de optimización se reduce el número de bolas en esta fase y los esfuerzos sólo se centrarían en el seguimiento del objetivo.

Tras los experimentos, han demostrado que usando un número variable de partículas, cuya población obedece al algoritmo desarrollado, los robots son capaces de enfocar sus recursos en el ítem concreto que se les requiere. El tiempo y el uso de recursos computacionales también afecta a la energía utilizada en la búsqueda, que será mucho menor que en otros algoritmos similares. De esta manera, resuelven también otro de los problemas asociados a esta función de los robots, que ven cómo se agota antes de tiempo la capacidad de carga de las baterías implantadas durante el desarrollo de su misión.

Referencias:
Tomás de J. Mateo Sanguino, Francisco Ponce Gómez: ‘Toward Simple Strategy for Optimal Tracking and Localization of Robots with Adaptive Particle Filtering’, IEEE/ASME Transactions on Mechatronics.

Desarrollan unas novedosas cápsulas herméticas para exhibir documentos históricos

UNAM/DICYT El Centro de Diseño Mecánico e Innovación Tecnológica de la Facultad de Ingeniería (FI) de la UNAM desarrolló, con tecnología propia y única en el mundo, unas cápsulas herméticas que permitirán exhibir, sin riesgo, la Constitución mexicana de 1917, el Acta de Independencia y los Sentimientos de la Nación. La muestra será en el Palacio Nacional con motivo de los festejos por el centenario de nuestra Carta Magna.

Estos sistemas cumplen con las exigencias de protección y preservación de tan preciados documentos, pues impiden el acceso de cualquier agente externo conforme a los más altos estándares internacionales.

El desarrollo científico y tecnológico es producto de la labor de Alejandro Ramírez Reivich, Pilar Corona Lira, Marcelo López Parra y Vicente Borja Ramírez, que trabajaron resolviendo retos de instrumentación, materiales, algoritmos de programación, electrónica, manufactura, diseño mecánico y logística; asimismo, de la colaboración interdisciplinaria de estudiantes de licenciatura y maestría de las ingenierías Mecánica, Mecatrónica, Industrial y Eléctrica.

De igual manera, participaron expertas en conservación del Archivo General de la Nación (AGN), sitio en donde se resguardan los documentos.

El equipo se enfrentó a una operación meticulosa para lograr el equilibrio de diversos factores y parámetros, indispensables para mantener en condiciones exactas y precisas la temperatura, humedad, presión, deformación y desplazamientos; es decir, el equilibrio físico-químico de distintos compuestos, lo que depende de una ingeniería altamente especializada.

El grupo de investigadores y alumnos forma parte de los pocos especialistas en el mundo en manejo, protección y conservación de documentos y de objetos históricos.

En la muestra estudiarán la manera como se comportan los documentos. Con este objetivo, han instalado sensores que miden los fenómenos físicos y dinámicos que sufre el papel, como micro cambios de temperatura, humedad y deformación; en particular, esperan ver de qué manera afecta la presencia de la gente durante la exhibición.

Con el resultado de su investigación, los universitarios pretenden entender distintos fenómenos y rediseñar las cápsulas (si fuera necesario), para publicar y generar, a fines de año, una patente con sistemas de última generación, pues se trata de una tecnología única en el mundo.

Versiones anteriores de estas cápsulas han protegido otras piezas del patrimonio cultural, como los códices prehispánicos, el Acta de Independencia y los Sentimientos de la Nación. Estos dos últimos, así como las constituciones de 1814, 1824 y 1857, junto con otros archivos originales, también podrán apreciarse en la muestra.

Previo a su exposición, expertos del AGN eliminaron partículas extrañas, recompusieron la encuadernación y restauraron un tono similar al original. Además, se digitalizaron los documentos para difundirlos y reproducirlos.