jueves, 19 de junio de 2014

El nuevo algoritmo se vale de los eventos de cambio de brillo de baja latencia de un sensor de visión dinámica, así como de los datos de una cámara normal, a fin de extraer información crucial para lograr que un sistema robótico reaccione con mayor destreza y rapidez ante obstáculos inesperados cuando viaja a gran velocidad. La fotografía de la izquierda muestra la visión normal que se obtiene mediante la cámara, y la de la derecha muestra los citados eventos de cambio de brillo de baja latencia, marcados en rojo y azul, superpuestos en la imagen en blanco y negro de la cámara. (Imagen: Cortesía de los investigadores)

Estos científicos han desarrollado un algoritmo, el primero de su tipo, que aprovecha los datos de esa nueva clase de sensores, y gracias al cual se podría conseguir que los robots que se mueven a gran velocidad no pierdan la eficacia que poseen a baja velocidad.

Un robot que utilizase su algoritmo podría actualizar su posición cada milésima de segundo, más o menos, permitiéndole esto realizar maniobras mucho más ágiles y precisas.
Una de las razones por las que las personas comunes aún no tenemos coches que conduzcan solos ni hay minihelicópteros robóticos entregando a domicilio objetos físicos comprados online por un inquilino, es que los vehículos autónomos tienden a perder bastante eficiencia cuando se ven sometidos a condiciones muy exigentes, como por ejemplo las inherentes de circular a gran velocidad. Un sistema de conducción automática que permite aparcar impecablemente un automóvil, moviéndose obviamente a la baja velocidad que es propia del acto de aparcar un coche, puede tener en cambio problemas en reaccionar a tiempo ante un obstáculo imprevisto cuando el vehículo que pilota circula a 60 kilómetros por hora (37 millas por hora).

Parte del problema es el tiempo que se necesita para obtener e interpretar los datos de las cámaras. Un vehículo autónomo que utilice una cámara estándar para vigilar sus alrededores podría necesitar aproximadamente una quinta parte de un segundo para actualizar su posición. Eso es suficientemente bueno para unas condiciones de operación normales, pero no lo bastante rápido como para afrontar lo inesperado.

El equipo de Andrea Censi, un investigador del Laboratorio de Sistemas de Información y de Decisión (LIDS por sus siglas en inglés), adscrito al MIT (Instituto Tecnológico de Massachusetts) en Cambridge, Estados Unidos, y Davide Scaramuzza, de la Universidad de Zúrich en Suiza, ha llegado a la conclusión de que una buena solución podría ser complementar las cámaras con sensores de un nuevo tipo, conocido como sensor neuromórfico, que pueden tomar mediciones un millón de veces por segundo.
l próximo hito principal para el VTOL X-Plane está programado para finales de 2015, cuando las cuatro compañías seleccionadas tendrán que entregar sus diseños preliminares. En ese momento, la DARPA pasará a revisarlos a fin de decidir cuál construir para demostrar su eficiencia y poner a prueba la tecnología, con el objetivo de efectuar pruebas de rendimiento en vuelo en el período 2017-2018.
Los aviones son más veloces que los helicópteros, pero éstos pueden despegar y aterrizar en vertical, además de poder quedarse detenidos flotando en el aire. Lograr lo mejor de ambos mundos es un objetivo de la aeronáutica desde hace mucho tiempo. Pero los aviones capaces de despegar y aterrizar en vertical no han conseguido aún incrementar la velocidad máxima sin sacrificar el radio de autonomía, la eficiencia o la capacidad de carga.

Ahora, se le está dando a esta asignatura pendiente un gran empuje, que promete revolucionar el campo de los aviones con despegue y aterrizaje en vertical, o aviones VTOL por sus siglas en inglés.

El programa VTOL X-Plane (VTOL Experimental Plane), de la agencia gubernamental estadounidense DARPA (Defense Advanced Research Projects Agency), tiene como meta superar estos retos. Entre los objetivos, figuran aumentar sustancialmente la velocidad máxima sostenida (casi duplicarla), incrementar la eficiencia cuando el avión está detenido flotando en el aire, y asegurar que puede transportar una carga útil de al menos el 40 por ciento del peso bruto del vehículo.

En un importante paso adelante hacia esa meta, la DARPA ha otorgado contratos a cuatro importantes compañías, Boeing, Sikorsky, Karem Aircraft, Inc. y Aurora Flight Sciences Corporation. Cada una de ellas aporta su experiencia y propuestas de diseño.
Para poner en funcionamiento el exoesqueleto, se ayuda a la persona a introducirse en el traje y se le pone una gorra equipada con electrodos que recoge sus ondas cerebrales. Estas señales se transmiten a un ordenador que va en una mochila, donde se descodifican y se utilizan para mover los transmisores hidráulicos del traje.

El exoesqueleto está alimentado por una batería que también se lleva en la mochila y permite un uso continuado de dos horas.

Nicodelis asegura que los movimientos son muy suaves y que parecen más de humanos que de robots. Los pies van apoyados sobre unas placas dotadas de sensores que detectan cuando se hace contacto con el suelo. Con cada paso, la señal se dispara a un dispositivo de vibración cosido en el antebrazo de la camisa de usuario. El dispositivo ‘engaña’ al cerebro para que piense que la sensación proviene de su pie.

En las simulaciones de realidad virtual, los pacientes sentían que sus piernas se movían y tocaban algo, según el neuroingeniero.

Aún no se sabe hasta qué punto la persona que lleve el traje robótico va a poder caminar y patear el balón. El proyecto ha sido criticado por otros neurocientíficos, que ven en esta puesta en escena un acto de explotación de personas con discapacidad para promover una investigación aún de difícil aplicación. (Fuente: SINC)
Un equipo de 150 científicos e ingenieros, reunidos en un consorcio denominado Walk Again Project, ha sido capaz de desarrollar un exoesqueleto controlado con la mente que hará posible que un joven con parálisis pueda caminar y dar el chute inaugural del Mundial de Fútbol de Brasil. Lo hará hoy a las cinco de la tarde (hora local) en el estadio Arena Corinthians, de São Paulo, ante 70.000 espectadores y una audiencia de miles de millones de personas. En España serán las 21:00, hora peninsular.

Con este acto, el equipo científico quiere mostrar los últimos avances en el ámbito de los interfaces cerebro-máquina. Se trata de una especie de traje robótico construido con aleaciones ligeras y polímeros, y accionado por un sistema hidráulico que hace el trabajo que los músculos de las piernas de la persona paralizada ya no pueden realizar, a partir de las órdenes que emite su cerebro.

El desarrollo es la culminación de más de diez años de investigación del científico brasileño Miguel Nicolelis, uno de los fundadores del Centro de Neuroingeniería en la Universidad Duke, en Carolina del Norte, Estados Unidos, y la fuerza impulsora tras Walk Again Project.

La robótica ha sido coordinada por Gordon Cheng en la Universidad Técnica de Múnich. Por su parte, Nicolelis y su equipo se centraron en los sistemas que permitieran leer las ondas cerebrales y en usar esas señales para controlar extremidades robóticas.

Nicolelis ha estado entrenando a nueve personas con paraplejia, con edades de entre 20 y 40 años, para usar el exoesqueleto en un centro de rehabilitación neurorrobótica de São Paulo. Tres serán elegidos para asistir a la ceremonia de apertura, previa al partido inaugural entre Brasil y Croacia, y de ellos, solo uno dará la patada al balón.

“En los últimos días, cuatro de los pacientes se pusieron el exoesqueleto y dieron sus primeros pasos. Uno de ellos ya ha usado el control mental para patear una pelota. Así que desde el punto de vista científico, clínico y tecnológico estamos cumpliendo nuestros objetivos. El traje robótico está siendo controlado por actividad cerebral y enviando señales de retroalimentación al paciente”, ha explicado Nicolelis a la BBC.
Para ello, se monitorizaron cada una de las viviendas que forman parte de estas comunidades, obteniendo datos de consumo de los usuarios y comportamientos de uso de las diferentes energías. Todos estos datos, junto con otros, como por ejemplo, la previsión del tiempo, son centralizados y procesados por el sistema.

Este centro de energía inteligente es el resultado de tres años de investigación dentro del proyecto europeo Origin, en el que participan empresas como la portuguesa ISA – Intelligent Sensing Anywhere; universidades como Heriot Watt en Edimburgo y Strathclyde en el Reino Unido, y centros de investigación como el alemán Fraunhofer y el español ITI.

Origin ha contado con un presupuesto total de 4.092.067€, de los cuales 2.811.465€ han sido financiados por la Unión Europea, a través del 7º Programa Marco. (Fuente: UPV/DICYT)
Investigadores de la Universitat Politècnica de València, a través del Instituto Tecnológico de Informática, en España, han participado en el desarrollo de un sistema inteligente capaz de sincronizar la oferta y demanda de suministro de energía generada localmente dentro de una comunidad, optimizando al máximo el uso de energías limpias.

“A menudo la energía no se produce en los momentos de máxima demanda, y esto se complica aún más cuando hablamos de energías renovables como la solar, eólica o biomasa, en las que además se suma la dificultad en su almacenaje. Este sistema es capaz de prever picos de suministro de energía de las diferentes fuentes, informando al usuario de cuándo están disponibles los diferentes tipos de energía, para que puedan realizar un uso racional de las mismas”, apunta Stefan Beyer, director del área de Internet y Computación Ubicua del ITI.

Desarrollado en el marco del proyecto Origin, este novedoso sistema está implantado en tres eco – aldeas, repartidas por diferentes puntos de Europa con características geográficas y ambientales muy distintas, como son Damanhur en Italia, Tamera en Portugal y Findhorn en Escocia. Todas ellas utilizan como fuente principal de suministro energías verdes, y el objetivo ha sido conseguir optimizar el uso de estas energías limpias, sincronizando la oferta y demanda, para minimizar al máximo el uso de otro tipo de energías.

“Nuestro sistema permite sincronizar la energía generada en estas tres comunidades a través de turbinas eólicas, paneles solares, biomasa de calefacción urbana y bombas de calor, con las necesidades energéticas de los edificios públicos, casa y negocios de estas eco-aldeas”, apunta Stefan Beyer.

El equipo de Cengiz S. Ozkan, Mihrimah Ozkan, Wei Wang, Isaac Ruiz, Kazi Ahmed, Hamed Bay, Aaron George y Johnny Wang, de la Universidad de California en Riverside, Estados Unidos, ha desarrollado una nueva arquitectura para ánodos que otorga a las pilas de ión-litio que la usan una serie de cualidades envidiables, incluyendo una estabilidad electroquímica excelente, que permiten grandes velocidades de carga y descarga sin los problemas o impedimentos a los que se enfrentan las baterías de ión-litio convencionales cuando se encuentran con la misma situación. Con la nueva arquitectura, la carga y la descarga de las pilas es alrededor de 16 veces más rápida que con la arquitectura convencional de los ánodos basados en el grafito.

Unos investigadores han desarrollado una nueva arquitectura para ánodos de baterías de ión-litio que podría permitir la recarga de aparatos electrónicos portátiles en 10 minutos, en vez de en horas como suele ser habitual.

Las baterías de ión-litio son el tipo de batería recargable común de los vehículos eléctricos y de los dispositivos electrónicos portátiles. Pero presentan problemas. Las baterías en los vehículos eléctricos son responsables de una parte significativa de la masa de estos últimos. Y el tamaño de las baterías en los aparatos electrónicos portátiles limita la tendencia a hacerlos cada vez más pequeños.

El silicio es un tipo de material de ánodo que está recibiendo mucha atención porque su capacidad de carga total es 10 veces superior a la de los ánodos comerciales de batería de ión-litio basados en grafito. Pongamos por caso una célula de batería compacta. Reemplazar con ánodos de silicio el ánodo de grafito normalmente usado proporcionará potencialmente un incremento del 63 por ciento de la capacidad de la célula, y una batería que será un 40 por ciento más ligera y pequeña.
La micropalanca es química y biológicamente modificada, y se emplearon microcapilares para recubrirla con un sustrato específico al crecimiento de bacterias lácticas, luego se inoculó con la muestra “problema”, y la viga se hizo vibrar a una frecuencia de resonancia específica con el escáner de un microscopio de fuerza atómica, el cual permite monitorear el amortiguamiento que sufre la micropalanca debido a los pequeños cambios de masa que ocurren cuando los microorganismos crecen sobre su superficie -similar al comportamiento de un trampolín cuando se le agrega más peso-, de esta forma fue posible detectar el crecimiento de las bacterias en forma dinámica a los pocos minutos de inoculación.

El especialista del IPN detalla que además de estas bacterias benéficas, los micro y nanobiosensores pueden detectar otros microrganismos, como los patógenos; hongos; levaduras; agentes infecciosos (virus); toxinas; partículas contaminantes y biomoléculas, provenientes de distintas fuentes, como agua, aire, tierra o alimentos.

El porcentaje de biosensores para alimentos basados en micro y nanotecnología que se comercializa es aún mínimo, en el país apenas comienza a trabajarse en aplicaciones biológicas o médicas, por lo que es un campo de oportunidades para el desarrollo de ciencia básica e innovación tecnológica.

En el IPN se han conformado diversos grupos multidisciplinarios, que desarrollan micro y nanobiosensores, en búsqueda de que en un futuro puedan construirse en México sistemas de biodetección con mayor portabilidad, sensibilidad, especificidad y menor costo, a fin de hacer pruebas in situ, sin requerir de personal especializado, es decir, tal como se hace hoy con los termómetros digitales y glucómetros.

La construcción del microbiosensor se gestó hace cuatro años y fue producto del trabajo de tesis de la doctora Angélica Gabriela Mendoza Madrigal. Se requirió de un equipo mutidisciplinario de especialistas, en el que participaron los investigadores Juan Vicente Méndez, Georgina Calderón Domínguez, Eduardo Palacios González y Humberto Hernández Sánchez, adscritos al doctorado en alimentos de la Escuela Nacional de Ciencias Biológicas, del Centro de Nanociencias y Micro y Nanotecnologías, y del Instituto Mexicano del Petróleo.

Este fue el primer premio que entregó el PNCTA relacionado con el área de micro y nanotecnología, con el objetivo de motivar y estimular la generación de recursos humanos especializados en estas disciplinas, así como impulsar las contribuciones tecnológicas en áreas del conocimiento de la industria de alimentos y bebidas.

Para participar en este importante galardón, en el que se repartirán 620 mil pesos en premios, podrán inscribirse estudiantes e investigadores con trabajos desarrollados en el campo de la ciencia y tecnología de alimentos y bebidas. La convocatoria está abierta hasta el 4 de julio de 2014. 
En la industria alimentaria es muy importante garantizar la calidad y la inocuidad de los productos que consume la población a fin de mejorar sus propiedades y disminuir las enfermedades transmitidas por los alimentos. Por ello, un equipo de investigadores mexicanos desarrolló un microbiosensor que detecta bacterias benéficas para la salud. Este dispositivo micromecánico, que se caracteriza por ser económico, rápido, selectivo y confiable, es el primero en su tipo que se realiza en el país, y ha sido utilizado para evaluar el crecimiento del microorganismo probiótico L. plantarum 299v, útil en la elaboración de productos lácteos fermentados.

El biosensor es capaz de monitorear el crecimiento de cerca de 400 células en tan sólo 30 minutos, en comparación con el método tradicional que requiere por lo menos 24 horas de incubación.

Esta tecnología, que tiene potencial de aplicación en la industria alimentaria y el sector salud, fue desarrollada por especialistas del Instituto Politécnico Nacional (IPN) en colaboración con el Instituto Mexicano del Petróleo (IMP), y el proyecto de investigación de su desarrollo obtuvo el Premio Nacional de Ciencia y Tecnología de Alimentos 2013 (PNCTA) en la Categoría Profesional en Tecnología de Alimentos, que desde hace 38 años organizan el Consejo Nacional de Ciencia y Tecnología y la Industria Mexicana de Coca-Cola.

El doctor Jorge Chanona Pérez, de la Escuela Nacional de Ciencias Biológicas (ENCB) del IPN y coordinador de la investigación, indica que estos dispositivos tienen una alta sensibilidad y pronto será posible hacerlos portátiles y a bajo costo.

“Hemos construido el microbiosensor como prueba de concepto para evaluar su potencial en la biodetección de bacterias; el dispositivo está basado en aprovechar la resonancia de una palanca o viga (cantilever) de tamaño micrométrico, para evaluar pequeños cambios de masa del orden de los nanogramos (que es el peso aproximado de una bacteria)”.

Chanona Pérez explica que construyeron el microbiosensor empleando un porta cantilever que soporta una viga fabricada de silicio, de 125 micrometros de largo por 50 de ancho y 4 de espesor.

Construir estructuras de hormigón con forma de cúpula o por el estilo, en las que puede no haber ninguna superficie plana, ha sido tradicionalmente un trabajo muy complicado y laborioso. El hormigón fresco de esas estructuras debe sustentarse habitualmente en intrincados soportes de madera. Una técnica revolucionaria desarrollada en la Universidad Tecnológica de Viena utiliza ahora en su lugar cojines de aire inflables.

Con el nuevo método de construcción desarrollado y probado por el equipo de Johann Kollegger, basta depositar el hormigón fresco en una superficie plana del suelo, para inflar entonces un cojín de aire bajo esta última, doblando la capa de hormigón y dándole rápidamente a la construcción la forma deseada de cúpula, de manera permanente. De esta forma se podrían incluso construir grandes auditorios. Ya se ha construido en Viena una primera estructura experimental mediante el nuevo método.

Cuando se curva la capa de hormigón, aparecen muchas pequeñas grietas, pero esto no es un problema para la estabilidad de la cúpula. Si la forma es correcta, cada piedra aguanta a las demás en su lugar y la construcción es estable. Al final del proceso, la construcción puede ser enyesada con normalidad. Posee exactamente las mismas propiedades y es tan estable como un armazón de hormigón construido de una forma convencional.
Por último, también se ha trabajado en estudios más clínicos “que aplican esta técnica de doble paso a diferentes temas de interés, como es la calidad óptica ocular post-LASIK (una de las técnicas más empleadas en cirugía refractiva), el impacto de la difusión u otros”, precisa.

El Grupo de Investigación del CD6 ha colaborado con el Instituto de Oftalmobiología Aplicada (IOBA) de la Universidad de Valladolid en diversos estudios en esta línea. En concreto, los investigadores del IOBA Raúl Martín, José María Herreras y Victoria de Juan y los del CD6 Meritxell Vilaseca y Jaume Pujol, junto con Mikel Aldaba han analizado recientemente el impacto del edema corneal producido por lentes de contacto en la calidad óptica ocular.

“Este trabajo podría ser un buen ejemplo de la importancia de la colaboración entre grupos de diferentes especialidades en el ámbito de la óptica fisiológica”, explica Aldaba, ya que “el grupo del IOBA tiene unos conocimientos clínicos y aporta unas necesidades que nosotros desconocemos y a su vez el CD6 contribuye con su conocimiento en técnicas de medida de la calidad óptica ocular para emplear en este problema concreto”.

La colaboración entre ambos grupos, reflejada en una estancia de la doctora De Juan en el CD6, ha permitido llevar a cabo el estudio que ha dado lugar a una presentación en un congreso internacional y a una publicación del trabajo recientemente en la revista Contact Lens and Anterior Eye. Asimismo, Mikel Aldaba ha impartido uno de los Seminarios de Investigación del IOBA en torno a la investigación en óptica fisiológica y el caso concreto de la medida de la calidad óptica ocular. (Fuente: Cristina G. Pedraz/DICYT)
Por último, también se ha trabajado en estudios más clínicos “que aplican esta técnica de doble paso a diferentes temas de interés, como es la calidad óptica ocular post-LASIK (una de las técnicas más empleadas en cirugía refractiva), el impacto de la difusión u otros”, precisa.

El Grupo de Investigación del CD6 ha colaborado con el Instituto de Oftalmobiología Aplicada (IOBA) de la Universidad de Valladolid en diversos estudios en esta línea. En concreto, los investigadores del IOBA Raúl Martín, José María Herreras y Victoria de Juan y los del CD6 Meritxell Vilaseca y Jaume Pujol, junto con Mikel Aldaba han analizado recientemente el impacto del edema corneal producido por lentes de contacto en la calidad óptica ocular.

“Este trabajo podría ser un buen ejemplo de la importancia de la colaboración entre grupos de diferentes especialidades en el ámbito de la óptica fisiológica”, explica Aldaba, ya que “el grupo del IOBA tiene unos conocimientos clínicos y aporta unas necesidades que nosotros desconocemos y a su vez el CD6 contribuye con su conocimiento en técnicas de medida de la calidad óptica ocular para emplear en este problema concreto”.

La colaboración entre ambos grupos, reflejada en una estancia de la doctora De Juan en el CD6, ha permitido llevar a cabo el estudio que ha dado lugar a una presentación en un congreso internacional y a una publicación del trabajo recientemente en la revista Contact Lens and Anterior Eye. Asimismo, Mikel Aldaba ha impartido uno de los Seminarios de Investigación del IOBA en torno a la investigación en óptica fisiológica y el caso concreto de la medida de la calidad óptica ocular. (Fuente: Cristina G. Pedraz/DICYT)
El Grupo de Investigación de Óptica Visual, Óptica Fisiológica o Visual Biophotonics del Centro de Desarrollo de Sensores, Instrumentación y Sistemas (CD6) de la Universidad Politécnica de Catalunya (España) trabaja desde hace más de 10 años en la que es su principal línea de investigación, la medida de la calidad óptica ocular. Se trata de un campo multidisciplinar en el que participan investigadores de diferentes especialidades, por lo que se aborda desde diferentes enfoques.

Así lo detalla a DiCYT Mikel Aldaba, uno de los doctores que forma parte del Grupo y que obtuvo su graduado en Óptica y Optometría en la Universidad de Valladolid. Respecto a la importancia y las implicaciones prácticas que tiene la medida de la calidad óptica ocular, Aldaba asegura que permite una mejor comprensión de diferentes factores que pueden influir en la calidad óptica del ojo “como el tamaño pupilar, el efecto de las ametropías o el impacto de las técnicas de cirugía refractiva”. Además, estas técnicas de medida “están cada vez más implantadas en la clínica siendo utilizadas en la refracción, cirugía refractiva o en la medida de la difusión intraocular, entre otras”. Esta importancia se refleja, a su juicio, en el gran número de trabajos científicos que se están generando a alrededor de esta línea de investigación.

En el caso del Grupo de Investigación del CD6, desde un punto de vista más físico o ingenieril se ha trabajado en el desarrollo de la técnica de medida, probando nuevas tecnologías aplicables como las lentes electro-ópticas o sensores CMOS (fabricados con materiales semiconductores de metal-óxido).

Por otro lado, “a medio camino entre la clínica y el trabajo estrictamente de laboratorio, se han propuesto nuevos métodos de medida como en el caso de la amplitud de acomodación, donde a partir de un montaje de laboratorio se ha propuesto un método de medida de la amplitud de acomodación basado en la técnica de doble paso, primero testado en el laboratorio y luego extendiendo su uso a un ámbito más clínico”. Esta técnica que permite medir la calidad óptica del ojo consiste en formar la imagen de un punto en la retina y registrar la imagen de la luz reflejada en la retina tras su doble paso por los medios oculares.
El Grupo de Investigación de Óptica Visual, Óptica Fisiológica o Visual Biophotonics del Centro de Desarrollo de Sensores, Instrumentación y Sistemas (CD6) de la Universidad Politécnica de Catalunya (España) trabaja desde hace más de 10 años en la que es su principal línea de investigación, la medida de la calidad óptica ocular. Se trata de un campo multidisciplinar en el que participan investigadores de diferentes especialidades, por lo que se aborda desde diferentes enfoques.

Así lo detalla a DiCYT Mikel Aldaba, uno de los doctores que forma parte del Grupo y que obtuvo su graduado en Óptica y Optometría en la Universidad de Valladolid. Respecto a la importancia y las implicaciones prácticas que tiene la medida de la calidad óptica ocular, Aldaba asegura que permite una mejor comprensión de diferentes factores que pueden influir en la calidad óptica del ojo “como el tamaño pupilar, el efecto de las ametropías o el impacto de las técnicas de cirugía refractiva”. Además, estas técnicas de medida “están cada vez más implantadas en la clínica siendo utilizadas en la refracción, cirugía refractiva o en la medida de la difusión intraocular, entre otras”. Esta importancia se refleja, a su juicio, en el gran número de trabajos científicos que se están generando a alrededor de esta línea de investigación.

En el caso del Grupo de Investigación del CD6, desde un punto de vista más físico o ingenieril se ha trabajado en el desarrollo de la técnica de medida, probando nuevas tecnologías aplicables como las lentes electro-ópticas o sensores CMOS (fabricados con materiales semiconductores de metal-óxido).

Por otro lado, “a medio camino entre la clínica y el trabajo estrictamente de laboratorio, se han propuesto nuevos métodos de medida como en el caso de la amplitud de acomodación, donde a partir de un montaje de laboratorio se ha propuesto un método de medida de la amplitud de acomodación basado en la técnica de doble paso, primero testado en el laboratorio y luego extendiendo su uso a un ámbito más clínico”. Esta técnica que permite medir la calidad óptica del ojo consiste en formar la imagen de un punto en la retina y registrar la imagen de la luz reflejada en la retina tras su doble paso por los medios oculares.
La estrategia impulsada por el equipo de Franz es hacer que cada copia de un programa sea única, para que los ciberdelincuentes tengan que diseñar ataques diferentes para objetivos diferentes. Está inspirada en la biología, y de manera acertada en más de un sentido, ya que los virus biológicos existen desde mucho antes de que se aplicara dicho término al dominio de la computación. La Peste diezmó a la población humana de la Edad Media, pero no aniquiló a toda la gente de los lugares más afectados porque personas diferentes tienen composiciones genéticas diferentes.

Igual que ocurre en la biología, la diversidad significa fortaleza. Usando este concepto para disminuir el efecto de las vulnerabilidades en un software, Franz y sus colaboradores han desarrollado mecanismos que potencialmente pueden crear una versión única de cada programa para cada persona en el mundo. Esto no incapacitará por completo a los atacantes, pero evitará daños generalizados, aumentará drásticamente el coste de intentar perpetrar un ciberataque y hará que sea mucho más difícil atacar a una persona o entidad específica.

Aunque usar varias versiones de un mismo software no es algo nuevo (un programa a veces se puede adaptar para un cliente especial) nunca antes se había intentado a la escala o al bajo precio que ofrece el sistema de Franz. Con este sistema, se crean automáticamente "en la nube" versiones sutilmente diferentes del mismo software, de una manera que resulta "invisible" tanto para los desarrolladores del software como para los usuarios finales. El portento de crear las versiones diferentes se obra dentro de la tienda digital de software desde donde los usuarios descargan el software. Cuando se descarga el software a partir de la versión de referencia almacenada en la tienda, usuarios diferentes obtienen automáticamente versiones diferentes, aunque su funcionalidad sea idéntica.
Un llamativo enfoque estratégico de seguridad informática, basado en una singular línea de investigación que se inspira en la biodiversidad de la vida, promete dificultar hasta extremos notables las actividades delictivas de hackers, crackers, spammers, estafadores en la modalidad del phishing, ciberokupas y otros suplantadores de identidad, y hasta espías.

El ingenioso planteamiento del equipo de Michael Franz, de la Universidad de California en la ciudad estadounidense de Irvine, consiste, a grandes rasgos, en hacer ligeramente distinta cada copia de un mismo programa, como si el software fuese algo vivo y tuviera biodiversidad. El software así tratado funcionaría igual que el clásico, en ordenadores personales, smartphones (teléfonos inteligentes), supercomputadoras, y casi cualquier aparato digital que emplee software. Pero dispondría de una ventaja crucial frente al software clásico.

En el software clásico que se usa hoy en día, si los ciberdelincuentes descubren un punto débil en la seguridad de un programa, sistema operativo, o componente de los mismos, pueden explotarlo en todos los dispositivos que ejecutan dicho software. Desafortunadamente, es habitual que un mismo software, con exactamente las mismas vulnerabilidades, se ejecute en un gran número de dispositivos digitales, por lo que los ciberdelincuentes cuentan con un amplio campo de acción. Por ejemplo, la gran mayoría de los teléfonos inteligentes usan Android o iOS, y la mayoría de los ordenadores usan Windows.

Este carácter “clónico” del software facilita el trabajo de los atacantes. Necesitan encontrar un solo punto de entrada, y les servirá para una gran cantidad de ordenadores, que pasan a ser blancos factibles de ataque. Pueden crear virus que salten de un ordenador a otro, explotando la misma vulnerabilidad en cada uno de ellos. Y esto incluso permite a los ciberdelincuentes practicar sus ataques antes de desatarlos, ya que pueden reproducir el mismo entorno de software que encontrarán luego al enfrentarse a su objetivo rea
Chicca, experta en neuroinformática, está tratando de utilizar principios biológicos para construir sistemas nerviosos artificiales. Chicca y sus colegas han estado investigando qué tipo de circuitos pueden simular sinapsis electrónicas. Las sinapsis son los "puentes" que transmiten señales entre células nerviosas. A través de ellas se comunican estímulos y también pueden almacenar información. Además, el equipo de investigación ha analizado qué tipo de circuito puede imitar la plasticidad de los nervios biológicos. La plasticidad es como se denomina en neurología a la capacidad que tienen las células nerviosas, sinapsis y regiones cerebrales para adaptar sus características al uso. En el cerebro de los atletas, por ejemplo, ciertas áreas cerebrales están conectadas más fuertemente que en las personas que no son atletas.

Chicca, Chiara Bartolozzi, del Instituto Italiano de Tecnología (IIT), así como Giacomo Indiveri y Fabio Stefanini, del Instituto de Neuroinformática (INI) en Zúrich y el Instituto Federal Suizo de Tecnología en la misma ciudad suiza, ya han hecho un hallazgo sorprendente: Las construcciones que utilizan no sólo circuitos digitales, sino también circuitos compactos analógicos e imprecisos son más adecuadas para construir sistemas nerviosos artificiales que los conjuntos que tienen sólo circuitos digitales o circuitos electrónicos analógicos precisos que requieren mucha energía. Esto indica el camino a seguir para intentar desarrollar lo que estos investigadores definen como circuitos electrónicos neuromórficos aptos para construir sistemas cognitivos autónomos.
Recrear en una máquina la portentosa arquitectura subyacente en el cerebro de un ser vivo podría dotarla de algunas de sus cualidades extraordinarias, y es el punto de partida obligado para todo intento de dotar a un ordenador o robot de inteligencia comparable a la humana, un sueño largamente perseguido por muchos científicos y un tema estrella de la ciencia-ficción. La cuestión de si tal máquina poseería lo que llamamos "consciencia" está desde hace mucho tiempo en el epicentro de un debate lleno de dudas morales.

Una de las cualidades que definen a un cerebro biológico es la poca energía que consume, en comparación con los sistemas artificiales. Se impone pues comenzar por encontrar los circuitos y chips más adecuados para construir cerebros artificiales que utilicen la menor cantidad posible de energía.

Ésta es la cuestión que la profesora Elisabetta Chicca, de la Universidad de Bielefeld en Alemania, ha estado investigando en colaboración con colegas de Italia y Suiza.

Uno de los objetivos de Chicca es fabricar robots y otros sistemas tecnológicos tan autónomos y capaces de aprender como sea posible. Los cerebros artificiales que ella y su equipo están desarrollando están modelados imitando a los sistemas nerviosos biológicos del Ser Humano y otros animales. Estos sistemas biológicos procesan los estímulos del entorno de manera completamente diferente a como lo hacen los ordenadores actuales. Los sistemas nerviosos biológicos se autoorganizan, se adaptan y aprenden por cuenta propia. Para lograrlo, necesitan una cantidad relativamente pequeña de energía en comparación con los ordenadores, y hacen posible habilidades complejas como la toma de decisiones, y el reconocimiento de asociaciones y patrones.

Con este sistema se pretende aprovechar el calor de menos de 100 grados centígrados, que representa una parte considerable del calor residual potencialmente aprovechable.

El concepto básico de este enfoque fue propuesto inicialmente en la década de 1950, pero por aquel entonces faltaba tecnología capaz de llevar el concepto a la práctica. Ahora ya se dispone de tecnología con la que afrontar el desafío. Concretamente, los avances clave son usar en los electrodos de la batería un material que no estaba disponible en la década de 1950, e incorporar innovaciones de diseño del sistema que no se han logrado hasta tiempo después.

Aunque el nuevo sistema ofrece una ventaja significativa en la eficiencia de conversión de energía, todavía hay que perfeccionarlo más, a fin de que alcance un nivel de eficiencia apto para dar el salto desde el laboratorio al mercado, tal como advierte Chen.

Muchos procesos industriales, e incluso la propia actividad de las centrales eléctricas, generan grandes cantidades de calor residual. Durante décadas, investigadores de todo el mundo han estado buscando formas de aprovechar algo de esta energía desperdiciada. La mayoría de tales esfuerzos se han centrado en dispositivos termoeléctricos, materiales que pueden producir electricidad a partir de un gradiente de temperatura, pero la eficacia de esos dispositivos está limitada por la disponibilidad de materiales idóneos.

Ahora, unos investigadores del Instituto Tecnológico de Massachusetts (MIT) en la ciudad de Cambridge, y la Universidad de Stanford en el estado de California, ambas instituciones en Estados Unidos, han encontrado una nueva alternativa para convertir calor residual de baja temperatura en electricidad, o sea, para casos en que las diferencias de temperatura son de menos de 100 grados centígrados.

El nuevo enfoque, basado en un fenómeno llamado efecto termogalvánico, es obra del equipo de Gang Chen y Yuan Yang, del MIT, así como Seok Woo Lee y Yi Cui, en la Universidad de Stanford, entre otros científicos.

El nuevo sistema combina los ciclos de carga y descarga de ciertas baterías con el calentamiento y el enfriamiento, que influyen en el voltaje de las pilas recargables, de manera que el voltaje de descarga es superior al voltaje de carga. El sistema puede aprovechar de manera eficiente incluso diferencias de temperatura relativamente pequeñas, como por ejemplo una diferencia de 50 grados centígrados.

Para empezar, se calienta la batería no cargada con el calor residual. Entonces, mientras tiene una temperatura más alta, se carga la batería; una vez que está completamente cargada, se le deja enfriar. Como el voltaje de carga es menor a temperaturas altas que a temperaturas bajas, la batería, una vez que se ha enfriado, puede suministrar más electricidad que la que se utilizó para cargarla. Esa energía extra, por supuesto, no surge de la nada: Es resultado del calor que se agregó al sistema.
El equipo de Damiano, El-Khatib y el Dr. Steven Russell, de la Unidad de Diabetes en el Hospital General de Massachusetts, ya probó con éxito en ensayos clínicos una versión más primitiva del dispositivo varios años atrás.

Junto con las mejoras en el software que permite al dispositivo adaptarse a una amplia gama de necesidades individuales de aplicación de dosis, la nueva versión también se apoya en un hardware mejorado, incluyendo un teléfono inteligente (iPhone 4S) capaz de comunicarse inalámbricamente de forma práctica con dos bombas que proporcionan las dosis de insulina y glucagón. Cada cinco minutos, el teléfono inteligente o smartphone recibe una lectura del azúcar en sangre desde un sensor continuo de glucosa, que se emplea para calcular y administrar una dosis de insulina o de glucagón.

Se ha probado con éxito la más reciente versión de un dispositivo médico definido como páncreas biónico en dos ensayos clínicos de cinco días de duración, uno en adultos y el otro en adolescentes, los cuales impusieron mínimas restricciones a las actividades cotidianas de los pacientes. El dispositivo controla el azúcar en sangre en pacientes con diabetes de tipo 1, usando dosis tanto de insulina como de la hormona glucagón, que eleva el azúcar en sangre.

El equipo que ha realizado los ensayos, integrado por especialistas de la Universidad de Boston y el Hospital General de Massachusetts, ambas entidades en Estados Unidos, ha visto superadas ampliamente sus expectativas sobre la eficiencia de este dispositivo, en cuanto a su habilidad de regular la glucosa, prevenir la hipoglucemia y adaptarse automáticamente a las cambiantes necesidades, minuto a minuto, de cada persona, así como a la notable diferencia en el perfil de requerimientos que existe entre un adulto y un adolescente. El crecimiento rápido y los cambios hormonales de la adolescencia producen requerimientos de insulina que son de dos a tres veces más grandes que los de los adultos con el mismo peso corporal. E incluso, aunque las dosis necesarias en adultos son más predecibles, contraer una enfermedad típica como pueda ser un resfriado, o padecer de problemas gástricos, pueden cambiar de forma drástica la necesidad de insulina a lo largo de un período de días o semanas.

"Actualmente no hay una terapia de cuidado estándar que pueda alcanzar los resultados que hemos visto", ha declarado sobre el dispositivo Edward Damiano, del Departamento de Ingeniería Biomédica en la Universidad de Boston, uno de los investigadores principales del proyecto. Damiano conoce bien lo que significa vivir con diabetes, ya que su hijo de 15 años fue diagnosticado con una de tipo 1 a la edad de 11 meses.

Una de las virtudes claves de este dispositivo, diseñado por Damiano y Firas El-Khatib, de la misma universidad, es su capacidad para empezar a controlar el azúcar en sangre de forma instantánea, basándose sólo en el peso del paciente, y de adaptar continuamente su toma de decisiones en relación con las dosis de insulina y glucagón, para manejar un amplio abanico de necesidades de aplicación.
La nueva lente podría marcar un antes y un después en el mercado de las cámaras infrarrojas, al reducir el coste de las lentes de estas cámaras gracias al uso de materiales que son mucho más baratos que los empleados tradicionalmente en este tipo de cámaras.

Este nuevo y prometedor avance tecnológico ha sido presentado públicamente a través de la revista académica Optics Letters, editada por la Sociedad Óptica de América (The Optical Society, OSA), una organización fundada en Estados Unidos en 1916, con sede en Washington, D.C., y que agrupa a unos 17.000 científicos, ingenieros, y demás profesionales de la óptica y la fotónica de más de 100 naciones. Aproximadamente el 52 por ciento de los miembros de esta sociedad reside fuera de Estados Unidos.

Andar por un callejón solitario y oscuro donde un delincuente puede ocultarse fácilmente a la espera de una nueva víctima podría ser menos peligroso si fuese posible detectar la presencia de alguien aunque no lo tengamos a la vista. Puede que esto se logre gracias a una nueva clase de lente ultradelgada para cámaras infrarrojas más pequeñas y baratas. Las cámaras de este tipo permiten detectar el calor corporal en la oscuridad e incluso con algunos obstáculos interponiéndose, pero por razones de costo y tamaño no son un utensilio fácil de llevar encima.

El equipo de Tatiana Grulois, del laboratorio aeroespacial francés ONERA, ha dado con una prometedora estrategia de diseño para fabricar una cámara térmica infrarroja con una lente hecha de silicio, un material mucho más barato que los usados hasta ahora para las lentes de tales cámaras.

El prototipo de cámara infrarroja, desarrollado en colaboración con expertos del Centro Nacional francés para la Investigación Científica (CNRS), la compañía de sensores infrarrojos ULIS, y el Instituto de Óptica, todas estas entidades en Francia, tiene un amplio campo de visión (130 grados) y se desempeña bien en condiciones de poca luz. Es efectivo en un amplio rango de longitudes de onda de luz infrarroja, de 7 a 14 micrómetros, una banda que es muy sensible a diferencias en la temperatura.

La nueva lente de silicio es más pequeña que una moneda de 1 céntimo de euro. Aunque no tiene una resolución espléndida, la lente es lo suficientemente buena como para revelar la presencia de una persona y algunos rasgos generales de ella.

Las aplicaciones potenciales de la nueva cámara infrarroja incluyen tareas de vigilancia a bajo costo, en el hogar para detectar intrusos, o en la calle para detectar posibles atacantes ocultos en callejones oscuros o en esquinas.
Los componentes del nitruro de boro (boro y nitrógeno) están justo a ambos lados del carbono en la tabla periódica, por lo que sus propiedades tienden a ser relativamente similares. Aunque los nanotubos de nitruro de boro ya habían sido investigados, son menos conocidos que los nanotubos de carbono. Al examinar detalladamente ambos, uno junto al otro, como ha hecho el equipo de Lydéric Bocquet, en un primer momento sí parece que son idénticos, excepto por sus propiedades eléctricas: Los nanotubos de carbono son conductores o semiconductores, mientras que los nanotubos de nitruro de boro son aislantes. Por eso los investigadores se sorprendieron al encontrar una diferencia tan grande entre sus respectivos niveles de fricción, aún cuando estructuralmente son en esencia iguales. Hay una diferencia oculta que los científicos todavía no conocen con certeza.

No está claro todavía qué aplicaciones prácticas puede tener este hallazgo, pero, tal como sugiere Bocquet, los nanotubos de alta fricción podrían servir como nuevo material para amortiguar golpes.

Los nanotubos, que son cilindros microscópicos mil veces más delgados que un cabello humano, han sido objeto de intensa investigación, y tienen aplicaciones potenciales como por ejemplo células solares, sensores químicos y materiales compuestos reforzados, entre muchas otras. La mayor parte de las investigaciones se han centrado en los nanotubos de carbono, y se ha venido considerando que las propiedades de otros nanotubos eran muy similares a las de los de carbono.

Así que ha resultado toda una sorpresa el hallazgo que han hecho unos científicos de la Universidad de Lyon en Francia, el Centro Nacional francés para la Investigación Científica (CNRS), y el Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos. Mientras realizaban pruebas con nanotubos de carbono y nanotubos de nitruro de boro, encontraron que al menos en cuanto a la fricción, una propiedad fundamental, los dos tipos aparentemente idénticos de nanotubos no sólo son diferentes, sino que tienen comportamientos casi opuestos: Los nanotubos de carbono son tan resbaladizos que se les describe como poseedores de superlubricidad. Los nanotubos de nitruro de boro, por su parte, exhiben un grado de fricción muy alto, algo del todo inesperado.
Lo que el equipo de Matthias B. Hullin capta es una especie de eco de luz compuesto por datos lumínicos que portan información sobre cuánto ha tardado cada haz en llegar al objeto oculto contra el cual ha rebotado. A partir de esta información, es factible reconstruir el objeto. Dicho de otro modo, parte de la luz proyectada contra la pared ha entrado también en contacto con el objeto desconocido y por tanto lleva información valiosa con ella sobre su forma y apariencia. Para poder medir tales ecos, se requiere una cámara especial, que ha sido desarrollada por el equipo de investigación.

La precisión del nuevo método tiene sus límites, por supuesto, pero puede ser útil para tener una idea de qué hay al otro lado de una esquina o situación similar si por cualquier razón no es posible asomarse a mirar ni enviar un robot. Además, el equipo de Hullin asume que, teniendo en cuenta el rápido desarrollo de los componentes técnicos y de los modelos matemáticos, pronto se podrá alcanzar una resolución aún más a
Unos científicos han desarrollado un novedoso sistema de captación de imágenes que puede ver lo que hay al otro lado de una esquina, sin usar espejos ni tubos curvados a modo de periscopios. Utilizando luz reflejada difusamente, reconstruye la forma de los objetos fuera de su campo de visión.

Un láser ilumina la pared; una cámara contempla la escena. Nada más que la superficie blanca de la pared, con un brillante punto de luz incidiendo sobre ella, puede verse a través de la lente. Un ordenador registra esas imágenes inicialmente ordinarias, y a medida que los datos se van procesando, poco a poco, aparece en la pantalla la silueta de un objeto que estaba al lado, fuera de la línea de visión de la cámara.

En esto consiste el proceso de reconstrucción, mediante luz difusamente dispersa, de imágenes de objetos situados fuera del campo visual.

La cámara, combinada con un procedimiento matemático, permite a los creadores de la técnica, de la Universidad de Bonn en Alemania y la Universidad de la Columbia Británica en Vancouver, Canadá, transformar virtualmente esta pared en un espejo.

El láser que incide contra la pared se convierte en una fuente de luz dispersa, que sirve como fuente de información crucial. Parte de esta luz regresa hacia la pared y finalmente alcanza la cámara.



Por otro lado, las propiedades de las nanoantenas desarrolladas en el NTC de la Universitat Politècnica de València las convierten en un componente idóneo para la fabricación de chips fotónicos avanzados. “Permitiría abaratar el proceso de producción y reducir al mismo tiempo el tamaño de los equipos. Por ejemplo, con esta nanoantena podríamos construir miles de elipsómetros o sensores plasmónicos en un chip.  Estos dispositivos se usan como biosensores, y en la actualidad, son muy voluminosos y caros, aparte de requerir personal experto para su manejo. La solución con nanoantenas permitiría obtener dispositivos muy sencillos de usar.” (Fuente: UPV)
nvestigadores de la Universitat Politècnica de València (España) han diseñado y fabricado unas nuevas nanoantenas ópticas de altas prestaciones que permitirían, entre otras muchas ventajas, incrementar la velocidad de transmisión de datos por fibra óptica o de escritura de un disco duro magnético, así como mejorar operaciones de biosensado.

Su trabajo fue portada el pasado mes de mayo de la revista Laser and Photonics Reviews, una de las publicaciones más relevantes en el campo de la fotónica en el ámbito internacional.

El principal hito de esta investigación reside en que la nanoantena es capaz de radiar luz con cualquier tipo de polarización, ya sea lineal, circular o elíptica, sin necesidad de modificar su morfología. La polarización generada se puede modificar de forma dinámica, con un tiempo de respuesta inferior a 1 nanosegundo.

“La posibilidad de cambiar dinámicamente la polarización permitiría su uso en redes ópticas de alta velocidad donde se usa multiplexación por polarización para mejorar la velocidad total de transmisión de datos. En biosensores, podemos medir el cambio de polarización producido por una sustancia en la escala nano, lo que nos daría detalles de sus propiedades”, explica Alejandro Martínez, investigador del Centro de Tecnología Nanofotónica de la UPV

Martínez destaca también el uso de luz polarizada circularmente para escritura láser en discos magnéticos. “Con nuestro avance, se podrían conseguir velocidades de escritura más altas y en tamaños más pequeños, lo que llevaría a una mayor densidad de almacenamiento de datos en discos duros”, añade.
Los padres de Mesa son cirujanos, y también dio un salto hacia lo desconocido al estudiar arquitectura. “La arquitectura integraba todas esas cosas sobre las que yo quería conocer: arte, ciencia, humanidades“, afirma. “Fue el tipo de estudio más completo y satisfactorio que pude encontrar”.

La Casa Hemeroscopio en Madrid, España, construida en 2009, es impresionante por más de una razón. García-Abril y Mesa recogieron elementos descartados de infraestructuras, incluyendo grandes vigas, añadieron abundantes cantidades de cristal, y en el proceso construyeron una gran casa con líneas modernistas clásicas y espacios abiertos. A continuación se mudaron a ella: Se convirtió en la residencia principal de la pareja, que tiene cuatro hijos.

Esa casa fue tanto su vivienda como su laboratorio. "Como usuarios, nos encantaba vivir en una atmósfera de iluminación y transparencia, que nos daba una sensación magnífica por estar en cualquier lugar de la casa y aún ver a nuestros chicos. Como arquitectos, era nuestro laboratorio. Superamos el riesgo psicológico de encontrar que no nos gustaba. Pero no éramos sólo nosotros; nuestros amigos y familia descubrieron que les gustaba este espacio. Ello ha sido esencial para nuestra investigación. Fue un descubrimiento”.

El uso y reutilización de materiales básicos pensados inicialmente para infraestructuras, enfatiza Mesa, ayudó a la pareja a reconocer que la buena arquitectura puede hacerse a un buen precio.

Cuando vivían en España, Antón García-Abril y Débora Mesa diseñaron una casa para ellos hecha en buena parte de cristal y bloques de hormigón sobrantes de infraestructuras. Una vez se ensamblaron los elementos de la casa, la construcción llevó apenas siete días. Ese tipo de proceso es lo que esperan desarrollar un poco más en Cambridge, Estados Unidos, ampliando su técnica de construcción a base de elementos prefabricados.

García-Abril, ahora profesor de arquitectura en el Instituto Tecnológico de Massachusetts (MIT) en la citada ciudad de Cambridge, dirige un equipo, junto con Mesa, que tiene entre sus objetivos lograr un uso más racional y sostenible de los materiales de construcción, y de la propia manera en que se construyen ciertas infraestructuras y algunos edificios pequeños.

La mayor parte de las ideas que este grupo está poniendo a prueba son formas nuevas de estructuras urbanas, potencialmente hechas a partir de hormigón pretensado (conocido también como concreto presforzado), que puede ser empleado por los ciudadanos para muchas de sus necesidades. La meta final es obtener sistemas de materiales casi autoconstruidos que pudieran ser rápidamente ensamblados y satisfacer así diversas necesidades arquitectónicas.

García-Abril creció en España. Su padre es el célebre compositor Antón García Abril, autor de bandas sonoras para cine y televisión, incluyendo la de la mítica serie documental de zoología "El Hombre y la Tierra", dirigida por el no menos carismático Félix Rodríguez de la Fuente, que tantas vocaciones ecologistas despertó. Sin embargo, García-Abril hijo se sintió más inclinado por la arquitectura, pese a que, tal como él mismo aclara, no tuvo ningún punto de referencia en su familia, ni ningún otro contacto previo con alguien del mundo de la arquitectura que hubiera podido influenciarle.
Las expediciones de científicos en submarinos para hacer largos viajes de exploración oceanográfica pueden ser peligrosas, además de caras. Enviar robots a hacer mediciones subacuáticas u otras tareas similares y dejarles en alta mar para que naveguen durante meses haciendo su trabajo hasta ser recogidos, es una interesante modalidad de investigación oceanográfica que cada vez se demuestra más eficaz.

Equipados con la tecnología de sensores necesaria, estos robots son capaces de inspeccionar las aguas portuarias o de aventurarse hasta el fondo del océano en busca de yacimientos de materias primas, por citar algunos ejemplos de operaciones para los que se les emplea. Además, al tratarse de robots y no de meros submarinos pilotados por control remoto, pueden llevar a cabo tareas rutinarias de forma independiente, sin necesitar la ayuda constante de humanos. 

La historia de los robots de esta clase es aún muy joven, pero está ya rebosante de proezas y primicias, a cada cual más espectacular, algunas de las cuales han protagonizado artículos de NCYT de Amazings en la última década. Por ejemplo, cabe destacar al robot Spray que hizo historia al convertirse en el primer vehículo subacuático autónomo que logró atravesar la Corriente del Golfo bajo el agua (ver nuestro artículo del 12 de noviembre de 2004 (http://www.amazings.com/ciencia/noticias/121104c.html). Otra hazaña memorable fue la del SeaBed, que exploró los restos del naufragio de un barco griego del siglo IV antes de Cristo. Este robot logró en 2 días lo que hubiera llevado años de esfuerzos a los buzos humanos (ver nuestro artículo del 3 de marzo de 2006,http://www.amazings.com/ciencia/noticias/030306c.html). En fechas más recientes (http://noticiasdelaciencia.com/not/9417/), tenemos el espectacular hallazgo de insólitas anémonas de mar, de una especie hasta entonces desconocida, que fueron descubiertas por el robot SCINI viviendo afianzadas en la cara interior de la Plataforma de Hielo de Ross, en la Antártida.

A esta lista de hazañas científicas y tecnológicas, hay que añadirle ahora la protagonizada por el robot RU 29 Challenger, que ha conseguido cruzar el Atlántico Sur durante una larga travesía, en dos etapas, de cerca de año y medio.