Un grupo de investigadores de la universidad de Pennsilvania creó un robot llamado PanoRadar, que usa varios sistemas para lograr que «vea» a través de las paredes Imagen generada por IA
Ya se está trabajando para que, en algún momento en el futuro, los robots cuenten con una visión sobrehumana, que les permita ver a través de muros, humo, vidrio, niebla y lluvia intensa, entre otros.
Este es el objetivo de un grupo de investigadores de la Universidad de Pensilvania, Estados Unidos, apelando a un sistema llamado PanoRadar, que convierte ondas de radio en vistas tridimensionales detalladas. De esta manera, los robots tendrán la capacidad de moverse con precisión en situaciones como misiones de búsqueda y rescate, donde los sensores convencionales no sirven.
La inspiración para este invento
Por lo general, los sensores, radares y otros desarrollos similares dependen de la luz para poder visualizar lo que está frente a ellos. Sin embargo, la naturaleza tiene ejemplos de que la visión no tiene que estar limitada por la luz. Por ejemplo, los tiburones detectan campos eléctricos generados por el movimiento de sus presas, mientras que los murciélagos usan los ecos de las ondas sonoras para navegar.
Más allá de la visión humana, las ondas de radio pueden atravesar algunos materiales y penetrar el humo o la niebla de manera más efectiva que las ondas de luz, debido a su longitud de onda significativamente mayor.
Visión 3D mediante ondas de radio
PanoRadar es una nueva tecnología diseñada para resolver este problema al convertir ondas de radio básicas en imágenes tridimensionales detalladas del entorno, proporcionando a los robots una visión sobrehumana.
El sensor PanoRadar funciona de manera similar a un faro, escaneando todo el horizonte al barrer su haz en círculos. El sistema consta de una matriz vertical giratoria de antenas que exploran su entorno. Estas antenas emiten ondas de radio y escuchan sus reflejos en el entorno, como un faro que detecta barcos y puntos de referencia costeros. Sin embargo, gracias a la capacidad de la inteligencia artificial incorporada (IA), PanoRadar supera esta técnica de escaneo básica, porque es capaz de combinar inteligentemente mediciones de todos los ángulos de rotación para mejorar la resolución de las imágenes.
Esta técnica de rotación produce una densa red de puntos de medición virtuales, lo que permite que PanoRadar alcance una resolución de imágenes comparable a la de LiDAR, aunque el sensor en sí tiene solo una fracción del costo de los sistemas LiDAR tradicionales. Los LiDAR, radares de láser, se usan, por ejemplo, en los autos autónomos.
“Si bien PanoRadar y LiDAR tienen un mismo objetivo, que es el de detectar la presencia y el volumen de objetos distantes, cada una trabaja de una forma muy diferente, y con resultados igualmente muy distantes”, explica David Soto Sedano, Offer Global Director Healthcare & Insurance en el proveedor de soluciones IT Softtek. Y se explaya: “LiDAR está muy extendida, hasta tal punto que la podemos encontrar en los iPhones; utiliza puntos láser, y se puede encontrar implementada en peajes, en proyectos de cartografía y topografía, entre otros casos. Por su parte, PanoRadar emplea ondas de radio para crear imágenes tridimensionales de alta resolución del entorno. Esta tecnología tiene el potencial de revolucionar la percepción robótica al poder “ver” a través de humo, niebla y superficies reflectantes como el vidrio, superando así algunas limitaciones del LiDAR”.
El ejecutivo señala que PanoRadar y LiDAR tienen fortalezas complementarias, “por lo que es probable que ambas tecnologías coexistan y se utilicen según los requisitos específicos de cada aplicación”
Según trascendió en la prensa internacional, entre los hitos más difíciles de superar por los investigadores se encontró el desarrolló los algoritmos para PanoRadar, capaces de buscando mantener imágenes de alta resolución incluso cuando el robot está en movimiento.
“Otro desafío fue enseñar al sistema a interpretar entornos interiores complejos”, comentó uno de los investigadores, y explicó que superaron este problema entrenando la IA para reconocer patrones en señales de radar, de manera similar a la percepción humana.
Al ser consultado sobre este desarrollo, Lucas Jagodnik, que es CEO de la firma de robótica argentina Apelie Robotics, opina: “La IA ya se está colando en la robótica. En este caso es la combinación de radiofrecuencias y modelos entrenados lo que permiten lograr toda una percepción avanzada del entorno”. Según explica este ejecutivo, que hace unos meses se mudó a Atlanta, Estados Unidos, donde está la sede central de su emprendimiento de robots que se aplican a distintas industrias, “existen tecnologías como el sensado láser o LiDAR, o la visión por cámaras, pero pueden fallar ya sea porque hay ciertas superficies que pueden reflejar más de lo que debería, que es lo que puede ocurrir con el láser, mientras que las cámaras también enfrentan las dificultades de las condiciones de niebla, de humo y de oscuridad, por lo que también son limitadas”.
El entrevistado menciona que Apelie Robotics está trabajando con tecnologías similares a las que están en los radares. “En Canadá, puntualmente, tenemos robots que están en corrales avícolas y sirven para tranquilizar a las aves, estimularlas, medir sus condiciones mentales. Los granjeros realmente están encantados porque nuestro robot les permite reducir horas de trabajo en los corrales. Hay poca oferta de mano de obra, entonces es vital. Además, estamos desarrollando un granjero con inteligencia artificial”, adelanta.
Otros casos de uso: los coches autónomos y salud
Jagodnik menciona que esta tecnología permite ver cuando el ojo humano y los sensores tradicionales no lo pueden hacer. “Esto abre un abanico impresionante de aplicaciones que van desde vehículos autónomos, agricultura de precisión y hasta situaciones de seguridad y defensa”, comenta y se explaya: “Los radares estos no son tecnología nueva, pero sí lo que es revolucionario es cómo combinamos una suma de datos con radares por medio de la IA para mejorar lo que es la percepción y predicción”, sostiene.
Por su parte, Soto Sedano dice que el sector de salud puede ser uno de los más impactados. “PanoRadar podría utilizarse para monitorear los signos vitales y movimientos de los pacientes sin necesidad de sensores adheridos al cuerpo, lo que sería especialmente útil en unidades de cuidados intensivos o para pacientes con movilidad reducida. Y si vemos lo que ya se está haciendo con los robots Da Vinci, podría aumentar todavía más la eficiencia, ya que la visión mejorada que proporciona podría ayudar a los cirujanos a realizar procedimientos más precisos, especialmente en condiciones de visibilidad limitada”.
En la misma línea, en residencias de ancianos o centros de rehabilitación, PanoRadar podría detectar caídas o movimientos anormales de los pacientes, permitiendo una respuesta más rápida del personal médico.
Y si vamos a sectores más cercanos a la industria, en la construcción e ingeniería civil, esta tecnología podría utilizarse para inspecciones estructurales y mapeo 3D de sitios. “En la industria manufacturera, mejoraría el control de calidad automatizado y la navegación de robots en fábricas. Además, en el sector de seguridad y vigilancia, podría proporcionar una cobertura de 360 grados con capacidad de detección a través de obstáculos, ideal para aeropuertos, instalaciones militares y edificios comerciales”, completa el ejecutivo de Softtek.
De cara al futuro
Los entrevistados creen que este desarrollo es tan solo un ejemplo del poder de la IA. “Creo que vivimos días fascinantes porque las aplicaciones están llegando a manos de personas creativas o gente que tiene ciertos problemas que sabe que con esta tecnología lo pueden resolver. Incluso creo que estamos cerca del punto de inflexión donde vamos a empezar a comenzar a descubrir millones de usos”, explica Jagodnik, quien cree que en cinco años vamos a encontrar un mundo absolutamente distinto comparado con lo que conocemos hoy.
Mientras que este ejecutivo cree que lo más rápido va a ser las aplicaciones asistidas con inteligencia artificial: “yo creo que de cinco a diez años ya vamos a tener robots participando activamente en nuestra sociedad, en nuestras casas. Estamos en el inicio, pero es un camino fascinante y creo que es muy bien recibido entre nuestros clientes. Y lo más destacable, yo creo que todo está siendo diseñado, pensado y construido por jóvenes argentinos. Gente que quizás nunca imaginó que podía desarrollar robots desde Argentina para el mundo”.
Por su parte, Soto Sedano considera que la tecnología Panoradar podría estar comercialmente disponible en unos 3-5 años. “Aunque el prototipo ya está funcionando y los resultados son prometedores, aún queda camino por recorrer y la tecnología necesita más pruebas en entornos reales, optimización de costos y posiblemente integración con otros sensores”, concluye.
Fuente: La Nación
Share this content: