
En la vida cotidiana, pedir un objeto parece una acción simple, pero para una máquina implica lidiar con ambigüedades, movimientos imprecisos y señales incompletas. Inspirados en la sorprendente capacidad de los perros para entender a las personas, investigadores de Brown University desarrollaron un sistema que permite a los robots interpretar órdenes humanas combinando palabras, gestos y visión.
El modelo, denominado LEGS-POMDP, integra estas señales dentro de un marco probabilístico diseñado para operar en contextos inciertos. Según el equipo, la tecnología alcanzó una tasa media de acierto del 89% en simulaciones exigentes y mostró un desempeño sólido en pruebas con un robot cuadrúpedo real. El estudio fue aceptado en una conferencia internacional sobre interacción humano-robot HRI 2026, celebrada en Edimburgo.
PUEDES VER: Cubren tarjetas bancarias con papel de aluminio: ¿para qué sirve y qué tan efectivo es contra fraudes?

Uno de los principales desafíos en robótica no es solo identificar objetos, sino determinar cuál es el correcto en escenarios saturados o desordenados. En espacios como cocinas o talleres, donde abundan elementos similares o parcialmente ocultos, interpretar una instrucción verbal resulta insuficiente.
Para resolver este problema, los científicos recurrieron al enfoque Proceso de decisión de Markov parcialmente observable, que permite tomar decisiones cuando la información es incompleta. En lugar de asumir certezas, la máquina mantiene hipótesis probabilísticas sobre la ubicación e identidad del objeto y las ajusta a medida que obtiene nuevas pistas.
Este método le permite explorar antes de decidir, cambiar de perspectiva y corregir errores, transformando la duda en una ventaja operativa. Así, deja de ser un simple clasificador de imágenes para convertirse en un agente que razona en tiempo real.
El avance más innovador radica en cómo el sistema traduce el señalamiento humano. A diferencia de modelos tradicionales que interpretan el gesto como una línea exacta, los investigadores lo representaron como un “cono de probabilidad”, más cercano a la forma en que las personas realmente se comunican.
Para ello, se basaron en estudios sobre cómo los perros leen nuestras señales, analizando la alineación entre ojos, brazo y postura corporal. Este enfoque permite captar mejor la intención detrás del gesto, sin eliminar completamente la ambigüedad, pero haciéndola manejable.
El resultado refleja una idea clave: la comunicación humana no depende de una única señal, sino de la integración de múltiples indicios. Este principio, aprendido del comportamiento animal, se convierte en una herramienta esencial para mejorar la interacción entre humanos y máquinas.
La combinación de lenguaje, visión y gestos abre nuevas posibilidades para asistentes robóticos en entornos domésticos e industriales. Desde encontrar medicamentos en superficies desordenadas hasta recuperar herramientas en fábricas, el sistema promete interfaces más naturales y menos rígidas.
Sin embargo, los investigadores advierten que los resultados aún corresponden principalmente a simulaciones, mientras que las pruebas físicas son preliminares. El avance representa un paso significativo, pero no implica la llegada inmediata de robots completamente autónomos en tareas cotidianas.
Aun así, el desarrollo marca un cambio de enfoque: entender a los humanos no pasa por eliminar la ambigüedad, sino por aprender a interpretarla. Y en ese proceso, la robótica encuentra en los perros un modelo inesperado pero altamente efectivo.





CINEPLANET: 2 entradas 2D + 2 bebidas grandes + Pop corn gigante. Lunes a Domingo
PRECIO
S/ 47.90
ALMUERZO O CENA BUFFET + Postre + 1 Ice tea de Hierba luisa en sus 4 LOCALES
PRECIO
S/ 85.90
PREVENTA: Álbum + paquetón Panini FIFA Mundial 2026 - DELIVERY GRATIS (Asegura tu pedido)
PRECIO
S/ 49.90
FLYING SQUIRREL: 120 Minutos en Jockey Plaza, San Miguel e Independencia.
PRECIO
S/ 22.90