Improving user experience in human-robot collaboration through mutual understanding
La integración de robots en entornos industriales ha evolucionado desde la automatización de tareas repetitivas hacia sistemas colaborativos que requieren interacción con los trabajadores. A medida que avanzamos hacia la Industria 5.0, el enfoque ya no se limita únicamente a la productividad, sino que también se busca optimizar la experiencia del usuario (UX) en la colaboración humano-robot (HRC), poniendo el foco en las necesidades de las personas. Para lograrlo, es fundamental desarrollar herramientas que fomenten la comprensión mutua entre humanos y robots.
Actualmente, la falta de información clara sobre el estado del robot y la dificultad en la comunicación entre ambas partes generan incertidumbre y estrés en los trabajadores. Este problema es especialmente evidente en escenarios donde los robots tienen control total para garantizar la seguridad del usuario, lo que da lugar a entornos llenos de incertidumbre que impactan negativamente en el UX. Además, aunque la investigación ha explorado los efectos de proporcionar o retener información a los usuarios, se ha prestado poca atención a cómo la cantidad de información compartida influye en la interacción. Asimismo, la mayoría de los estudios existentes se han centrado en garantizar la seguridad del usuario, pero para lograr una colaboración verdaderamente efectiva, es esencial desarrollar sistemas que no solo protejan a los usuarios, sino que también permitan a los robots interpretar sus necesidades.
El principal objetivo de este trabajo es mejorar el UX en entornos colaborativos mediante el desarrollo de herramientas basadas en inteligencia artificial (AI) y realidad aumentada (AR) que faciliten la comprensión mutua entre humanos y robots. Para lograrlo, la investigación se estructura en tres líneas clave:
El humano entiende al robot: La primera línea de investigación se centra en analizar cómo la información multimodal en realidad mixta (MR) (audio, visual y audio-visual) puede mejorar la percepción de seguridad y control de los usuarios, reduciendo la incertidumbre sobre las acciones del robot. Los resultados indican que las tres condiciones son igualmente efectivas para concienciar a los usuarios sobre su estado, con diferencias que impactan principalmente en el UX.
Comunicación bidireccional: La segunda línea de investigación se enfoca en el desarrollo de un marco que permita un intercambio de información fluido entre humanos y robots, además de analizar cómo diferentes niveles de información explícita influyen en el rendimiento y el UX. Los resultados muestran que la cantidad de información proporcionada influye directamente en el desempeño de la tarea, el UX y la disposición de los usuarios a colaborar con el robot.
El robot entiende al humano: La última línea de investigación busca comprender cómo se comportan los usuarios cuando necesitan ayuda en los escenarios actuales de HRC y desarrollar modelos que permitan a los robots detectar cuándo un usuario está atascado y necesita asistencia sin intervención explícita. Estos modelos utilizan técnicas de aprendizaje automático basadas en señales cognitivas y afectivas. Los resultados muestran que los usuarios a menudo tienen dificultades para pedir ayuda por miedo al juicio y por no querer molestar a otros. Además, los resultados sugieren que sustituir la asistencia humana por asistencia robótica podría reducir estas barreras y mejorar la experiencia general. Asimismo, se han desarrollado con éxito dos modelos distintos con un alto potencial para identificar cuándo los usuarios están bloqueados, allanando el camino para futuros robots asistenciales proactivos.
Estos hallazgos contribuyen al desarrollo de entornos industriales más intuitivos y eficientes, donde humanos y robots colaboren de manera fluida. Al integrar RA e IA, este trabajo introduce soluciones innovadoras para mejorar la UX en HRC, fomentando una comunicación más natural, reduciendo la carga cognitiva y mejorando la eficiencia en la ejecución de tareas.