[Foto: Haply Robotics]
Uno de los conceptos que más resonó durante CES 2026 fue el de la “inteligencia artificial física”: robots capaces de interactuar con el mundo real de forma más precisa y natural, como lo hacemos los humanos. Sin embargo, entre esa visión y la realidad aún existe una brecha importante, especialmente cuando se trata de replicar la experiencia humana. Traducir movimientos, decisiones y sensaciones como el tacto al mundo digital sigue siendo un reto monumental. Frente a ese desafío, una empresa busca acortar distancias y llevar capacidades humanas —como la percepción táctil— al entorno virtual.
Haply Robotics es una compañía canadiense con sede en Montreal que está en la vanguardia de la tecnología háptica y las interfaces que integran el tacto con el mundo digital y robótico. Su misión es “llevar el sentido del tacto a la tecnología”, desarrollando herramientas que permiten interactuar con entornos digitales y robóticos con la misma naturalidad que lo hacemos en el mundo físico.
La tecnología háptica de Haply Robotics está ganando protagonismo como una pieza clave para el desarrollo de la IA física. A través de dispositivos que permiten “sentir” el entorno digital —como resistencia, peso o contacto—, esta tecnología mejora la forma en que se entrenan y operan los robots, acercando su comportamiento a la experiencia humana.
“Ese es uno de los últimos grandes desafíos que existen. Se escucha mucho hablar de IA física y de cómo crear datos para entrenar estos modelos. En otras palabras, ¿cómo conviertes el movimiento humano en un mundo digital? Ese es el reto. Y lo que decidimos hacer fue proponernos desarrollar dispositivos que permitan, de una manera muy natural e intuitiva, convertir tu movimiento en un espacio digital”, comenta a Paul Stafford, Director de Desarrollo de Negocios de Haply, a Fast Company México.
Entrenamiento de robots
Uno de sus principales usos de la tecnología de Haply está en el entrenamiento de modelos de IA y robots mediante simulación. Al incorporar retroalimentación táctil, los ingenieros pueden enseñar tareas complejas como agarre, ensamblaje o manipulación delicada, generando datos más realistas que se traducen en robots mejor preparados para operar fuera del laboratorio. Esto también habilita la teleoperación, permitiendo controlar máquinas a distancia con mayor precisión, algo clave en entornos industriales peligrosos o de difícil acceso.
“Si tienes una labor en la que quieres proteger a tu operador, de modo que no tenga que estar junto al robot, puedes usar esto como un dispositivo de control remoto. De esta manera, proteges al operador y, a la inversa, en algunos casos podrías proteger el producto [que está manipulando]”, explica Stafford.
En el sector salud, la tecnología háptica abre nuevas posibilidades para la formación médica y la rehabilitación. Simuladores con tacto realista permiten entrenar cirugías y procedimientos sin riesgo para pacientes, mientras que en terapia física ayudan a guiar movimientos y medir avances con mayor exactitud. En paralelo, industrias como el diseño y la manufactura pueden validar prototipos y procesos en entornos virtuales sintiendo cómo responderían en el mundo físico.
Más allá de la robótica industrial, estas soluciones también están llegando a la educación, la realidad virtual y los gemelos digitales, donde el tacto añade una capa de realismo antes inexistente.
Más sentidos = mejores robots
Stafford explica que la idea es potenciar a los robots con la mayor cantidad de “sentidos” posible, con el fin de hacerlos cada vez más eficientes si son controlados a distancia por una persona.
“Lo otro que está ocurriendo es que estamos usando nuestros dispositivos, impulsados por el sentido del tacto, en conjunto con la visión por computadora. Así se obtiene una imagen completa: estás sintiendo y viendo al mismo tiempo. Se recrea todo el panorama de cómo interactuarías si realmente estuvieras ahí. Por eso, la combinación de tacto y vista es un elemento clave para ofrecer una solución mucho más integrada en el mundo del control robótico”, señala.
En última instancia, ¿hacia dónde va todo esto? Si el CES es algún indicador, cada vez hay más modelos de robots humanoides; ya se de grandes marcas o pequeñas. Stafford señala que muy probablemente llegaremos a un punto donde se integran de la forma más completa todos los sentidos en un robot; sin embargo, con la creación de modelos cada vez más sofisticados y diseñados para realizar una mayor cantidad de tareas, la aplicación de hápticos se topa con un nuevo grado de complejidad.
“Ya contamos con casos de uso para la teleoperación, pero su complejidad va en aumento. Me refiero a que las tareas que se realizan controlando estos robots están evolucionando. Inicialmente, eran tareas bastante sencillas, pero ahora se están volviendo más complejas a medida que se incorporan a diferentes industrias, como por ejemplo, en almacenes industriales”, explica Stafford.
Stafford agrega que el principal desafío actual de la inteligencia artificial física es tratar descifrar cómo hacer que esos dispositivos se comporten de la manera más humana posible.
“Hacia ahí es a donde vamos. Ahora, la pregunta es cuándo, y sobre eso hay distintas opiniones. Cada vez que hacemos una integración en un robot, cada caso es ligeramente distinto, así que constantemente hay que superar pequeñas sutilezas en las integraciones que se requieren. No es algo sencillo. Además, mientras más expuestos estén los robots a entornos fuera de contextos automatizados y muy controlados, más entran en juego estos problemas. Por eso, hoy el mayor reto es diseñar pensando específicamente en ese tipo de desafíos”, señala Stafford.
![[Foto: Nicolas Economou/NurPhoto vía Getty Images]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/13110225/p-1-91474082-meta-layoffs-2026.webp)
![[Ilustración: FC]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/13073610/p-1-91473073-iran-emoji.webp)
![[Imágenes: Greg Johnson/Unsplash; Andrii/Adobe Stock]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/12102518/p-1-91470657-how-facial-recognition-for-bears-can-help-ecologists-manage-wildlife.webp)