[Fotos: cortesía de Muybridge]
Los fans de los deportes en vivo están entrando a una nueva era.
En varias ocasiones, durante la final masculina del Abierto de Madrid entre Casper Ruud y Jack Draper la primavera pasada, los televidentes disfrutaron de una perspectiva de cámara excepcional. Vieron el partido justo detrás de la línea de fondo, siguiendo con fluidez el movimiento del jugador paso a paso y vislumbrando su ángulo perfecto sobre la pelota en cada golpe.
Sin desenfoques ni retrasos perceptibles, la fluidez de las imágenes en directo tenía la sensación hiperrealista de un videojuego.
“Me encanta el juego de pies del cámara”, escribió un usuario de YouTube.
La compañía ahora utiliza este comentario en su presentación a inversionistas.
En realidad, estas asombrosas tomas de seguimiento no implicaron la participación de ningún operador de cámara humano. Tampoco cámaras robóticas ni drones. En su lugar, se generaron en tiempo real con un sistema de cámara basado en software desarrollado por la startup Muybridge, con sede en Oslo.
Fundada por Håkon Espeland y Anders Tomren en 2020, Muybridge ha dedicado casi cinco años al desarrollo de tecnología de visión artificial en tiempo real que utiliza software para crear una cámara “sin peso”, sin partes móviles, que captura la velocidad y el movimiento de los deportes en vivo de una forma a la que nuestros ojos no están acostumbrados. El próximo año, los espectadores de deportes televisados podrán ver muchas más de estas perspectivas reveladoras, tanto en el tenis como en otros ámbitos.

[Foto: cortesía de Muybridge]
Muybridge ha cambiado el paradigma, dos veces
“Cuatrocientos años de historia de la cámara llegan a su fin”, explica Espeland, junto a un retrato enmarcado en blanco y negro del pionero del cine Eadweard Muybridge, de quien la compañía es homónima, en la sede de la compañía en el moderno barrio de Grünerløkka de Oslo, durante la Semana de la Innovación de Oslo el otoño pasado.
“Veo mucha similitud [en lo que hacemos] con lo que él hacía con disparadores secuenciales para crear movimiento”, dice Espeland. Para crear sus revolucionarias imágenes de un caballo blanco al galope en la década de 1870, el fotógrafo angloamericano instaló una línea de cámaras que se activaban mediante un cable trampa cuando el caballo pasaba corriendo junto a ellas, creando múltiples imágenes que capturaban una fase diferente de la zancada del caballo. Al superponer las imágenes, creó una imagen que parecía moverse. “Es una forma de pensar similar”, dice Espeland. “¿Cómo se pueden distribuir sensores y utilizar esos datos de forma inteligente?”
Espeland tenía una larga trayectoria con los sistemas automatizados; comenzó a trabajar en ellos cuando tenía 16 años como aprendiz en plataformas petrolíferas y de gas en el Mar del Norte. Tras obtener una maestría en cibernética y robótica, se unió a una empresa noruega que fabricaba sistemas de cámaras robóticas para la producción televisiva en directo. Allí, tuvo una revelación. “Con la fotografía computacional, pudimos deshacernos de 300 kilos de metal y robots”, afirma. “Fue como eliminar la gravedad. No tenemos ninguna limitación física”.
En lugar de usar cámaras grandes y costosas que se mueven para “seguir” lo que sucede en la cancha o el campo deportivo, Muybridge coloca cientos de sensores de video pequeños y económicos por todas partes y utiliza software para crear tomas de seguimiento fluidas y crear cualquier ángulo según se necesite.

En la práctica, esto parece una serie de barras de altavoces extralargas repletas de una hilera de lentes de cámara de smartphone de gran tamaño. Estos conjuntos vienen en longitudes de dos metros y se pueden conectar para formar una sola cámara continua de prácticamente cualquier longitud. “Vamos a construir futuros estadios digitales de 360 grados”, afirma Espeland.
Y a diferencia de las cámaras tradicionales, que pueden obstruir la visión de los espectadores en eventos en vivo, las de Muybridge se fijan discretamente a cualquier pared o estructura, capturando la acción en la cancha, el campo o la pista de patinaje sin ser notadas. “Nuestro mayor problema en el Abierto de Estados Unidos fue que los entrenadores de los atletas se sentaron encima”, dice Espeland. “No se dieron cuenta de que era una cámara junto a los paneles publicitarios”.
Fabricados con componentes electrónicos básicos, los sensores son relativamente económicos. “Tenemos suerte de que la industria de la electrónica de consumo y la telefonía móvil consuman tantas cámaras”, dice Espeland. “Han reducido los costos. Hay una razón por la que ahora hay tres cámaras en un iPhone”. Los fabricantes de teléfonos móviles también han avanzado en la capacidad de la fotografía computacional, manteniendo los sensores prácticamente sin cambios y mejorando los algoritmos para crear mejores imágenes. “Nos estamos apoyando en eso”.
Para satisfacer las demandas de las retransmisiones en directo, Muybridge ofrece un enfoque actualizado para la reconstrucción de imágenes 3D. “El resto del mundo ha estado invirtiendo cada vez más recursos informáticos en el problema, ejecutando cálculos matemáticos en la capa de la GPU para intentar resolverlo”, explica Espeland. Eso ha dado lugar a algo mucho más rápido que hace 20 años, pero aún se pueden tardar ocho minutos en procesar las imágenes para una repetición. Nuestro enfoque siempre ha sido [hacerlo] en tiempo real, y queríamos que pudiera ejecutarse en una laptop, en la nube o en un teléfono móvil.
Ahí es donde entran en juego todas esas pequeñas cámaras. “Tenemos más pixeles, más ángulos, más superposición”, dice Espeland. “Eso nos permite un enfoque matemático más preciso para determinar el color exacto, la perspectiva y todo eso. Todo está respaldado por datos de píxeles; no hacemos ninguna aproximación”.

Encontrando el ángulo de la cámara
El tenis ha sido una plataforma de lanzamiento eficaz para la tecnología de la compañía. “Cuando bajamos [las cámaras] hasta los paneles publicitarios más bajos, las redes sociales explotaron”, dice Espeland. Los sistemas de Muybridge se implementaron el año pasado en el Abierto de Miami, el Abierto de Madrid y el Abierto de Estados Unidos. La compañía tiene una colaboración exclusiva con Sony, a través de su filial de deportes en vivo Hawk-Eye Innovations, para impulsar todos los torneos ATP Masters de 2026 (que comienzan el 4 de marzo con el BNP Paribas Open en Indian Wells, California). “Creo que puedo decir que estaremos presentes en casi todos los torneos de tenis de este año”.
Ahora la compañía se está enfocando en otros deportes. La clave está en encontrar perspectivas únicas donde la propuesta de valor de la tecnología se haga evidente, ofreciendo una perspectiva privilegiada que haga que el deporte sea mejor cuando se ve en casa que en el estadio.
Para el fútbol (Muybridge realizó recientemente una prueba que se emitió en directo con Sky Sports en Alemania), esto podría significar estar detrás de la portería e incluso en los postes. En el caso de la Nascar o la Fórmula 1, los productores podrían rodear toda la pista con sensores (aunque las primeras conversaciones se han centrado en capturar giros críticos y paradas en boxes). Para el béisbol, los espectadores podrían ver el campo desde el banquillo.
Para el hockey (Muybridge está trabajando actualmente con la NHL y Fox Sports), se podrían instalar cámaras en los paneles de control, a lo largo de los paneles publicitarios o en la explanada para crear un “dron virtual” que parezca sobrevolar la pista desde arriba.
Un aspecto crucial es que “no hay límite de velocidad” con Muybridge, afirma Espeland. “Puedes moverte instantáneamente a donde quieras, y nosotros creamos millones de imágenes intermedias, igual que nuestros ojos”.

[Foto: cortesía de Muybridge]
‘Muybridge al interior’
Para Muybridge, los deportes podrían ser solo el comienzo. La compañía participa actualmente en un programa piloto que instala sus cámaras en el techo y las paredes de las ambulancias, lo que permite a un médico de urgencias remoto con gafas de realidad virtual “moverse” virtualmente alrededor de un paciente para evaluarlo.
La seguridad y la vigilancia representan vías adicionales para la posible expansión de la realidad virtual, al igual que una versión en vivo del metaverso. “Las gafas de realidad virtual nunca despegaron porque siempre tenemos que visitar este mundo virtual”, dice Espeland. “Entramos en una habitación, tú eres un avatar, yo soy un avatar, pero queremos interactuar con personas reales”.
La transmisión de noticias y otras producciones de estudio en vivo son otro caso de uso en desarrollo. El programa matutino de la CBS realizó una prueba de la tecnología de Muybridge en su plató de Nueva York en diciembre de 2025.
De cara al futuro, dice Espeland, su filosofía es la de “Intel desde dentro”. “Tenemos la tecnología principal y buscamos socios que puedan representar el próximo producto estratégico y lanzarlo al mercado”.
![[Imagen impulsada por IA]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/22100015/unnamed-file-10.jpg)
![[Foto: Cityhostel/Pixabay]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/22090114/5-2.jpg)
![[Imagen:
onlyyouqj/Freepik]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/21145028/biohidrogeno-Fast-Company-Mexico-Freepik.jpg)