[Imágenes: Waymo y Pixabay]
El 23 de enero, frente a una escuela primaria en Santa Mónica, California, un vehículo de Waymo atropelló a un niño.
Eso es lo que sabemos con certeza.
Suena impactante, incluso aterrador. Y ya está dando pie a que muchos grupos exijan que California revoque la licencia de Waymo para operar sus vehículos.
Pero los detalles importan. Y una vez que se empieza a investigar un poco, el aterrador titular sobre un niño atropellado por un robot despiadado claramente no lo es todo.
De hecho, accidentes como este ofrecen una perspectiva para mejorar la conducción tanto humana como robótica, e incluso salvar vidas.
Frenada brusca
Los detalles del incidente en Santa Mónica aún se están revelando. Como ocurre con cualquier posible incidente de seguridad que involucre un vehículo autónomo, la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) está investigando activamente.
Esa investigación, así como una declaración voluntaria de Waymo, ya están revelando muchos matices.
Parece que el incidente ocurrió durante la hora de entrada a la escuela del sur de California. Un vehículo de Waymo parecía circular entre vehículos operados por padres que llevaban a sus hijos.
Como suele ocurrir durante las estresantes entregas escolares (¡tengo tres hijos, así que créanme, lo sé!), una gran camioneta se había estacionado en doble fila, bloqueando parte de la calzada.
Al acercarse el Waymo a la camioneta, que estaba estacionada en doble fila, un niño salió corriendo de detrás de la camioneta y se metió en la calzada, justo delante del Waymo.
El siguiente paso es crucial. Waymo afirma que su vehículo “…frenó bruscamente, reduciendo la velocidad de aproximadamente 27 km/h a menos de 9.6 km/h antes de hacer contacto”.
Waymo no especifica las distancias exactas. Pero reducir la velocidad a 17 km/h en una fracción de segundo representa un frenado brusco, no una desaceleración suave. Es una maniobra agresiva. Y bien podría haber salvado una vida.
Waymo afirma que, dado que su vehículo circulaba a solo 9.6 km/h cuando impactó al niño, “el peatón se levantó inmediatamente” y “caminó hacia la acera” por sí solo.
Waymo llamó al 911 y reportó el incidente a las autoridades. Inicialmente, la compañía indicó que el niño sufrió “lesiones leves”, pero no está claro qué lesiones, si las hubo, ocurrieron realmente.
El problema con las personas
Para ser claros, cada vez que un niño es atropellado por un auto, es un incidente horrible. Es bueno que la NHTSA esté investigando. Como padre, me compadezco de los padres involucrados: ver a su hijo ser golpeado por cualquier vehículo debe ser aterrador.
Pero antes de sacar conclusiones más generales sobre la seguridad de los autos autónomos, es importante considerar la pregunta: “¿Habría manejado mejor esta situación un conductor humano?”.
SafeKids, una organización de defensa de los derechos de los niños, informa que entre 2013 y 2022, casi 200 niños en edad escolar murieron en accidentes en zonas escolares.
Y eso es solo para niños. Apenas unos días antes del incidente de Waymo, dos padres murieron en un cruce peatonal tras dejar a sus hijos en otra escuela de California.
¿Por qué muere tanta gente camino a la escuela? La velocidad y la distracción son los dos factores más importantes.
SafeKids informa que hasta 10% de los conductores se distraen al conducir en zonas escolares, principalmente por el teléfono y otros dispositivos.
El 3% de los conductores observados por el grupo incluso fueron vistos usando dos dispositivos al mismo tiempo, quizás manipulando torpemente un auricular Bluetooth mientras intentaban registrar a su hijo en la escuela con su celular.
Y la mayoría de las zonas escolares, según el grupo, tienen límites de velocidad demasiado altos: menos de 32 km/h es lo ideal, pero la mayoría son de más de 40 km/h.
De todas formas, no es que los conductores los respeten; otros datos muestran que cuando atropellan a niños en zonas escolares, viajan a un promedio de 43 km/h.
En otras palabras, los conductores humanos cometen muchísimos errores. Especialmente con el estrés del tráfico y la presión de evitar el temido “retraso”, es muy fácil que los padres excedan la velocidad y desvíen la vista de la carretera al dejar a sus hijos.
Lamentablemente, cuando hay niños involucrados, con su propensión a salir disparados a la carretera, como ocurrió en Santa Mónica, esa combinación de velocidad y distracción resulta en muertes.
¿Peor con una persona?
De nuevo, esto plantea la pregunta, en el contexto del incidente de Waymo, de si una persona habría actuado mejor que un robot con inteligencia artificial.
Supongamos, por un momento, que una persona estuviera al volante del vehículo en Santa Mónica. ¿Qué podría haber sucedido de otra manera?
El tiempo de reacción humano promedio al conducir es de aproximadamente ¾ de segundo. Cuando el niño salió disparado a la carretera, eso significa que su auto, a 27 km/h, habría recorrido unos 5.8 metros antes de que el conductor percibiera la presencia de un peatón.
Quizás habría frenado de golpe. Pero la propia NHTSA afirma que la mayoría de la gente no lo hace. Ya sea por sorpresa o simplemente por un retraso en el procesamiento, los conductores frenan constantemente a baja velocidad, incluso en accidentes potencialmente mortales.
Con una persona al volante, es probable que el niño en Santa Mónica hubiera sido atropellado a una velocidad mucho mayor.
Waymo afirma que sus propios modelos independientes muestran que “un conductor humano completamente atento en esta misma situación habría hecho contacto con el peatón a aproximadamente 22.5 km/h”.
Y, de nuevo, la mayoría de los conductores en zonas escolares no están “completamente atentos”. Como señala SafeKids, están distraídos, con prisas y sobrepasan el límite de velocidad.
Los Waymo no son perfectos en absoluto. Pero respetan constantemente los límites de velocidad, a veces incluso excesivamente.
Y como están constantemente observando la carretera, reaccionan más rápido que las personas y frenan a fondo cuando ven algo, incluso remotamente, preocupante. Nunca revisan sus teléfonos ni intentan afeitarse mientras transportan pasajeros.
Cuando un robot de 2,000 kilos golpea a un niño, existe una tendencia humana natural a satanizarlo. Pero en este caso específico, la cuestión de si una persona podría haberlo hecho mejor no está nada clara.
Optimizar para la seguridad
Eso no significa que debamos crucificar a los vehículos autónomos, ni que debamos eximirlos de responsabilidad.
La investigación de la NHTSA probablemente se centrará no en si Waymo superó a un humano en este incidente, sino en si los vehículos autónomos podrían hacer más para mantener la seguridad de los niños cerca de las escuelas.
De hecho, la NHTSA afirma que está investigando específicamente “si el vehículo autónomo Waymo actuó con la debida precaución dada, entre otras cosas, su proximidad a la escuela primaria durante el horario de entrada y salida, y la presencia de peatones jóvenes y otros posibles usuarios vulnerables de la vía”.
Dado que los Waymo pueden programarse para comportarse de cierta manera en circunstancias específicas —y lo harán de forma consistente una vez que se establezcan los parámetros—, ofrecen una oportunidad única para establecer estándares de seguridad aún más altos que los que aplicamos a los humanos.
De nuevo, SafeKids afirma que la mayoría de las zonas escolares tienen límites de velocidad superiores al ideal de 32 km/h. Sin embargo, no hay razón para que Waymo no pudiera programar sus vehículos para circular constantemente a una velocidad menor en una zona escolar a la hora de recoger o dejar a los niños.
Quizás los Waymo podrían circular siempre a 24 km/h al atravesar una zona escolar activa.
Eso podría molestar muchísimo a los padres que se encuentran en la fila de recogida, pero mantendría a los niños más seguros en caso de accidente. Los Waymos cerca de las escuelas podrían incluso servir como dispositivos móviles para calmar el tráfico, obligando a los conductores humanos distraídos e impacientes que van detrás a reducir la velocidad también.
Asimismo, Waymo podría establecer parámetros que indiquen a sus vehículos que reduzcan la velocidad al mínimo al acercarse a un coche aparcado en doble fila cerca de una escuela. SafeKids señala específicamente el aparcamiento en doble fila como un importante factor de riesgo de accidentes cerca de las escuelas.
Afortunadamente, ya sea por la ingeniosa conducción de Waymo (según la propia compañía) o por pura suerte, este incidente terminó con un niño que salió con vida. Pero eso no es motivo para desestimar lo sucedido.
Más bien, incidentes como este ofrecen una oportunidad única para definir las normas sociales para circunstancias difíciles, como conducir cerca de niños, y luego programarlas en una máquina que (a diferencia de las personas) realmente las cumpla.
Plantear las preguntas difíciles necesarias para establecer esas directrices, y aceptar que los incidentes aterradores también son experiencias de aprendizaje, es mucho más difícil que simplemente culpar a los robots y volver al statu quo controlado por humanos.
Pero con la muerte de niños en zonas escolares cada año, aprender las lecciones correctas de accidentes como este es absolutamente crucial, incluso salva vidas.
![Fila superior, de izquierda a derecha: Les Wexner, Howard Lutnick, Sultan Ahmed bin Sulayem, Larry Summers, Bill Gates. Fila inferior, de izquierda a derecha: Kathryn Ruemmler, Kimbal Musk, Casey Wasserman, Steve Tisch, Leon Black. [Fotos: Getty Images]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/18124855/empresarios-archivos-Epstein-Fast-Company-Mexico-Cortesia.webp)
![[Imágenes: cortesía ASEM; Freepik]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/17224020/Radiografia-del-Emprendimiento-2025-edicion-migrantes-Fast-Company-Mexico-Cortesia.jpg)
![[Foto: kaboompics/Pexels]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/18134809/cotizar-mi-auto-para-vender-Fast-Company-Mexico-Pexels.jpg)