| Tech

La inteligencia artificial sigue siendo a la vez más y menos asombrosa de lo que creemos, y eso es un problema

De alguna manera, a la gente le cuesta reconocer que una tecnología puede ser al mismo tiempo increíble y defectuosa.

La inteligencia artificial sigue siendo a la vez más y menos asombrosa de lo que creemos, y eso es un problema [ilustración: S and V Design/Getty Images]

Una entrada de blog del 9 de febrero sobre inteligencia artificial, titulada “Algo Grande Está Pasando”, se propagó por internet esta semana de una forma que me recordó la época dorada de la blogosfera. Todo el mundo parecía hablar de ello, aunque, como solía ocurrir en aquellos tiempos, su viralidad se vio impulsada por una poderosa mezcla de admiración y desprecio. Las reacciones iban desde “Envíale esto a todos tus seres queridos” hasta “No me lo creo para nada”.

El autor, Matt Shumer (quien compartió su publicación en X al día siguiente), es el CEO de una startup llamada OthersideAI. Explicó que se dirigía a “mi familia, mis amigos, las personas que me importan y que no paran de preguntarme ‘¿Y qué pasa con la IA?’ y reciben una respuesta que no refleja lo que realmente está sucediendo”.

Según Shumer, el problema con la inteligencia artificial radica en que los modelos más recientes —en concreto, el Codex GPT-5.3 de OpenAI y el Claude Opus 4.6 de Anthropic— suponen mejoras radicales respecto a todo lo anterior. Y que la inteligencia artificial es de repente tan competente escribiendo código que toda la ingeniería de software ha entrado en una nueva era. Y que pronto la inteligencia artificial será mejor que los humanos en las tareas principales de una serie de otras profesiones: “Derecho, finanzas, medicina, contabilidad, consultoría, redacción, diseño, análisis, atención al cliente”.

Al final de la publicación, con una sensación de ahogo que me recordó a los fatalistas del efecto Y2K de 1999, Shumer aconseja a los lectores que ahorren, minimicen sus deudas y tal vez animen a sus hijos a convertirse en expertos en IA en lugar de centrarse en la universidad con la esperanza de que les lleve a una carrera sólida. Insinúa que cualquiera que no se adelante a la IA en los próximos seis meses podría estar abocado a la irrelevancia.

El artículo —que Shumer declaró al periodista neoyorquino Benjamin Hart haber escrito con la abundante ayuda de IA— no carece de argumentos. Algunas personas que ahora se muestran indiferentes ante la IA seguramente se sorprenderán por su impacto en el trabajo y la vida en los próximos años, por lo que apoyo plenamente la recomendación de Shumer de que todos conozcan mejor la tecnología dedicando una hora al día a experimentar con ella. Muchas personas inteligentes de Silicon Valley comparten la admiración de Shumer por el reciente y enorme avance de la IA en las habilidades de programación, sobre el que escribí la semana pasada. Preguntarse qué ocurrirá si se replica en otros campos es un ejercicio mental totalmente razonable.

Al final, sin embargo, Shumer habría tenido mucho más éxito si hubiera sido 70% menos exagerado. (Debo señalar que la última vez que apareció en las noticias fue por hacer afirmaciones sobre el rendimiento de referencia de un modelo de IA en el que participó, que resultaron ser falsas). Su publicación adolece de un defecto común en el debate sobre IA: está tan impresionado por la tecnología que se niega a reconocer las graves limitaciones que aún presenta.

Por ejemplo, Shumer sugiere que la alucinación (la IA que encadena secuencias de palabras que parecen reales pero no lo son) es un problema resuelto. Escribe que hace un par de años, ChatGPT “dijo con seguridad cosas sin sentido” y que “en la era de la IA, eso es historia antigua”.

Es cierto que los modelos más recientes no alucinan con la misma arrogancia que sus predecesores. Pero siguen inventando cosas. Y a diferencia de los modelos anteriores, sus alucinaciones tienden a parecer plausibles en lugar de ser manifiestamente ridículas, lo cual es un paso en la dirección equivocada.

El mismo día que leí el artículo de Shumer, charlé con Claude Opus 4.6 sobre cómics de periódico —un tema que suelo usar para evaluar la IA, ya que sé lo suficiente como para juzgar las respuestas sobre la marcha— y era terrible asociando a los dibujantes con las tiras en las que realmente trabajaban. Cuanto más hablábamos, menos preciso se volvía. Al menos destacaba en reconocer sus errores: cuando le señalé uno, me dijo: “Básicamente, tenía fragmentos de información real mezclados y presentados con falsa seguridad. Nada bien”.

Tras fallar en otra de mis consultas sobre cómics, Claude dijo: “La verdad es que me estoy metiendo en terreno inestable y estoy confundiendo algunos detalles”, y me pidió que le ayudara a encaminarlo en la dirección correcta. Es un atisbo intrigante de autoconciencia sobre su propia tendencia a fantasear, y de algún modo, a progresar. Pero hasta que la IA deje de fantasear, describirla como “más inteligente que la mayoría de los doctores”, como hace Shumer, es una tontería. (Sigo creyendo que la capacidad humana no es un gran referente para la IA, que ya es mejor que nosotros en algunas cosas y podría quedarse atrás permanentemente en otras).

Shumer también se adelanta a sí mismo en sus suposiciones sobre dónde podría estar la IA a corto plazo en cuanto a su capacidad para reemplazar competentemente el pensamiento y el trabajo humanos. Al escribir sobre el tipo de tareas laborales complejas que recomienda proponer a la IA como experimento, afirma: “Si funciona hoy, podemos estar casi seguros de que en seis meses lo hará casi a la perfección”. Esto parece extraordinariamente improbable, dado que todos los tipos de IA generativa han estado estancados en la era del “funcionamiento superficial” durante años. Una buena regla general: no creas que la inteligencia artificial podrá hacer algo bien hasta que realmente lo haga.

En definitiva, la lección que más recordaré de la publicación de Shumer no es nada de lo que escribió. Siguiendo el espíritu de la experimentación con IA, compartí su artículo con ChatGPT, Gemini y Claude con la pregunta: “Denme un análisis/crítica de este ensayo. Díganme si es demasiado cauteloso, si no lo es lo suficiente, cuál es su opinión sobre los temas tratados, etc.” Estaba preparado para que todos respondieran con algo simplista pero superficial, más un resumen con viñetas que otra cosa. ChatGPT y Gemini cumplieron con esas expectativas.

Sin embargo, la forma en que Claude abordó el tema —que surgió en segundos y que pueden leer completo aquí— me sorprendió. Discrepó con algunos de los mismos aspectos del artículo que me molestaron, pero también planteó otras debilidades que no había considerado. Me sentí más inteligente después de leerlo, lo cual sigue sin ser lo que espero de la prosa de inteligencia artificial.

Algunos fragmentos:

La programación es un ámbito excepcionalmente favorable para la IA: los resultados son verificables, los ciclos de retroalimentación son ajustados, los datos de entrenamiento son abundantes y el entorno es completamente digital. La abogacía, la medicina y la administración implican ambigüedad, contexto institucional, relaciones humanas, responsabilidad regulatoria y dinámicas adversarias cualitativamente diferentes. Reconoce esto brevemente y luego lo descarta.
….
Sí, mucha gente probó GPT-3.5 y descartó todo el campo. Eso es un problema real. Pero muchos usuarios actuales serios, incluyendo quienes pagan por los mejores modelos, aún encuentran limitaciones significativas: alucinación (reducida pero no eliminada), fragilidad en problemas novedosos, incapacidad para mantener un contexto coherente en proyectos realmente largos, mala calibración sobre su propia incertidumbre y dificultad con tareas que requieren una base real. Shumer considera todo escepticismo obsoleto, lo cual es intelectualmente deshonesto.
….
Tampoco considera seriamente la posibilidad de que los incentivos económicos no se desarrollen con la fluidez que sugiere la idea de que “la IA puede hacer el trabajo, por lo tanto, el trabajo desaparece”. La fricción en la adopción es real. Las preocupaciones sobre la responsabilidad son reales. La inercia organizacional es real. La historia de la tecnología sugiere que incluso las herramientas transformadoras tardan mucho más en reestructurar las industrias de lo que sugeriría el cronograma de capacidad pura. La electricidad tardó décadas en transformar la manufactura, incluso después de ser claramente superior al vapor.

….

Creo que la señal subyacente que Shumer señala es real. Las capacidades de la IA están mejorando más rápido de lo que la mayoría de las personas ajenas a la industria perciben, y la brecha entre la percepción pública y la realidad actual es realmente grande. Tiene razón en que la mayoría de la gente debería involucrarse con estas herramientas más seriamente de lo que lo hace.

Pero creo que el ensayo hace algo muy común en Silicon Valley: confundir la trayectoria potencial con la trayectoria inevitable y acortar los plazos basándose en las sensaciones y la extrapolación, en lugar de abordar seriamente las numerosas fricciones del mundo real que ralentizan la adopción. El artículo se lee como si hubiera sido escrito inmediatamente después de quedar impresionado por el lanzamiento de un nuevo modelo, y esos momentos tienden a generar un exceso de confianza en el ritmo.

En resumen: El mismo día que descubrí a Claude Opus 4.6 escribiendo algo sobre el artículo de Shumer que no solo era coherente sino también perspicaz, también se convirtió en un ataque alucinógeno. Así es la inteligencia artificial hoy en día: asombrosa y terrible a la vez. De alguna manera, para muchos observadores es difícil aceptar esa realidad. Pero cualquier análisis que la ignore corre el riesgo de juzgar erróneamente lo que vendrá después.

Author

  • Harry McCracken

    Harry McCracken es editor global de tecnología de Fast Company, con sede en San Francisco. Escribe sobre temas que abarcan desde dispositivos y servicios de gigantes tecnológicos hasta la economía de las empresas emergentes y cómo la inteligencia artificial y otros avances están cambiando la vida en el trabajo, el hogar y más allá.

    View all posts

Author

  • Harry McCracken

    Harry McCracken es editor global de tecnología de Fast Company, con sede en San Francisco. Escribe sobre temas que abarcan desde dispositivos y servicios de gigantes tecnológicos hasta la economía de las empresas emergentes y cómo la inteligencia artificial y otros avances están cambiando la vida en el trabajo, el hogar y más allá.

    View all posts

Sobre el autor

Harry McCracken es editor global de tecnología de Fast Company, con sede en San Francisco. Escribe sobre temas que abarcan desde dispositivos y servicios de gigantes tecnológicos hasta la economía de las empresas emergentes y cómo la inteligencia artificial y otros avances están cambiando la vida en el trabajo, el hogar y más allá.