En comparación con otros gigantes tecnológicos, el enfoque de Apple en materia de IA generativa es sorprendentemente mesurado. Su nuevo Apple Intelligence se equivoca al eludir funciones que podrían salir mal o ser mal utilizadas: Image Playground, por ejemplo, solo produce gráficos alegremente sintéticos al estilo Pixar, nada que pueda confundirse con una fotografía.
Pero incluso Apple no puede hacer mucho para frenar la tendencia de la IA generativa a descontrolarse. Otra característica de Apple Intelligence utiliza la tecnología para resumir las notificaciones. El mes pasado, en el resumen de un artículo de la BBC sobre Luigi Mangione, acusado de haber asesinado al CEO de United Healthcare, Brian Thompson, se afirmaba erróneamente que Mangione se había suicidado. Es comprensible que la BBC no estuviera contenta. En reacción tanto a ese resumen falso como a uno anterior que afirmaba erróneamente que el primer ministro israelí, Benjamin Netanyahu, había sido arrestado, un grupo de periodistas dijo que Apple debería simplemente deshacerse de los resúmenes de notificaciones, punto.
Resulta distópico que una nueva función de inteligencia artificial (de Apple, entre todas las empresas) haya difundido información errónea sobre algunas de las noticias más vistas del mundo. Y eso sin tener en cuenta que los resúmenes de Apple Intelligence, incluso cuando son precisos, suelen parecer escritos por un extraterrestre apenas familiarizado con las costumbres de los seres humanos.
Dado que están condensando elementos que, en principio, solían ser bastante concisos, no está claro que los resúmenes sean algo positivo para los usuarios de las plataformas de Apple. No me imagino que la empresa vaya a eliminar la función, pero tal vez debería haber postergado su lanzamiento hasta que funcionara mejor.
El problema ‘inestable’ de la IA generativa
En todo el sector tecnológico, la carrera por implementar la inteligencia artificial ha llevado a las empresas a ofrecer funciones que saben que son rudimentarias y erráticas, no porque tengan errores en el sentido tradicional, sino porque la imprevisibilidad es parte integrante del sistema. Para una industria que está acostumbrada a trabajar con unos y ceros (lo que hace que el control de calidad sea literalmente binario), eso es un cambio radical.
Hace 30 años, el procesador Pentium de Intel resultó tener un fallo que podía provocar que dividiera números de forma incorrecta. Las probabilidades de que el defecto afectara a cualquier cálculo eran aparentemente de una entre 9,000 millones, lo que inicialmente llevó a Intel a restarle importancia al fallo. Después de que el fabricante de chips se dio cuenta de que su despreocupación era una mala imagen, se disculpó y gastó millones para proporcionar Pentium depurados a los propietarios de PC que los solicitaron.
Con la IA de hoy, la inestabilidad es tan central para la experiencia que algunas de mis conversaciones con Claude de Anthropic están dominadas por sus reconocimientos conscientes de sus limitaciones. En respuesta a una consulta reciente, explicó amablemente: “Debo señalar que, si bien trato de ser preciso, puedo alucinar detalles al responder preguntas sobre temas muy oscuros como este”. Eso es mejor que las personalidades maniáticamente confiadas de otros chatbots, pero sigue siendo un recurso provisional, no una solución.
Es cierto que las versiones actuales de Claude, ChatGPT y sus rivales son menos propensas a equivocarse de forma ridícula que sus predecesoras, pero siguen siendo muy buenas a la hora de entretejer imprecisiones que parecen plausibles en material en su mayor parte verdadero. Los gráficos por computadora se enfrentaron durante mucho tiempo al problema del “valle inquietante”, en el que las personas animadas realistas que eran convincentes en 90% tendían a dejar a los espectadores fijados en el 10% que era imperfecto, como los ojos que carecían de un brillo convincentemente humano.
Con la IA, en cambio, existe otro tipo de valle inquietante: el porcentaje de material que genera que es defectuoso, pero no tan obvio. Es un problema más pernicioso que las alucinaciones que son fáciles de detectar, y no va a desaparecer en un futuro próximo.
Esto no significa que la IA generativa no se haya hecho más eficiente
Ahora bien, soy consciente de que a menudo utilizo este boletín para quejarme de las imperfecciones de la IA. Juro que no soy un ludita. Soy totalmente capaz de deslumbrarme con las características que incorpora la IA, y no creo que necesiten alcanzar la perfección para ser extraordinariamente útiles. Por ejemplo, el boletín de esta semana implementa un ajuste de formato que no pude descifrar por mi cuenta. Claude se encargó de la mayor parte del trabajo de codificación con solo instrucciones generales de mi parte. Incluso teniendo en cuenta el tiempo que me llevó terminar el trabajo, me pareció un milagro. (Anteriormente había probado ChatGPT y encontré que sus consejos no funcionaban).
Por más tentador que sea dar una cantidad infinita de margen a algo tan asombroso como la IA generativa, los mejores avances informáticos no requieren ninguna dispensa especial. Arthur C. Clarke dijo célebremente que cualquier tecnología suficientemente desarrollada es indistinguible de la magia. Con el debido respeto, puede que sea cierto lo contrario: sabemos que una nueva tecnología está suficientemente desarrollada cuando es tan confiable que la consideramos mundana, no mágica. ¿Cuándo fue la última vez que te sentiste asombrado por internet? ¿O la electricidad o los viajes aéreos?
Si 2025 es el año en que la IA generativa deje de ser una novedad, esto podría obligar a las empresas tecnológicas a aplicarle los mismos estándares que a todas las tecnologías más antiguas y conocidas que tienen a su disposición. Esa madurez no puede llegar lo suficientemente pronto y, a su manera poco glamorosa, sería un gran avance.