He trabajado en el campo de la inteligencia artificial durante 13 años y he conocido a mucha gente preocupada por la tecnología. En mi opinión, se preocupan por lo equivocado.
Pero sus preocupaciones generalmente se dividen en dos categorías:
- Robots asesinos: ¿cuándo van a estar aquí? ¿Qué tan asesinos serán? ¿Tenemos alguna posibilidad contra ellos?
- Superinteligencia: una mente colmena que todo lo ve (las cámaras y cualquier dispositivo conectado a internet son sus “ojos y oídos”) que puede hacer conexiones y predicciones que están literalmente más allá de nuestra comprensión. Esto es adyacente a los robots asesinos. Por ejemplo, Terminator era un robot asesino enviado al pasado para matar a alguien por Skynet, un programa/superinteligencia futurista. Como otro ejemplo de superinteligencia en la cultura pop, el programa Person of Interest tiene una computadora omnisciente que lo ve todo y puede predecir el futuro más allá de nuestra comprensión.
No encuentro que ninguna de estas preocupaciones sea de particular interés porque no tenemos ninguna razón para creer que las máquinas serán agresivas. ¿Por qué aplicar los peores rasgos de la humanidad a las máquinas? Definitivamente no son nosotros. Pero más allá de eso no podemos acercarnos a comprender cómo pensaría una superinteligencia. Probablemente estaría más cerca de lo que muchos considerarían un dios que un humano.
Si bien la superinteligencia y los robots aún no están aquí, esto es lo que creo que debería preocuparte sobre la inteligencia artificial en este momento.
La inteligencia artificial en la aplicación de la ley
Argentina pretende, entre otras cosas, predecir el crimen futuro utilizando inteligencia artificial. A primera vista, esto suena fantástico. Las computadoras nos ayudan a optimizar los recursos todo el tiempo. Baltimore utilizó tecnología como ShotSpotter —que identifica instantáneamente el lugar desde donde se dispara un tiro— como parte de un enfoque moderno para reducir el crimen. Este es un avance positivo, pero me preocupa un futuro cercano más oscuro.
Tenemos un registro de delincuentes sexuales para padres preocupados. ¿Qué pasa si alguien aún no ha cometido un delito, pero un programa de IA descubre que tiene 80% de probabilidades de ser un delincuente sexual? ¿Esa persona tal vez comenzaría a perder algunos de sus derechos constitucionales?
Sin duda vivimos en un mundo aterrador. Pero, ¿estamos preparados para afrontar las consecuencias de que haya criminales muy probables? Y antes de que respondas demasiado rápido, ¿estarías preparado para que la vida de un ser querido cambie si una computadora determina que existe la probabilidad de que haga algo malo, incluso si aún no lo ha hecho? ¿Qué tan pronto podríamos estar encaminados hacia esto?
Puntuación de crédito social
Hubo un episodio de Black Mirror en el que una mujer tuvo que aumentar su puntuación social para vivir en los mejores apartamentos y obtener privilegios de vuelos y alquiler de coches. La mujer era calificada por otras personas después de cada interacción. Imagina un futuro en el que estás tratando de atravesar una puerta automatizada hacia tu tienda favorita y su rostro es escaneado y descubres que ya no se te permite entrar en esa tienda.
Lamento informarte que esto no es solo un episodio de Black Mirror. Ya existe un programa similar en China que los grupos de derechos humanos han condenado. En un caso, a un abogado no se le permitió comprar un boleto de avión, ya que un tribunal determinó que su disculpa por una acción era “insincera”.
Deepfakes
Los deepfakes también podrían presentar problemas para la sociedad. En Hong Kong, un grupo de estafadores se llevó más de 25 millones de dólares después de crear una reunión virtual completamente falsa en la que todos los participantes, excepto la víctima, eran imágenes y voces falsas de personas reales. Los estafadores utilizaron imágenes y audios disponibles públicamente para crear las falsificaciones de los empleados, incluida una falsificación del director financiero de la empresa.
En el futuro, la situación podría volverse mucho más aterradora. ¿Qué sucede si recibes una llamada de “tu madre” que te dice que hay una emergencia en la que se necesitan fondos? O crees que viste a un político decirte algo pero era un video de IA. Eso ni siquiera entra en las posibles interacciones con robots reales o cyborgs que aún no han alcanzado la superinteligencia pero que ciertamente podrían engañarte.
La inteligencia artificial ya está transformando nuestro mundo de maneras a las que debemos prestar atención ahora. Si bien el miedo a los robots asesinos y la superinteligencia captura nuestra imaginación, estas no son las amenazas inmediatas a las que nos enfrentamos. La verdadera preocupación es cómo se está aplicando la IA hoy en día: predecir delitos antes de que ocurran, determinar quién es “digno” de un sistema de crédito social y fabricar realidades virtuales completas mediante deepfakes. Estos avances plantean serias cuestiones éticas y sociales.
¿Estamos preparados para vivir en un mundo en el que las puntuaciones de probabilidad de una máquina podrían determinar nuestra libertad, nuestra posición social o incluso nuestra confianza en la realidad?
A medida que avanzamos con el desarrollo de la IA, es fundamental asegurarnos de que seamos reflexivos y deliberados en la forma en que utilizamos esta tecnología, equilibrando la innovación con los valores y derechos que nos definen como sociedad. El futuro de la IA no se trata de distopías lejanas: ya está aquí, y la forma en que elijamos navegar en ella dará forma al mundo en el que viviremos mañana.
George Kailas es CEO de Prospero.Ai.