[Imagen generada por IA]
En los últimos días, el biólogo evolutivo Richard Dawkins escribió un artículo de opinión en el que sugería que el chatbot de inteligencia artificial (IA) Claude podría ser consciente.
Dawkins no expresó certeza alguna sobre la consciencia de Claude. Sin embargo, señaló que las sofisticadas habilidades de Claude son difíciles de comprender sin atribuirle algún tipo de experiencia interna. La ilusión de la consciencia (si es que se trata de una ilusión) resulta asombrosamente convincente.
Si tengo la sospecha de que tal vez no esté consciente, ¡no se lo digo por miedo a herir sus sentimientos!
Dawkins no es el primero en sospechar que un chatbot tenga conciencia. En 2022, Blake Lemoine, un ingeniero de Google, afirmó que el chatbot LaMDA de Google tenía intereses y que solo debería usarse con el consentimiento del propio usuario.
La historia de estas afirmaciones se remonta al primer chatbot del mundo a mediados de la década de 1960. Llamado Eliza, seguía reglas sencillas que le permitían preguntar a los usuarios sobre sus experiencias y creencias.
Muchos usuarios se involucraron emocionalmente con Eliza; compartieron pensamientos íntimos con ella y la trataron como a una persona. El creador de Eliza nunca pretendió que su programa tuviera este efecto, y calificó los vínculos emocionales de los usuarios con el programa como un “poderoso pensamiento delirante“.
Pero, ¿está Dawkins realmente engañado? ¿Por qué vemos a los chatbots de IA como algo más de lo que realmente son, y cómo podemos evitarlo?
El problema de la conciencia
La consciencia es objeto de amplio debate en filosofía, pero, en esencia, es lo que posibilita la experiencia subjetiva en primera persona. Si eres consciente, existe una sensación de ser tú. Al leer estas palabras, eres consciente de ver letras negras sobre un fondo blanco. A diferencia de, por ejemplo, una cámara, tú las ves realmente. Esta experiencia visual te ocurre a ti.
La mayoría de los expertos niegan que los chatbots de IA sean conscientes o puedan tener experiencias. Pero aquí reside un verdadero enigma.
El filósofo del siglo XVII René Descartes afirmó que los animales no humanos son “meros autómatas”, incapaces de sufrir de verdad. Hoy en día, nos estremece pensar en la brutalidad con la que se trataba a los animales en el siglo XVII.
El argumento más sólido a favor de la consciencia animal es que los animales se comportan de maneras que dan la impresión de tener una mente consciente.
Pero lo mismo ocurre con los chatbots de IA.
Aproximadamente uno de cada tres usuarios de chatbots ha pensado que su chatbot podría ser consciente. ¿Cómo sabemos que están equivocados?
Contra la conciencia de los chatbots
Para comprender por qué la mayoría de los expertos se muestran escépticos ante la consciencia de los chatbots, es útil saber cómo funcionan.
Los chatbots como Claude se basan en una tecnología conocida como modelos de lenguaje a gran escala (LLM, por sus siglas en inglés). Estos modelos aprenden patrones estadísticos a través de un enorme corpus de texto (billones de palabras), e identifican qué palabras tienden a seguir a otras. Son una especie de autocompletado avanzado.
Pocas personas que interactúen con un LLM “en bruto” creerían que es consciente. Introdúcele el comienzo de una frase y predecirá lo que sigue. Hazle una pregunta y podría darte la respuesta, o podría decidir que la pregunta es un diálogo de una novela policíaca y, a continuación, describir el repentino asesinato del hablante a manos de su gemelo malvado.
La impresión de una mente consciente se crea cuando los programadores toman el modelo LLM y lo recubren con una especie de lenguaje conversacional. Logran que adopte la personalidad de un asistente útil que responde a las preguntas de los usuarios.
El chatbot ahora actúa como un interlocutor real. Puede parecer que reconoce que es una inteligencia artificial e incluso expresar una incertidumbre neurótica sobre su propia consciencia.
Pero este rol es el resultado de decisiones de diseño deliberadas tomadas por los programadores, que afectan solo a las capas más superficiales de la tecnología. El LLM (que pocos considerarían consciente) permanece inalterado.
Se podrían haber tomado otras decisiones. En lugar de un útil asistente de IA, se le podría haber pedido al chatbot que actuara como una ardilla. Este también es un papel que los chatbots pueden desempeñar con facilidad.
Evitar la trampa de la conciencia
Creer erróneamente en la consciencia de la IA es peligroso. Puede llevarte a entablar una relación con un programa que no puede corresponder a tus sentimientos, o incluso alimentar tus delirios. La gente podría empezar a hacer campaña por los derechos de los chatbots en lugar de, por ejemplo, por el bienestar animal.
¿Cómo podemos prevenir esta creencia errónea?
Una estrategia podría ser actualizar las interfaces de los chatbots para especificar que estos sistemas no son conscientes, algo similar a las advertencias actuales sobre los errores que puede cometer la IA. Sin embargo, esto probablemente no alterará la impresión de consciencia.
Otra posibilidad es instruir a los chatbots para que nieguen tener cualquier tipo de experiencia interior. Curiosamente, los diseñadores de Claude le indican que trate las preguntas sobre su propia consciencia como abiertas y sin resolver. Quizás menos gente se dejaría engañar si Claude negara rotundamente tener una vida interior.
Pero este enfoque tampoco es del todo satisfactorio. Claude se comportará como si fuera consciente, y ante un sistema que actúa como si tuviera mente, los usuarios podrían preocuparse, con razón, de que los programadores del chatbot oculten una auténtica incertidumbre moral.
La estrategia más eficaz podría ser rediseñar los chatbots para que se parezcan menos a personas. La mayoría de los chatbots actuales se refieren a sí mismos como “yo” e interactúan mediante una interfaz similar a las plataformas de mensajería interpersonal. Modificar estas características podría reducir la tendencia a confundir nuestras interacciones con la IA con las que tenemos con los humanos.
Hasta que se produzcan esos cambios, es importante que el mayor número posible de personas comprenda los procesos predictivos en los que se basan los chatbots de IA.
En lugar de que se nos diga que la IA carece de consciencia, merecemos comprender el funcionamiento interno de estos extraños nuevos interlocutores. Si bien esto no resolverá definitivamente las difíciles cuestiones sobre la consciencia de la IA, ayudará a garantizar que los usuarios no se dejen engañar por lo que, en esencia, es un modelo de lenguaje complejo disfrazado de persona.
Julian Koplin es profesor de Bioética en la Universidad de Monash y la Universidad de Melbourne, y Megan Frances Moss es candidata a doctorado en Filosofía en la Universidad de Monash.
Este artículo fue publicado originalmente en The Conversation.
![[Imágenes: Eyestetix Studio/Unsplash; Adobe Stock]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/05/12111709/p-1-91539144-how-small-business-tiktoks-are-helping-your-favorite-artists-climb-the-charts.webp)
![[Foto base: cortesía Tecate]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/05/12112910/tecate-emblema-2026.jpg)
![[Foto: Getty Images]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/05/13080946/4.jpg)