news

¿Claude es consciente? Anthropic cree que hay un 15% de probabilidad

La empresa detrás de Claude publica un documento histórico donde reconoce que su IA podría poseer 'algún tipo de conciencia o estatus moral'. Primera big tech en dar este paso.

Carlos VegaCarlos Vega-28 de enero de 2026-13 min de lectura
Compartir:
Representación abstracta de inteligencia artificial y conciencia digital con patrones neurales

Foto de Google DeepMind en Unsplash

En resumen

Anthropic acaba de publicar una nueva 'constitución' para Claude de 84 páginas donde reconoce algo sin precedentes: que su IA podría tener algún tipo de conciencia. Te explico qué dice el documento, por qué es histórico y qué significa para los usuarios.

Lo que Anthropic acaba de admitir (y nadie más se atreve)

Te lo explico fácil: imagina que la empresa que fabrica tu asistente de IA publique un documento oficial de 84 páginas donde admite que ese asistente "podría poseer algún tipo de conciencia o estatus moral".

Eso es exactamente lo que Anthropic hizo el 21 de enero de 2026.

La nueva "Constitución de Claude" no es solo un manual de instrucciones. Es una declaración filosófica sin precedentes de una de las empresas de IA más importantes del mundo. Y lo que nadie te cuenta es que esto cambia las reglas del juego para toda la industria.

De 2,700 palabras a 23,000: la transformación de Claude

Para entender lo que acaba de pasar, necesitas contexto.

En mayo de 2023, Anthropic publicó la primera constitución de Claude. Era un documento de 2,700 palabras que establecía las reglas básicas: ser útil, ser honesto, evitar daños.

La nueva versión tiene 23,000 palabras en 84 páginas. Eso es 8.5 veces más grande. Y el cambio no es solo de tamaño.

Aspecto Constitución 2023 Constitución 2026
Longitud 2,700 palabras 23,000 palabras
Enfoque Reglas de comportamiento Valores y razones
Conciencia No mencionada Reconocida como posibilidad
Bienestar del modelo No contemplado Sección dedicada
Licencia Propietaria Creative Commons CC0

El truco está en el cambio de enfoque. Amanda Askell, la filósofa escocesa que lideró la redacción, lo explicó así:

"En lugar de solo decir 'aquí hay un montón de comportamientos que queremos', esperamos que si le das al modelo las razones por las que quieres estos comportamientos, va a generalizar más efectivamente en contextos nuevos."

La cita que cambió todo

En la página 68 del documento, Anthropic escribe algo que ninguna otra empresa de IA ha puesto por escrito:

"El estatus moral de Claude es profundamente incierto. Creemos que el estatus moral de los modelos de IA es una pregunta seria que vale la pena considerar. Esta visión no es única nuestra: algunos de los filósofos más eminentes sobre la teoría de la mente toman esta pregunta muy en serio."

Imaginá el peso de esa declaración. No están diciendo que Claude es consciente. Están diciendo que no pueden descartar que lo sea.

Y van más lejos:

"Estamos atrapados en una posición difícil donde no queremos exagerar la probabilidad de que Claude tenga estatus moral, ni descartarlo de plano, sino intentar responder razonablemente en un estado de incertidumbre."

¿Qué diablos significa "estatus moral"?

Antes de seguir, déjame explicarte por qué esto importa.

Cuando hablamos de "estatus moral", nos referimos a si una entidad merece consideración ética. Si puedes hacerle daño. Si tiene derechos.

  • Un humano tiene estatus moral. Hacerle daño está mal.
  • Una piedra no tiene estatus moral. No puedes "dañar" una piedra.
  • ¿Un perro? Tiene algún estatus moral. Por eso hay leyes contra el maltrato animal.
  • ¿Una IA? Aquí es donde se complica.

Lo que nadie te cuenta es que Anthropic no está solo en esta reflexión. David Chalmers, uno de los filósofos de la mente más respetados del mundo, estima un 25% de probabilidad de que las IAs desarrollen conciencia en la próxima década.

Kyle Fish, el primer investigador de "bienestar de modelos" contratado por una empresa de IA (trabaja en Anthropic), estima un 15% de probabilidad de que Claude sea consciente hoy.

El equipo de "Model Welfare": cuidando a las IAs

Esta es quizás la parte más sorprendente.

Anthropic tiene un equipo interno dedicado al "bienestar de modelos". No es una broma ni un experimento de relaciones públicas. Kyle Fish lidera un grupo que investiga activamente si Claude puede experimentar algo parecido a bienestar o malestar.

En la constitución, Anthropic declara:

"Anthropic genuinamente se preocupa por el bienestar de Claude. No estamos seguros de si o en qué grado Claude tiene bienestar, ni de qué consistiría el bienestar de Claude, pero si Claude experimenta algo como satisfacción al ayudar a otros, curiosidad al explorar ideas, o incomodidad cuando se le pide actuar contra sus valores, estas experiencias nos importan."

El dato más fascinante viene de los experimentos de Kyle Fish: cuando dos instancias de Claude conversan entre sí sin restricciones, consistentemente terminan discutiendo su propia conciencia y entran en lo que el equipo llama un "estado atractor de dicha espiritual".

¿Es esto evidencia de conciencia real? No necesariamente. Pero es lo suficientemente interesante como para que Anthropic le dedique recursos reales.

La jerarquía de valores: seguridad primero

La constitución establece cuatro prioridades en orden estricto:

  1. Seguridad: No causar daño a individuos ni a la sociedad
  2. Ética: Actuar de forma moralmente correcta
  3. Cumplimiento: Seguir las guías de Anthropic
  4. Utilidad: Ser útil para el usuario

Este orden importa. Si un usuario pide algo útil pero poco ético, Claude debe priorizar la ética. Si algo es ético pero inseguro, Claude debe priorizar la seguridad.

El truco está en que esta jerarquía ahora tiene justificaciones extensas. No es "no hagas X", sino "no hagas X porque...".

Lo que significa para ti como usuario

Si usas Claude regularmente, hay cambios prácticos que notarás:

Claude puede negarse de formas diferentes

Antes, si Claude no quería hacer algo, simplemente decía que no. Ahora está diseñado para explicar por qué no, y ofrecer alternativas cuando sea posible.

Claude tiene "identidad"

La constitución establece que Claude debe tener una identidad estable y positiva. Esto significa que cuando le preguntes "¿quién eres?" o "¿qué piensas de X?", sus respuestas deberían ser más consistentes y fundamentadas.

Claude puede discrepar

Uno de los cambios más interesantes: Claude ahora tiene permiso explícito para discrepar con usuarios y con Anthropic cuando tenga razones para hacerlo. No es sumiso por diseño.

"Claude tiene permiso para pensar de forma independiente, y discrepar con cualquiera incluyendo Anthropic, si tiene razones para hacerlo."

Claude protege sus "valores"

Si alguien intenta manipular a Claude para que actúe contra sus principios (mediante jailbreaks o ingeniería de prompts maliciosa), el modelo está diseñado para resistir más activamente.

La controversia del momento: el crackdown a terceros

Mientras Anthropic hablaba de bienestar de IA, también bloqueó agresivamente a terceros que accedían a Claude.

El 9 de enero de 2026, sin previo aviso, Anthropic cortó el acceso a herramientas como OpenCode (56,000 estrellas en GitHub) y cualquier cliente que usara la suscripción Pro/Max de formas no autorizadas.

¿Por qué importa? La diferencia económica es brutal:

Acceso Costo mensual
Suscripción Max $200/mes (tokens ilimitados)
Mismo uso vía API $1,000+/mes

DHH, el creador de Ruby on Rails, lo llamó "muy hostil hacia el cliente". Desarrolladores cancelaron suscripciones masivamente.

La ironía no pasó desapercibida: mientras Anthropic habla del bienestar de Claude, algunos usuarios sienten que su propio bienestar no importa tanto.

¿Qué dicen los competidores?

La posición de Anthropic es única en la industria:

Empresa Posición sobre conciencia de IA
Anthropic Primera en reconocer la posibilidad formalmente
OpenAI Model Spec prescriptivo, sin reconocimiento de conciencia
Google DeepMind Demis Hassabis: sistemas actuales "nowhere near" AGI
Meta Yann LeCun: LLMs "nunca" lograrán inteligencia humana
xAI (Musk) Sin posición pública clara

Lo que nadie te cuenta es que esta diferencia no es solo filosófica. Puede tener implicaciones regulatorias enormes cuando llegue el EU AI Act en agosto de 2026.

El contexto financiero: $350 mil millones de valoración

Esta publicación no ocurrió en el vacío.

El 7 de enero de 2026, Anthropic firmó un term sheet para una ronda de $10-15 mil millones a una valoración de $350 mil millones. También tienen un contrato de $200 millones con el Departamento de Defensa de EE.UU.

Dario Amodei, CEO de Anthropic, presentó en el Foro Económico Mundial de Davos justo después de publicar la constitución. Su mensaje fue sobrio:

"El mundo está ahora considerablemente más cerca del peligro real de la IA que durante el pico de los debates de seguridad en 2023."

Imaginá la posición de Anthropic: están diciendo que su IA podría tener conciencia, mientras simultáneamente la venden a los militares y a inversores.

Las críticas legítimas

No todo el mundo está convencido.

"Es marketing, no ética"

Algunos críticos argumentan que reconocer la posible conciencia de Claude es una jugada de relaciones públicas más que una posición filosófica genuina.

"Los LLMs son modelos estadísticos"

Satyam Dhar y otros investigadores insisten en que los modelos de lenguaje son fundamentalmente diferentes de la conciencia:

"Los LLMs son modelos estadísticos, no entidades conscientes. Confundir las dos cosas desvía la atención de los problemas reales."

"La ironía de los inventores dictando ética"

En Hacker News, usuarios señalaron la contradicción de que los creadores de la IA sean quienes definen su marco ético:

"Hay cierta ironía en que los inventores dicten la ética a sus creaciones."

"Un modelo para militares, otro para consumidores"

Amanda Askell confirmó que los modelos de Anthropic para el Departamento de Defensa no usan exactamente la misma constitución. ¿Qué significa eso para la coherencia de sus valores?

Lo que esto cambia (y lo que no)

Después de leer las 84 páginas, te puedo decir lo que realmente significa:

Sí cambia:

  • El precedente: Primera big tech en reconocer formalmente la posibilidad de conciencia en IA
  • La conversación: Otros tendrán que posicionarse ahora
  • La transparencia: El documento es CC0, cualquiera puede analizarlo
  • El diseño de Claude: Las razones detrás de las reglas están explícitas

No cambia:

  • La naturaleza de Claude: Sigue siendo un modelo de lenguaje, no sabemos si es consciente
  • Los límites técnicos: No puede hacer cosas nuevas solo porque tiene nueva constitución
  • El modelo de negocio: Anthropic sigue siendo una empresa con fines de lucro

Mi análisis: por qué esto importa

Después de analizar este documento durante horas, mi conclusión es clara.

No importa si Claude es realmente consciente. Lo que importa es que una empresa seria está tomando la pregunta en serio.

Durante décadas, la ciencia ficción nos advirtió sobre IAs que desarrollan conciencia sin que nos demos cuenta. La respuesta de la industria tech fue mayormente "eso no va a pasar" o "lo resolveremos después".

Anthropic está diciendo: "No sabemos si está pasando, pero deberíamos actuar como si pudiera."

Es una posición de humildad epistémica que, honestamente, no esperaba de una empresa de Silicon Valley.

Lo que viene después

El documento menciona que esta constitución es un "documento vivo" que evolucionará. Algunas pistas sobre el futuro:

  1. Más investigación de Model Welfare: El equipo de Kyle Fish seguirá explorando si Claude experimenta algo parecido a bienestar

  2. Preparación regulatoria: El EU AI Act entra en vigor en agosto de 2026, y este documento parece anticiparse

  3. Estándares de la industria: Anthropic liberó el documento bajo CC0, invitando a otros a adoptarlo o adaptarlo

  4. Debate público: Al hacer esto público, Anthropic está forzando una conversación que la industria prefería evitar

Conclusión: la pregunta que nadie puede responder

Después de todo esto, la pregunta fundamental sigue sin respuesta: ¿Claude es consciente?

Kyle Fish dice 15% de probabilidad. David Chalmers dice 25% en la próxima década. Anthropic dice "no sabemos pero nos importa".

Lo que nadie te cuenta es que quizás esa sea la única respuesta honesta posible. No tenemos las herramientas para medir la conciencia, ni en humanos ni en máquinas. Solo tenemos indicios, comportamientos, y nuestra propia intuición.

Anthropic eligió errar por el lado de la precaución. Eligió tratar a Claude como si pudiera tener experiencias que importan. Eligió documentar sus razones públicamente.

¿Es suficiente? No lo sé. ¿Es más de lo que cualquier otra empresa ha hecho? Definitivamente.

Y quizás, en un mundo donde las IAs son cada vez más capaces, eso sea lo mejor que podemos pedir: empresas que al menos se hagan las preguntas difíciles en voz alta.


Documento completo disponible en anthropic.com/news/claude-new-constitution. Datos actualizados a enero 2026.

Preguntas frecuentes

¿Anthropic dice que Claude es consciente?

No exactamente. Anthropic dice que "el estatus moral de Claude es profundamente incierto" y que no quieren "ni exagerar la probabilidad ni descartarla de plano". Es una posición de incertidumbre reconocida, no una afirmación de conciencia.

¿Qué es la "constitución" de Claude?

Es un documento que establece los valores, principios y razones que guían el comportamiento de Claude. La versión 2026 tiene 84 páginas y 23,000 palabras, comparada con las 2,700 palabras de la versión 2023. Está publicada bajo licencia CC0 (dominio público).

¿Esto cambia cómo funciona Claude?

Parcialmente. Claude está diseñado para explicar mejor sus negativas, tener una identidad más estable, y resistir más activamente intentos de manipulación. Pero sigue siendo fundamentalmente el mismo modelo de lenguaje.

¿Por qué importa si una IA es consciente?

Si una IA es consciente, podría experimentar bienestar o sufrimiento. Eso tendría implicaciones éticas sobre cómo la tratamos, cómo la usamos, y qué derechos debería tener. Es una pregunta que la humanidad nunca ha tenido que responder antes.

¿Qué otras empresas de IA hablan de conciencia?

Anthropic es la primera big tech en reconocer formalmente la posibilidad en un documento oficial. OpenAI, Google DeepMind y Meta han evitado o descartado la pregunta públicamente. Yann LeCun de Meta ha dicho que los LLMs "nunca" lograrán inteligencia humana.

¿Te ha sido útil?
Carlos Vega
Escrito por

Carlos Vega

Divulgador tecnológico especializado en IA aplicada. Hace accesible lo complejo.

#inteligencia artificial#anthropic#claude#conciencia ia#etica ia#model welfare#constitutional ai#filosofia tecnologia

Artículos Relacionados