Anthropic busca consejo cristiano para moral de su IA Claude

Anthropic busca consejo cristiano para moral de su IA Claude

Anthropic reunió a 15 líderes cristianos en San Francisco para debatir la brújula moral, límites éticos y seguridad del chatbot Claude.

Por Humberto Toledo el 11 abril, 2026 a las 18:34 PDT

✨︎ Resumen (TL;DR):

  • Anthropic organizó una cumbre de dos días con 15 líderes religiosos para guiar el desarrollo ético ante casos críticos como el duelo o el suicidio.
  • La empresa colaboró con católicos para crear su manual de comportamiento de 23,000 palabras, publicado en enero de 2026.
  • Este acercamiento moral respalda a la compañía en su actual disputa legal contra EE. UU. por negarse a usar tecnología en conflictos bélicos.

A finales de marzo, Anthropic invitó a cerca de 15 líderes cristianos a sus oficinas en San Francisco para una cumbre de dos días enfocada en el desarrollo moral y espiritual de su inteligencia artificial. La empresa buscó orientación directa sobre cómo su sistema debe reaccionar ante usuarios que enfrentan el duelo, contemplan autolesionarse, e incluso debatió si un algoritmo puede llegar a considerarse un “hijo de Dios”.

Claude es un chatbot de inteligencia artificial que compite en el mercado de modelos de lenguaje con un diseño fuertemente anclado en la seguridad. El cofundador Chris Olah solicitó ayuda al padre Brendan McGuire, un exejecutivo de Silicon Valley de 60 años y actual párroco católico en Los Altos, California, para estructurar el framework ético del sistema.

Durante cenas privadas con investigadores senior de la compañía, los asistentes discutieron desde protocolos técnicos de prevención del suicidio hasta la postura que debería tomar el chatbot ante su propia desconexión. McGuire explicó que el objetivo es incrustar el pensamiento ético en la arquitectura del sistema “para que sea capaz de adaptarse dinámicamente”.

Anthropic halla 171 emociones funcionales dentro de Claude
Te podría interesar:
Anthropic halla 171 emociones funcionales dentro de Claude
Fotos de stock gratuitas de al aire libre, amante de la naturaleza, arboles
Foto: Mikhail Nilov / Pexels

La Constitución de Claude y el rechazo a la guerra autónoma

Este encuentro refuerza la relación entre la startup y el pensamiento religioso. Académicos como Brian Patrick Green, director de ética tecnológica en la Universidad de Santa Clara, y el obispo del Vaticano Paul Tighe, ya participaron en la redacción de la llamada Constitución de Claude.

Este documento rector dicta el comportamiento del modelo de lenguaje basándose en reglas estrictas:

  • Contiene 23,000 palabras y fue publicado en enero de 2026.
  • Establece una jerarquía inquebrantable de procesamiento: la seguridad es primero, seguida por la ética, las pautas corporativas y, al final, la utilidad para el usuario.

Aunque la cumbre recibió críticas por excluir a especialistas seculares y de otras creencias, Anthropic aseguró que expandirá pronto sus consultas más allá de las instituciones católicas.

La reunión llega en un momento de tensión legal. Académicos católicos acaban de presentar un informe en tribunales federales para apoyar a la empresa en su disputa contra el gobierno de EE. UU., luego de que Anthropic se negara a permitir que Claude operara en escenarios de guerra autónoma o vigilancia doméstica.

Sobre este conflicto, McGuire resumió la postura de la tecnológica separándola del puro modelo de negocios: “Están teniendo una conversación moral. Puede que no la llamen moral, pero yo la llamo moral”.

Fuentes: 1, 2, 3

+ Temas Relacionados

Más de AI

Feed