A captivating image of an open book under a dramatic spotlight, symbolizing knowledge.

El CEO de OpenAI explica cómo se define el marco ético de ChatGPT, el peso de la responsabilidad y el debate global sobre libertad, leyes y decisiones morales en la IA

La expansión acelerada de la inteligencia artificial ha abierto un debate profundo y complejo: ¿qué valores debe reflejar una tecnología que hoy interactúa con cientos de millones de personas en todo el mundo? ¿Puede una IA ser neutral desde el punto de vista moral o, inevitablemente, termina reproduciendo una visión ética concreta? Estas preguntas vuelven al centro de la conversación a partir de las recientes declaraciones de Sam Altman, CEO de OpenAI, quien abordó sin rodeos el desafío de definir el marco moral que guía el comportamiento de ChatGPT.

En una entrevista en The Tucker Carlson Show, Altman reconoció que una de las mayores sorpresas del desarrollo del modelo ha sido su capacidad para aprender y aplicar principios morales, aun cuando estos no son universales ni están exentos de controversia. Según explicó, las respuestas de ChatGPT no emergen de una única visión ideológica, sino de un proceso que incluye consultas con cientos de expertos, entre ellos filósofos morales y especialistas en ética tecnológica. Sin embargo, dejó claro que la responsabilidad final recae directamente sobre OpenAI y, en última instancia, sobre él mismo.

Altman admite que el peso de esta tarea no es menor. Afirma que desde el lanzamiento de ChatGPT no ha vuelto a dormir tranquilo, consciente de que incluso las decisiones aparentemente pequeñas sobre el comportamiento del modelo pueden tener un impacto masivo. El dilema se vuelve aún más agudo cuando la libertad del usuario entra en conflicto con el interés social, como ocurre en escenarios extremos por ejemplo, la posibilidad de que una IA explique cómo desarrollar armas biológicas donde establecer límites resulta necesario, aunque no siempre evidente.

Más allá de los casos más claros, el verdadero reto, según Altman, aparece en las zonas grises: aquellas situaciones en las que no existe un consenso moral universal. En ese contexto, OpenAI busca que ChatGPT no imponga una visión propia, sino que refleje, de forma equilibrada, las leyes y preferencias morales de las sociedades en las que se utiliza. La IA, sostiene, no debe decidir por las personas, pero sí influye en ellas, lo que convierte su diseño ético en un arma de doble filo.

Este debate se amplía con las reflexiones de expertos como Mo Gawdat, exdirectivo de Google y autor de La inteligencia que asusta, quien compara el entrenamiento de la IA con la educación de un niño. Para Gawdat, la forma en que se enseña, corrige y “descarta” a los modelos menos eficientes dice mucho sobre los valores humanos que estamos transfiriendo a estas tecnologías. En última instancia, la pregunta no es solo qué moral tendrá la inteligencia artificial, sino qué tipo de humanidad estamos reflejando en ella.