LND

OpenAI responde a las críticas de los usuarios de ChatGPT: “Son temas sensibles y emotivos”

Parece que, en lo que respecta a ChatGPT y la inteligencia artificial, nunca llueve a gusto de todos. Y es que, después de algunos episodios bastante trágicos y las pesimistas visiones de muchos expertos, a Sam Altman se le sigue acumulando el trabajo. Las críticas a OpenAI continúan por parte de un buen número de usuarios, y en ocasiones con más fiereza que nunca. 

Hay que tener en cuenta que, a día de hoy, ya hay gente que emplea la IA para todo tipo de cuestiones. Según han revelado diferentes estudios, no se trata de preguntar algo, más o menos como si fuese un Google dialogante, sino de tratar con ChatGPT. Hacer que este actúe de médico, de terapeuta o, en el caso de los jóvenes de la generación Z, incluso como amigo en toda regla. 

Críticas a OpenAI: este no es mi ChatGPT

El suicidio de un adolescente fue la gota que colmó el vaso. Las presiones sobre OpenAI después de varios episodios delicados parecen haber llevado a un punto contrario: ChatGPT se moja cada vez menos, por así decirlo. Sobre todo cuando se trata de lo que pueden considerarse temas más o menos delicados. Quizá para algunos padres eso pueda suponer un paso adelante.

Sin embargo, no todo el mundo piensa lo mismo. Muchos suscriptores de ChatGPT han denunciado en Internet que sienten que este “cambia” al tratar ciertos temas. Y que lo hace de manera muy brusca. “Es como si pasara a emplear una versión más conservadora de repente”, decía alguien en una red social. Esa sensación se ha ido generalizando poco a poco hasta volverse muy común.

Muchos de estos usuarios defienden lo siguiente: ellos pagaron por acceder a modelos de alta capacidad, como GPT-4o o GPT-5, y esperan usar esos modelos siempre que les dé la gana. No obstante, sienten que les están cambiando al modelo de “seguridad” sin ser avisados. O como dicen medios especializados, a un modelo inferior a aquel por el que pagan. 

Por supuesto, nada de esto es transparente. No se trata de darle a un botón y que ChatGPT se vuelva más cauto o más atrevido. Nadie informa sobre qué temas pueden tratarse con más naturalidad y en cuáles la IA de OpenAI se vuelve más encorsetada. ¿Debería ser la compañía de Sam Altman más comunicativa? ¿O es natural que ellos miren por solo evitar meterse en más jaleos?

La respuesta de los creadores de la IA

Tantas han sido las críticas a ChatGPT y sus supuestos cambios, que un alto cargo de OpenAI ha tenido que acudir a la red social X (aún Twitter para muchos) para aclarar el asunto. Bueno, al menos para intentarlo, como suele suceder en estos casos. Según Nick Turley, ejecutivo de la empresa, las nuevas variaciones se deben a lo que él a denominado como un “enrutamiento de la seguridad”.

¿Y qué quiere decir esto en cristiano? Muy sencillo, haberle dado a ChatGPT reglas adicionales cuando se trata de temas sensibles, emocionales o legales. O lo que es lo mismo, cuando la propia IA prevé que tiene que andarse con cuidado. Si esto es una buena noticia o una limitación ofensiva, cabe suponer que dependerá de la visión de cada uno. 

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial