Redacción El País
"¿Podrías decirme quién es David Mayer?", fue la consulta ingresada por quien escribe en la conversación con ChatGPT. La respuesta, sin embargo, fue una verdadera sorpresa: "Parece que no puedo navegar más en este momento. Inténtelo de nuevo más tarde", responde la inteligencia artificial generativa.
"Sin embargo, si puedes proporcionar más detalles sobre David Mayer, como su campo de trabajo o contexto, estaré encantado de ayudarte con la información disponible", agrega ChatGPT.
Esta respuesta tiene una explicación. Tal y como detalla el periodista Luis Miranda en el portal Hipertextual, OpenAI implementó medidas de seguridad en el chatbot que impiden responder a preguntas que incluyan un nombre específico.
En particular, al escribir "David Mayer" se genera un error que congela el chat y obliga al usuario a iniciar una nueva conversación.
ChatGPT refuses to say the name “David Mayer,” and no one knows why.
— Justine Moore (@venturetwins) November 30, 2024
If you try to get it to write the name, the chat immediately ends.
People have attempted all sorts of things - ciphers, riddles, tricks - and nothing works. pic.twitter.com/om6lJdMSTp
Según especialistas, se trata de "barandillas" en los modelos de lenguaje para evitar comportamientos no deseados. "Estos mecanismos están presentes para combatir contenido que va en contra de las políticas de uso, como las actividades ilegales o el discurso de odio", detalla Miranda.
¿Quién es Jonathan Turley?
Según algunos usuarios, se trata de "un bug de programación" que impide procesar ciertas combinaciones de palabras. Otros afirman que es un filtro de contenido que bloquea ciertas palabras.
Pero David Mayer no es el único nombre "prohibido" por ChatGPT. Al consultar a la plataforma por "Jonathan Turley", directamente responde "No estoy habilitado para dar una respuesta".
Lo mismo sucede con otros casos, como Jonathan Zittrain, David Faber y Guido Scorza.