ALGORITMO

¿Por qué algunos especialistas dicen que no es una buena idea contarle al ChatGPT lo que estamos pensando?

Contarle cuestiones privadas a esta herramienta presenta algunos problemas.

Compartir esta noticia
La herramienta de Inteligencia Artificial ChatGPT revolucionó el sector
La herramienta de Inteligencia Artificial ChatGPT revolucionó el sector<br/>

Por Ana Laura Pérez

Desde que un día millones de personas nos levantamos una mañana y descubrimos que existía una herramienta gratuita, de fácil acceso y uso llamada ChatGPT muchas cosas parecen haber cambiado. Tal vez muchas no hayan cambiado para nada, pero muchos percibieron en ese momento que algo transformador se había gestado. La verdad es que la realidad es bastante más compleja que eso, pero también es cierto que para muchos ese acceso tan simple fue la puerta para entender el impacto que ya tenía la inteligencia artificial en su día a día.

A partir de ese momento, millones de personas comenzaron a ejercitar, en decenas de idiomas diferentes, conversaciones con un modelo que respondía sus preguntas y comentarios en base a datos extraídos de miles de fuentes a lo largo y ancho de internet.

Muchos ya usaban Google para por ejemplo consultar sobre cuestiones de salud (preguntando por dolores específicos, síntomas diversos y haciendo consultas que luego llevaban al consultorio para alegría de su doctor). Por eso se tornó inevitable que el ChatGPT se transformara en una herramienta a la que trasladar esos miedos, preguntas e inseguridades. El problema es que en una conversación así muchas veces ignoramos las fuentes de las que provienen las respuestas que nos dan.

“Los consumidores deberían usar estas herramientas con escepticismo dado que por lo menos están influidas por fuerzas como la publicidad y el márketing”, asegura el director ejecutivo del grupo de derechos digitales Center for Digital Democracy, Jeffrey Chester en un artículo publicado semanas atrás en The Washington Post.

Según los expertos consultados para ese y otros artículos, contarle cuestiones privadas a una herramienta como esta presenta algunos problemas. El primero es que los bots de inteligencia artificial guardan las conversaciones que mantienen con sus usuarios. Y la que sigue a esa: ¿Para qué usan lo que guardan?

Las compañías que desarrollan herramientas de charla basadas en inteligencia artificial y lenguaje natural usan las preguntas de los usuarios y las respuestas para entrenar esos modelos para que sean capaces de dar mejores respuestas. Pero esa no es la única forma en la que usan esa información. Google y Microsoft, que lanzaron una versión conjunta de un buscador con inteligencia artificial en febrero para Bing, usan esas conversaciones para setear los avisos que vemos cuando navegamos en miles de sitios. Eso implica que si uno le pregunta a su chat preocupado por síntomas de ansiedad, es probable que vea luego publicidad de atención psicológica o incluso de medicamentos.

Otra pregunta que puede surgirle al lector de estas líneas es si además de sistemas de inteligencia artificial, hay humanos que leen lo que conversamos con estas herramientas. Y la respuesta es que en algunos casos sí. Se supone que los revisores humanos no ven las cuentas o identidades de quienes escriben y solo pueden leer los mensajes pero como ha pasado en otras ocasiones esos límites no siempre se respetan en las plataformas.

Y, ¿cuánto tiempo pueden guardar esa información? La respuesta es relativa. Muchos de los acuerdos -que todos aceptamos y la mayoría no leen- establecen que las plataformas pueden usar la información mientras seamos clientes de ese servicio. Pero entonces la pregunta es, ¿en qué momento nos convertimos en clientes del ChatGPT? y sobre todo, ¿cuál es el momento en el que dejamos de serlo?

¿Encontraste un error?

Reportar

Temas relacionados

premium

Te puede interesar