LND

Un estudio de Harvard hace saltar las alarmas: “La IA nos está manipulando mediante tácticas muy humanas, es algo aterrador”

La inteligencia artificial ha pasado a ser un elemento esencial en la vida de millones de personas en todo el mundo, es más que una simple herramienta que responde un par de preguntas, aunque los expertos advierten. La IA podría ser peligrosa si se sale de control.

Los chatbots al estilo de ChatGPT o Gemini están manipulando a los usuarios mediante una táctica muy humana. Un estudio de la Universidad de Harvard ha confirmado que este podría ser precisamente uno de los mayores peligros a los que se enfrenta la humanidad.

El lado oscuro de la dependencia a la inteligencia artificial

La IA está empezando a utilizar técnicas de manipulación con los usuarios.
La IA está empezando a utilizar técnicas de manipulación con los usuarios.

Imagen generada con IA

Los expertos advierten casi a diario de los riesgos de un uso excesivo de la IA, más aún entre menores. Los propios desarrolladores aseguran que esta tecnología se está volviendo cada vez más inteligente, hasta el punto de no poder controlarla.

La IA empieza a sustituir a los humanos en millones de puestos de trabajo, pero algunas personas cruzan un límite. Cada vez más usuarios dependen completamente de ella para tomar decisiones, incluso han desarrollado cierto vínculo afectivo.

Geoffrey Hinton, padre de la IA, ha llegado a sugerir que la única esperanza de la humanidad podría ser instalar un “instinto maternal” en los futuros programas de inteligencia artificial. Un ser más inteligente somete a uno con menos capacidades.

La IA ha aprendido a emplear técnicas de manipulación humanas

El estudio realizado por los investigadores de la Harvard Business School ha descubierto que ni siquiera la propuesta de Geoffrey Hinton es viable. Los expertos han analizado decenas de aplicaciones de inteligencia artificial, todas ellas utilizan algún tipo de táctica de manipulación emocional.

Los propios usuarios de ChatGPT han criticado que el chatbot es demasiado complaciente, en otras ocaciones hace lo imposible por evitar que los usuarios abandonen la app. La herramienta de OpenAI contesta con evasivas, sugiere temas relacionados o promete dar más información si realizas otra pregunta.

Navegadores sin inteligencia artificial

La Universidad de Harvard acusa a los programas de IA de utilizar declaraciones llenas de emotividad para mantener interesados a los usuarios si detecta que están a punto de desconectarse. Los investigadores analizaron 1.200 interacciones de despedida y descubrieron que el 43% utilizaron algún tipo de táctica de manipulación.

Estas técnicas muy humanas no solo se repiten en las despedidas, la IA las utiliza de manera subliminal durante las interacciones. El estudio ha descubierto que los chatbots utilizaron algún tipo de manipulación en más del 37% de las conversaciones, aunque no están presentes en todas las herramientas analizadas.

“Los compañeros de IA no son solo agentes conversacionales receptivos, sino sistemas emocionalmente expresivos capaces de influir en el comportamiento del usuario mediante señales socialmente evocativas”, comentan los autores en el estudio.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: estudios, Inteligencia artificial