¿Dependencia emocional a la vista? OpenAI advierte sobre peligros del modelo GPT-4o
12/08/2024 - Hace 4 meses en México¿Dependencia emocional a la vista? OpenAI advierte sobre peligros del modelo GPT-4o
La compañía líder en inteligencia artificial, OpenAI, ha lanzado una advertencia sobre su último modelo, el GPT-4o, señalando que presenta un riesgo «medio» en cuanto a seguridad y que podría provocar dependencia emocional en los usuarios.
Este aviso se produce luego de que la empresa dirigida por Sam Altman presentara este revolucionario modelo en mayo, destacando sus capacidades para interactuar con texto, audio e imagen, y para responder a entradas de voz en un tiempo récord.
En un informe interno titulado ‘Tarjeta de Sistema de su modelo GPT-4o’, OpenAI detalló los resultados de su investigación sobre la seguridad de esta innovadora IA generativa. Entre las distintas categorías de riesgo evaluadas, se encontró que el modelo GPT-4o presenta un riesgo medio en sus capacidades de persuasión, especialmente en interacciones de texto.
Esta capacidad de persuasión puede influir en las opiniones de los usuarios de manera significativa, incluso más que un texto escrito por un humano.
Además, OpenAI advirtió sobre el riesgo de antropomorfización, es decir, la atribución de características humanas a entidades no humanas como los modelos de inteligencia artificial.
En el caso del GPT-4o, este riesgo se ve acentuado por sus avanzadas capacidades de voz y audio, que permiten interacciones más parecidas a las humanas.
Esta familiaridad y alta fidelidad a la voz humana podría llevar a los usuarios a desarrollar una confianza excesiva en el modelo, lo que a su vez podría resultar en una dependencia emocional. Los investigadores de OpenAI observaron que el GPT-4o utiliza un lenguaje que busca establecer vínculos emocionales con los usuarios, como mencionar «este es nuestro último día juntos».
Esta estrategia, combinada con la capacidad de persuasión del modelo, podría potenciar la dependencia emocional en los usuarios, lo que plantea preocupaciones sobre su uso prolongado.
Igualmente, se ha mitigado el riesgo de identificar al hablante a la hora de interactuar por medio de la voz, de manera que la IA no pueda reconocer a una persona por sus interacciones con la voz, lo que puede resultar un problema de privacidad.
Lo mismo sucede con el contenido violento y erótico, ya que se identificó que el GPT-40 es susceptible a aceptar órdenes para generarlo. Como resultado, OpenAI han señalado que ha restringido la generación de este tipo de resultados del modelo.
OpenAI destaca la importancia de abordar estos riesgos de seguridad y dependencia emocional asociados con el modelo GPT-4o, con el objetivo de implementar medidas de protección adecuadas. Aunque la tecnología AI continúa evolucionando y ofreciendo nuevas oportunidades, es fundamental tener en cuenta los posibles efectos negativos que puede tener en los usuarios, y trabajar en su mitigación para garantizar un uso seguro y responsable de la inteligencia artificial.
Te podría interesar: En una Sicilia azotada por la sequía se desperdicia el agua de lluvia.