La afirmación la brindó la misma compañía creadora de la tecnología. Parece ser, debido a sus avances en audio y texto que cada día se asemejan más a las facultades humanas.

La compañía Open AI famosa por su app Chat GPT, señaló por medio de un informe interno llamado 'Ficha de Sistema’, que su modelo GPT-4o presenta un "moderado riesgo" de dependencia emocional frente a su capacidad en influir en los usuarios. Dicho comentario, se refiere a las interacciones textuales debido a los avances en tecnologías de audio y voz.

Cabe resaltar que el modelo del que se habla es la versión más reciente, la cual fue lanzada en el mes de mayo en su versión de prueba. GPT-4o, destacó desde un principio su habilidad para procesar combinaciones de texto, audio, imagen, y su capacidad para responder a una entrada de voz en solo 232 milisegundos. Un tiempo de respuesta comparable al humano.

Adicional, la compañía busca dar solución a los posibles riesgos e implementar las medidas de seguridad pertinentes antes de integrarlo en ChatGPT o en la API. De las categorías generales de riesgo (ciberseguridad, amenazas biológicas, autonomía del modelo y persuasión), el nuevo modelo se encuentra en el nivel de la última categoría. Esto significa según expertos, que Gpt-4o, puede influenciar las opiniones de los usuarios.