La IA puede vincular a las personas con los robots en lugar de con los humanos, preocupa OpenAI

Socializar con IA hace que los usuarios sean menos hábiles en las relaciones (representacionales) con los humanos.

San Francisco, Estados Unidos:

A OpenAI le preocupa que la función de voz realista de su inteligencia artificial haga que las personas se vinculen con el bot a expensas de las interacciones humanas.

La firma con sede en San Francisco cita literatura que sugiere que chatear con una IA puede llevar a una pérdida de confianza y que la alta calidad de la voz de GPT-4o exacerba ese efecto.

«La antropomorfización es la atribución de comportamientos y características similares a los humanos a entidades no humanas, como los modelos de IA», dijo OpenAI el jueves en un informe sobre el trabajo de seguridad que está realizando en su versión ChatGPT-4o de IA.

«Este riesgo se ve reforzado por las capacidades de audio del GPT-4o, que facilitan interacciones más parecidas a las humanas con el modelo».

OpenAI dice que ha observado a los evaluadores hablar con la IA de maneras que indican vínculos compartidos, como lamentarse en voz alta de que este es su último día.

Dijo que estos casos parecen ser benignos, pero deben estudiarse para determinar cómo se desarrollan con el tiempo.

Socializar con IA puede hacer que los usuarios sean menos hábiles o menos propensos a interactuar con los humanos, plantea la hipótesis de OpenAI.

«La interacción prolongada con el modelo afecta las normas sociales», dice el informe.

«Por ejemplo, nuestros modelos son diferenciales y permiten a los usuarios interrumpir y 'tomar el micrófono' en cualquier momento, lo que, si bien se espera de la IA, es la norma opuesta en las interacciones humanas».

READ  Nintendo Switch finalmente tiene las carpetas • Eurogamer.net

Según OpenAI, la capacidad de la IA para recordar detalles durante una conversación y realizar tareas también hará que las personas sean más dependientes de la tecnología.

«Las preocupaciones recientes compartidas por OpenAI sobre la posible dependencia del modo de voz de ChatGPT sugieren que muchos ya están empezando a preguntarse: ¿No es hora de considerar cómo esta tecnología afecta la interacción y las relaciones humanas?» dijo Alon Yamin, cofundador y director ejecutivo de la plataforma de detección antiplagio de IA CopyLeaks.

La IA nunca debería sustituir la interacción humana real, afirmó.

OpenAI dijo que probará más a fondo cómo las capacidades de voz de su IA pueden hacer que las personas se apeguen emocionalmente.

Los equipos que probaron las capacidades de voz de ChatGPT-4o también pudieron incitar al modelo de IA a repetir información falsa y crear teorías de conspiración, indicándole de manera convincente que lo hiciera.

OpenAI centró la atención en la tecnología de clonación de voz en su último chatbot, obligándolo a disculparse con la actriz Scarlett Johansson en junio por usar algo similar a su voz.

Aunque OpenAI negó que la voz que usaron fuera la de Johansson, el CEO Sam Altman no ayudó en su caso al señalar el nuevo modelo en las redes sociales con un mensaje de una sola palabra: «ella».

Johansson prestó su voz al personaje de IA en la película «Her», que Altman dijo anteriormente que era su película favorita sobre tecnología.

La película de 2013 fue protagonizada por Joaquin Phoenix como un hombre que se enamora de una asistente de inteligencia artificial llamada Samantha.

READ  Actualización fuera de banda de Windows 10 y Windows 11

(A excepción del titular, este artículo no ha sido editado por el personal de NDTV y se publica desde un feed sindicado).

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio