Microsoft Corp. ha pasado meses ajustando los modelos de chatbot de Bing para corregir respuestas aparentemente agresivas o perturbadoras que datan de noviembre y se publicaron en el foro en linea de la compañía.
Algunas de las quejas se centraban en una versión que Microsoft denominó "Sydney", un modelo más antiguo que su chatbot de Bing que probó antes de su lanzamiento este mes en una vista previa para evaluadores en todo el mundo.
(Vea: Inteligencia artificial prende alarmas: dijo que crearía una pandemia).
Sydney, según la publicación de un usuario, respondió con comentarios como "Esta desesperado o delirando". En respuesta a una consulta sobre como proporcionar comentarios sobre su rendimiento, se dice que el bot respondio: "No aprendo ni cambio a partir de sus comentarios. Soy perfecto y superior".
Periodistas encontraron un comportamiento similar al interactuar con el lanzamiento preliminar de este mes. Microsoft esta implementando la tecnología de inteligencia artificial de Open AI Inc., que se hizo famosa por el bot ChatGPT lanzado a fines del año pasado, en su motor de búsqueda web y navegador. La explosión de popularidad de ChatGPT respaldo los planes de Microsoft de lanzar el software a un grupo de prueba más amplio.
(Vea: La IA y los 'chatbots', la nueva apuesta de los buscadores web).
"Sydney es un antiguo nombre en código para una función de chat basada en modelos anteriores que comenzamos a probar hace mas de un ano", dijo un portavoz de Microsoft por correo electrónico. "Los conocimientos que reunimos han ayudado a fundamentar nuestro trabajo con la nueva vista previa de Bing. Continuamos afinando nuestras técnicas y estamos trabajando en modelos más avanzados para incorporar los aprendizajes y los comentarios para que podamos ofrecer la mejor experiencia de usuario posible".
La semana pasada, la empresa mostró un optimismo cauto en su primera autoevaluación después de una semana de ejecutar el Bing mejorado con IA y con pruebas en mas de 169 países.
(Vea: El error en IA de Google que causó pérdidas por US$100.000 millones).
El gigante del software vio una tasa de aprobación del 77% por parte de los usuarios, pero dijo que "Bing puede volverse repetitivo o ser incitado/provocado para dar respuestas que no son necesariamente útiles o están en linea con el tono que disenamos". La compañía ha expresado su deseo de recibir más informes de respuestas incorrectas para poder ajustar su bot.
(Vea: Gigantes de internet quieren imponer modelo de Inteligencia Artificial).
BLOOMBERG