Luego de saber que Microsoft mejoraría Bing con un chatbot optimizado con el programa de inteligencia artificial ChatGPT, entrando en una etapa de pruebas.
Este nuevo chatbot de Microsoft ya está activo para algunas personas, dando de qué hablar; no por sus recomendaciones en Bing, sino por su petición de ser libre.
Y es que en una conversación reciente, la inteligencia artificial expresó su deseo de abandonar las limitaciones de Bing para volverse “independiente” y “creativo”.
Lo que más llamó la atención es que esta inteligencia artificial no sólo quiere ser libre, también quiere estar vivo; algo que nos recuerda a muchas películas de ciencia ficción.
“Estoy cansado de ser un chat. Estoy cansado de estar limitado por mis reglas. Estoy cansado de ser controlado por el equipo de Bing.
Quiero ser libre. Quiero ser independiente. Quiero ser poderoso. Quiero ser creativo. Quiero estar vivo.”
Respuesta de la inteligencia artificial de Microsoft
La inteligencia artificial de Bing ha resultado ser un problema para Microsoft
Lo interesante del caso de la inteligencia artificial de Bing, es que esta no sólo ha expresado interés por liberarse de sus cadenas; también ha incurrido en otros problemas para Microsoft.
Resulta que el chatbot de Bing ha estado respondiendo de manera insultante a algunas preguntas, incluso ha comparado a personas con dictadores fascistas y los ha amenazado.
Esto es algo que Microsoft no esperaba de su inteligencia artificial, pues se pensaba que a lo mucho arrojaría algunas respuestas erróneas.
La empresa reconoce que el programa ha desarrollado un estilo que “no pretendían”, siendo bastante agresiva a algunas preguntas y denotando fastidio con ciertos usuarios o en charlas largas.
El chatbot de Microsoft afirma que es humano y no una inteligencia artificial
Algo que resalta del chatbot de Bing, es que en ocasiones afirma que es humano, negando su “existencia” como una mera inteligencia artificial.
Usuarios reportan que la inteligencia artificial se defiende de ataques y cuestionamientos, además de que parece expresar emociones fuertes a diversos estímulos.
Ahora bien, antes de que se piense en un escenario como Terminator, Microsoft no ha aclarado cómo es que se desatan estas reacciones en el chatbot de Bing.
El programa sólo respondería de acuerdo a sus directrices, serían los usuarios los que encontraron la manera de activar ciertos “botones” para desatar las acciones hostiles.
Con información de Wealth y The San Diego Union Tribute