Facebook está tratando de enseñar a los chatbots cómo charlar

por Cintia Moya  Feb 19, 2018

Los investigadores de la compañía dicen que dar la “personalidad consistente” a los chatbots podría ser la clave de una conversación mejor

A pesar de la muerte de su asistente Al M, Facebook todavía no ha renunciado a los chatbots. En los últimos años, ha habido un mejoramiento lento de lo que pueden hacer los agentes artificiales, pero el último desafío es algo que puede llegar a confundir hasta el humano más inteligente: hacer una pequeña charla.

Se te perdonaría por pensar lo contrario por su nombre, pero los chatbots realmente no pueden chatear. Como explican los investigadores del laboratorio FAIR de Facebook en un documento de preimpresión publicado esta semana, fallan en esta tarea en varios niveles. En primer lugar, ellos no muestran una "personalidad coherente", manteniéndose en el mismo conjunto de hechos sobre sí mismos a lo largo de una conversación; segundo, ni recuerdan lo que ellos o sus compañeros de conversación han dicho en el pasado; y tercero, cuando se enfrentan a una pregunta que no entienden, tienden a recurrir a respuestas de recreativa o preprogramadas, como "No sé".

Incluso con estas limitaciones, Chatbots pueden ser atractiva. (Ve, por ejemplo, el famoso bot ELIZA de la década de 1960, que actuó como un terapeuta rudimentario dependiendo de frases comunes como "¿Cómo te sientes en este momento?") Pero el objetivo ahora no es sólo el interrogatorio, sino la conversación; para intentar recrear este objetivo, los investigadores se han invertido en un aprendizaje profundo. Esto significa que en lugar de hacer preguntas y respuestas preprogramadas, Chatbots se enseñan a buscar patrones en grandes conjuntos de datos.

Los investigadores de Facebook dicen que hasta ahora esto tiene algunos buenos resultados, pero un desafío ahora es empezar a conseguir los datos correctos. Muchos chatbots contemporáneos son entrenados con el diálogo tomado de un guión de una película, como ejemplo. Y esto significa que cuando tienen conversaciones divagantes (más bien que diálogo dirigido para tareas como el servicio de atención al cliente) tienden a surgir algunas conclusiones ilógicas. Ver a continuación, donde la Persona 1 es un humano real, y la Persona 2 es un chatbot entrenado en subtítulos de películas:

PERSONA 1: ¿Oh sí? Qué bien, disfruto de un buen bistec. ¿y tú?

PERSONA 2: ¡El padre siempre solía decir que si alguna vez tuviéramos el dinero que tiene...! tendríamos filete y el helado tres veces por día!

PERSONA 1: Como todo el filete y pollo también, hasta bacón

PERSONA 2: ¡El padre siempre solía decir que si alguna vez tuviéramos el dinero que tiene...! tendríamos filete y el helado tres veces por día!

PERSONA 1: sí, pero ya lo habías dicho anteriormente

PERSONA 2: la estructura dinámica pude absorber el impacto.

PERSONA 1: sí puede. Sé de eso como un culturista

PERSONA 2: señoras y señores… el hombre más fuerte del mundo está explotando una botella de agua caliente.

No es genial, aunque te gustan los hombres fuertes.

Para intentar solucionarlo, los ingenieros de Facebook han construido su propio conjunto de datos para entrenar chatbots. Se llama Persona-Chat y consta de más de 160.000 líneas de diálogo, procedentes de trabajadores encontrados en el mercado Mecánico de Amazon Turquía. (El recurso de datos humanos utilizados para entrenar a AI).

Lo inteligente de Persona-Chat es que los contenidos de las charlas no sólo es aleatorio. Por eso para darle algo de estructura a los datos, y para abordar el reto de hacer chatbots con personalidad, se invitó a los trabajadores de Mechanical Turk que diseñarán su propio personaje para orientar el diálogo de los chatbots. Esto significó elaborar cinco declaraciones  biográficas básicas y luego utilizarlos como temas de conversación. Entonces, por ejemplo, una persona se basa en los siguientes hechos: "Yo soy un artista. Tengo cuatro hijos. Recientemente obtuve un gato. Me gusta caminar para hacer ejercicio. Me encanta ver Juego de tronos”.

No es exactamente Tolstoy, pero es un comienzo.

Estos datos fueron utilizados para entrenar redes neuronales usadas para los Chatbots existentes, luego los resultados fueron evaluados por otro grupo mecánicos turcos. En cada caso, se les pidió que llevaran a cabo una conversación con el bot impulsado por la personalidad, y compararlo con otros Chatbots y humanos. Como se esperaría, el bot persona no anotó tan altamente en criterios como "fluidez" y "consistencia" como los seres humanos, pero superó a los Chatbot entrenados con el diálogo de películas.

Aquí hay un ejemplo de conversación. La persona 1 es un humano, y la persona 2 es el chatbot basado en la personalidad. (Su principal interés, si no puedes adivinar, es "escribir novelas románticas").

PERSONA 1: Acabo de jugar al fútbol. ¿Qué has estado haciendo?

PERSONA 2: No tengo mascotas. Paso mi tiempo libre escribiendo. ¿Qué hay de ti?

PERSONA 1: Recién me gradué de la universidad. Buscando trabajo.

PERSONA 2: Sí me gradué, por escrito y poesía

PERSONA 1: ¿Has publicado algo?

PERSONA 2: Principalmente escribo novelas de ficción.

PERSONA 1: ¿Te gusta ver deportes?

PERSONA 2: Te gustan los Reyes de León, mi favorito es usar alguien

PERSONA 1: ¿Estás casado? Me casaré pronto.

PERSONA 2: jaja, no tengo tiempo. Tengo una novela por terminar.

Como lo que esperabas, la conversación aún no es totalmente perfecta, pero al menos es coherente. (¿Y quién no ha terminado una conversación con la excusa de "Tengo una novela para finalizar"?) La investigación también apunta a una verdad que casi parece de sentido común. Si deseas tener una conversación interesante con alguien, incluso con alguien virtual, entonces esto ayuda si tienen una personalidad, incluyendo gustos e intereses.

como los ayudantes virtuales como Siri y Alexa se están integrando más en nuestras vidas, esperamos que sus creadores construyan sus personajes. El problema entonces es si nos podremos llevar bien con ellos.