Facebook está jugando a recopilar datos para mejorar la inteligencia artificial conversacional


Facebook una vez probó un juego de rol de fantasía basado en texto para mejorar los modelos de conversación que impulsan cosas como chatbots y altavoces inteligentes. En un artículo previo a la impresión, los investigadores de la compañía describen un juego que itera entre la recopilación de datos y el modelo de reentrenamiento de los datos recopilados, con una métrica que evalúa y compara modelos basados ​​en las tasas de retención de jugadores (es decir, cuánto tiempo continúan funcionando jugar). Los coautores afirman que en experimentos obtuvieron datos a razón de una quinta parte del precio por enunciado del crowdsourcing, y que su juego ha proporcionado evidencia de que el aprendizaje del diálogo a lo largo de la vida es viable.

Las personas aprenden a usar el lenguaje durante su vida, las interacciones que tienen con otras personas y con el mundo, pero la investigación del procesamiento del lenguaje natural (PNL) a menudo implica conjuntos de datos fijos y modelos congelados. Este paradigma evita que los modelos interactúen con los humanos durante el entrenamiento, una limitación que impide mejorar el rendimiento. Una alternativa es el reciclaje continuo de los modelos. Sin embargo, esto puede resultar costoso. Muchos corpora son de crowdsourcing donde los investigadores pagan a los trabajadores de la plataforma a través de plataformas como Amazon Mechanical Turk para que realicen tareas. Dado que los trabajadores digitales están motivados por el pago en lugar de los intereses, pueden producirse sobrecostos presupuestarios y datos de mala calidad.

El juego de los investigadores de Facebook tiene como objetivo aprender iterativamente de las conversaciones con jugadores "intrínsecamente motivados". El núcleo consta de dos "agentes", un jugador humano y una IA, en una de las 587 ubicaciones con descripciones, en las que a cada agente se le asigna un personaje de un grupo de 630 con nombres e historias de fondo. Los agentes deben representar el diálogo de su personaje en el escenario, mientras que un maestro de mazmorra automatizado califica la calidad de las habilidades de juego de roles del jugador y califica la probabilidad de diálogo en un contexto dado entre 1 y 5 estrellas. Estas subpuntuaciones se suman y la puntuación total se publica en una lista de clasificación para que pueda compararse con todos los demás jugadores. Los jugadores reciben insignias que representan personajes en el juego cuando acumulan una cierta cantidad de puntos para el diálogo.

Los diálogos en el juego se verifican en busca de lenguaje ofensivo y específico de género y constan de seis rondas por agente o un total de 12. Al final de cada jugador, los jugadores tienen tres opciones para elegir:

  • Decidir mudarse a una nueva ubicación arrastre donde continúan interpretando a ese personaje, pero conocen a un nuevo personaje con el que charlar.
  • Quédese en la misma habitación pero espere a que llegue un nuevo personaje para charlar con ellos.
  • Cambia a un juego de rol para jugar con un par de personajes completamente nuevos en un nuevo escenario.

Los investigadores de Facebook colocaron anuncios para reclutar 13.188 usuarios que jugaron un total de 41.131 rondas del juego, y calificaron la calidad de los intercambios entre estos jugadores utilizando modelos de entrenamiento para cada enunciado individual. Los resultados sugieren que conseguir que el juego tuviera una precisión de modelo del 80,63% en comparación con el crowdsourcing fue más de ocho veces más barato, en parte debido al alto nivel de interacción. Los usuarios optaron por seguir jugando entre el 68% y el 75% del tiempo.

 Conversación gamificada de Facebook AI

En general, los jugadores buscaban conversaciones "emocionantes" con interacciones emocionales y llenas de acción, como buscar misiones, mientras que los trabajadores colaborativos estaban más equilibrados y preparados para abordar temas secos. para ser discutido en detalle para los investigadores. Durante los diálogos, los jugadores utilizaron más palabras con agresividad, como "apuñalar" y "matar", pero también acciones abiertamente amistosas ("sonrisa", "abrazo") y jerga ("ur", "yo", "tipo"). Emojis. Son estos intercambios "más naturales" los que conducen a modelos que reflejan más de cerca la interacción humana, afirman los investigadores, porque incluso los datos de menor calidad proporcionan una señal útil.

"Nos parece emocionante porque este enfoque muestra que es posible construir modelos de mejora continua que aprenden de la interacción con la gente en la naturaleza (en lugar de experimentar con los trabajadores digitales remunerados)", escribieron los coautores. . "Esto representa un cambio de paradigma que se aleja de la configuración del conjunto de datos estáticos limitados que prevalece en gran parte del trabajo de la comunidad".

Los investigadores planean hacer que el código de entrenamiento, los modelos y los conjuntos de datos estén disponibles públicamente en el futuro. [19659002] En particular, el trabajo se basa en LIGHT, un entorno de investigación en forma de un juego basado en texto en el que la IA y los humanos interactúan como personajes jugadores. En noviembre, científicos de datos de Facebook, la Universidad de Lorena y el University College London examinaron un enfoque para crear mundos de juegos similares a los descritos en este último artículo preimpreso. Con la ayuda del contenido de LIGHT, diseñaron modelos con los que se pueden organizar lugares y personajes de manera compositiva y se pueden generar nuevos contenidos sobre la marcha. Mostraron cómo los algoritmos de aprendizaje automático pueden aprender a ensamblar diferentes elementos de manera creativa.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *