Alexa y Google Assistant informan sobre las tendencias futuras de los asistentes de IA
Las empresas y los desarrolladores que tienen experiencias de IA conversacional deberían comenzar a comprender que necesitan utilizar el aprendizaje no supervisado para escalar, dijo Prem Natarajan, vicepresidente de Amazon AI y vicepresidente de Alexa AI y NLP. Él habló hoy en la conferencia VentureBeat TransformBeat AI con Barak Turovsky, director de producto de Google AI para el equipo de NLU, durante una discusión sobre las tendencias futuras para los asistentes de AI.
Natarajan describió el aprendizaje no supervisado para modelos de lenguaje como una tendencia importante para los asistentes de IA y una parte integral de la creación de AI de conversación que funciona para todos. "No espere a que la realización del aprendizaje desatendido regrese a usted. Comience por comprender que necesita usar el aprendizaje no supervisado a cierta escala", dijo.
El aprendizaje desatendido utiliza datos sin etiquetar para sacar conclusiones sobre datos sin clasificar sin clasificar Una tendencia complementaria, dijo Natarajan, es el desarrollo de sistemas de autoaprendizaje que pueden adaptarse en función de las señales recibidas al interactuar con alguien que habla con Alexa.
"Es lo viejo, sabes, si fallas, está bien, pero no cometas los mismos errores varias veces, y estamos tratando de desarrollar sistemas que aprendan de sus errores pasados ", dijo. Miembros del equipo de aprendizaje automático de Amazon y EE. UU. Los equipos de conversación de AI le dijeron a VentureBeat el otoño pasado que el autoaprendizaje y el aprendizaje no supervisado del Podría ser clave para más interacciones humanas con asistentes de IA.
Otra tendencia en curso es el desarrollo de intentos de entrelazar funciones en experiencias. Para este propósito, Amazon comenzó a previsualizar conversaciones de Alexa el verano pasado. Alexa Conversations combina las capacidades de Alexa en una única experiencia coherente, utilizando una red neuronal recurrente para predecir rutas de diálogo. Por ejemplo, el proverbial escenario de la vida nocturna incluye habilidades para comprar boletos, reservar cenas y hacer arreglos con una aplicación de viaje compartido. Cuando se lanzó Amazon & # 39; s re: Mars en junio de 2019, David Limp, vicepresidente de dispositivos de Amazon, se refirió al trabajo de Amazon en "El Santo Grial de la Lingüística". Se anunciarán más noticias sobre Alexa Conversations en un evento de Amazon la próxima semana.
Natarajan y Turovsky acordaron que el diseño de experiencia multimodal es otra tendencia emergente. Los modelos multimodales combinan la entrada de múltiples medios como texto y fotos o video. Algunos ejemplos de modelos que combinan lenguaje e imágenes son Google VisualBERT e ImageGPT de OpenAI, que recibió una recomendación esta semana de la Conferencia Internacional sobre Aprendizaje Automático (ICML).
Turovsky habló sobre los avances en el descubrimiento del número limitado de respuestas que solo puede ofrecer. Sin una pantalla, no hay desplazamiento infinito o primera página de resultados de búsqueda de Google. Por lo tanto, las respuestas deben limitarse a tres resultados potenciales. Para Amazon y Google, esto significa crear pantallas inteligentes y destacar asistentes de inteligencia artificial que puedan compartir contenido visual y responder con voz.
En una conversación con VentureBeat en enero, el jefe de Google AI Jeff Dean predijo el progreso en los modelos multimodales en 2020. El avance de los modelos multimodales podría conducir a una serie de ventajas para el reconocimiento de imágenes y los modelos de habla, incluida una conclusión más sólida de los modelos, recibir aportes de más de un medio.
Otra tendencia continua, según Turovsky, es el aumento en el acceso a asistentes inteligentes gracias a la maduración de los modelos de traducción. El Asistente de Google actualmente puede hablar y traducir 44 idiomas.
En una presentación separada, Turovsky tomó hoy pasos detallados para eliminar el sesgo de género de los modelos de lenguaje. Basado en el aprendizaje no supervisado, Google introdujo cambios a principios de este año para reducir el sesgo de género en los modelos de traducción automática neural.
“En mi opinión, estamos en las primeras etapas de esta guerra. Este problema puede parecer simple; Mucha gente podría pensar que es muy fácil de arreglar. Es extremadamente difícil de solucionar, ya que en muchos casos la noción de distorsión en un entorno de IA no existe cuando observamos cómo aprende, y obtenemos datos de entrenamiento y modelos de entrenamiento para abordarlo realmente bien ”, dijo Turovsky. De hecho, un análisis publicado a principios de este año por investigadores de la Universidad de Georgetown y la Universidad de Stanford encontró que los sistemas racistas de reconocimiento automático de voz de compañías como Amazon y Google funcionan mejor para los usuarios blancos que para los negros.