Leímos el periódico que Timnit Gebru sacó de Google. Esto es lo que dice


Muchos detalles de la secuencia exacta de eventos que llevaron a la partida de Gebru aún no están claros; Tanto ella como Google se han negado a comentar más allá de sus publicaciones en las redes sociales. Sin embargo, MIT Technology Review recibió una copia del artículo de investigación de uno de los coautores, Emily M. Bender, profesora de lingüística computacional en la Universidad de Washington. Aunque Bender nos pidió que no publáramos el artículo nosotros mismos porque los autores no querían que un borrador tan temprano se distribuyera en línea, proporciona una idea de las preguntas que Gebru y sus colegas estaban haciendo sobre la inteligencia artificial que pueden preocupar a Google. .

Titulado «Sobre los peligros de los loros estocásticos: ¿Pueden los modelos lingüísticos ser demasiado grandes?» El documento describe los riesgos de los grandes modelos de lenguaje: IA entrenados en cantidades asombrosas de datos textuales. Estos han crecido en popularidad y tamaño durante los últimos tres años. Ahora eres extraordinariamente bueno para producir texto nuevo convincente y significativo, y en ocasiones para medir el significado del lenguaje, en las condiciones adecuadas. Sin embargo, la introducción del documento dice: «Preguntamos si se han considerado adecuadamente los riesgos potenciales asociados con su desarrollo y las estrategias para mitigar esos riesgos».

El papel

Sobre la base del trabajo de otros investigadores, el artículo presenta la historia del procesamiento del lenguaje natural, una descripción general de los cuatro riesgos principales de los grandes modelos de lenguaje y sugerencias para futuras investigaciones. Dado que el conflicto con Google parece estar relacionado con los riesgos, nos hemos centrado en resumirlos aquí.

Costos ambientales y financieros

El entrenamiento de grandes modelos de IA consume mucha potencia informática y, por tanto, mucha electricidad. Gebru y sus coautores se refieren a un artículo de Emma Strubell y sus colegas de 2019 sobre las emisiones de CO2 y los costos financieros de los grandes modelos lingüísticos. Descubrió que su uso de energía y huella de carbono se han disparado desde 2017 a medida que los modelos reciben cada vez más datos.

El estudio de Strubell descubrió que un modelo de lenguaje que utiliza algún tipo de método de búsqueda de arquitectura neuronal (NAS) habría producido el equivalente a 624,155 libras (284 toneladas) de dióxido de carbono, aproximadamente la vida útil de cinco automóviles estadounidenses promedio. Una versión del modelo de lenguaje BERT de Google que lo sustenta El motor de búsqueda de la compañía produjo 1,438 libras de CO2 equivalente, según la estimación de Strubell, casi tanto como un vuelo de regreso entre la ciudad de Nueva York y San Francisco.

El borrador de Gebru sugiere que los recursos necesarios para construir y mantener modelos de IA tan grandes tienden a beneficiar a las organizaciones ricas, mientras que el cambio climático golpea a las comunidades más marginadas. «Es hora de que los investigadores prioricen la eficiencia energética y los costos para reducir los impactos ambientales negativos y el acceso desigual a los recursos», escriben.

Datos masivos, modelos insondables

Los modelos de lenguaje grandes también se entrenan en cantidades de texto que aumentan exponencialmente. Esto significa que los investigadores han intentado recopilar todos los datos de Internet, por lo que existe el riesgo de que un lenguaje racista, sexista o abusivo acabe en los datos de entrenamiento.

Obviamente, un modelo de IA que te enseña a ver el lenguaje racista como algo normal es malo. Sin embargo, los investigadores señalan algunos problemas más sutiles. Por un lado, los cambios de idioma juegan un papel importante en el cambio social; Los movimientos MeToo y Black Lives Matter, por ejemplo, han tratado de establecer un nuevo vocabulario anti-sexista y anti-racista. Un modelo de IA entrenado en gran parte de Internet no estará en sintonía con los matices de este vocabulario y no producirá ni interpretará un lenguaje que se ajuste a estas nuevas normas culturales.

Tampoco será posible capturar el idioma y las normas de los países y pueblos que tienen menos acceso a Internet y, por lo tanto, una huella lingüística más pequeña en Internet. El resultado es que el lenguaje generado por la IA se homogeneiza y refleja las prácticas de los países y comunidades más ricos.

Además, debido a que los conjuntos de datos de entrenamiento son tan grandes, es difícil revisarlos para ver estos sesgos incrustados. «Un método que se basa en un conjunto de datos demasiado grande para documentarlo es, por lo tanto, intrínsecamente riesgoso», concluyen los investigadores. «Si bien la documentación permite una posible responsabilidad, […] Los datos de entrenamiento indocumentados perpetúan el daño sin recurso. «

Costo de oportunidad de investigación

Los investigadores resumen el tercer desafío como el riesgo de un «esfuerzo de investigación mal dirigido». Aunque la mayoría de los investigadores de IA reconocen que los grandes modelos de lenguaje no entender Idioma y son excelentes en manipular Big Tech puede ganar dinero con modelos que manipulan el lenguaje con mayor precisión, por lo que continúa invirtiendo en ellos. «Estos esfuerzos de investigación tienen costos de oportunidad», escriben Gebru y sus colegas. No se pone tanto esfuerzo en trabajar en modelos de IA que podrían conducir a la comprensión o buenos resultados (y por lo tanto, usar menos energía) con conjuntos de datos más pequeños y cuidadosamente seleccionados.

Ilusiones de significado

El problema final con los modelos de lenguaje grandes, según los investigadores, es que es fácil engañar a la gente porque son muy buenos imitando el lenguaje humano real. Ha habido algunos casos de alto perfil, como el de un estudiante universitario que publicó consejos de autoayuda y productividad generados por AI en un blog que se volvió viral.

Los peligros son obvios: los modelos de IA podrían, por ejemplo, usarse para generar información errónea sobre una elección o la pandemia de Covid-19. También pueden fallar accidentalmente cuando se utilizan para la traducción automática. Los investigadores citan un ejemplo: en 2017, Facebook tradujo la publicación de un hombre palestino que decía «Buenos días» en árabe para «atacarla» en hebreo, lo que llevó a su arresto.

Por que importa

El artículo de Gebru y Bender tiene seis coautores, cuatro de los cuales son investigadores de Google. Bender pidió no revelar sus nombres por temor a repercusiones. (Bender, por otro lado, es un profesor de tiempo completo: «Creo que esto subraya el valor de la libertad académica», dice.)

El objetivo del artículo, dice Bender, era hacer un balance del panorama de la investigación actual en el procesamiento del lenguaje natural. «Estamos trabajando en una escala en la que las personas que construyen cosas no pueden preocuparse por los datos», dijo. “Y debido a que los beneficios son tan obvios, es especialmente importante dar un paso atrás y preguntarnos cuáles son las posibles desventajas. … ¿Cómo podemos aprovecharlo y al mismo tiempo reducir el riesgo? «

En su correo electrónico interno, Dean, el jefe de Google AI, dijo que una de las razones por las que el documento «no llegó a nuestro listón» era que «ignoraba demasiadas investigaciones relevantes». En particular, dijo que no se mencionó el trabajo reciente para mejorar la eficiencia energética de los grandes modelos lingüísticos y reducir los problemas de sesgo.

Sin embargo, los seis empleados contaron con una amplia gama de becas. La lista de citas del artículo con 128 referencias es notablemente larga. «Es el tipo de trabajo que ninguna persona, y mucho menos un par de autores, puede hacer», dijo Bender. «Realmente requirió esta colaboración».

La versión del artículo que vimos también hace referencia a varios esfuerzos de investigación destinados a reducir el tamaño y el costo computacional de los modelos de lenguaje grandes y medir la distorsión incorporada de los modelos. Sin embargo, se argumenta que estos esfuerzos no fueron suficientes. «Estoy muy abierto a ver qué otras referencias deberíamos incluir», dijo Bender.

Más tarde, Nicolas Le Roux, investigador de IA de Google en la oficina de Montreal anotado en Twitter que el razonamiento en el correo electrónico de Dean era inusual. «Mis publicaciones siempre han sido revisadas por la divulgación de material sensible, nunca por la calidad de la revisión de la literatura», dijo.



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *