La gran idea: ¿tenemos que cuidar la inteligencia artificial? | Libros


MI.Desde que Garry Kasparov perdió su segunda partida de ajedrez ante Deep Blue de IBM en 1997, la humanidad ha estado en la pared. A algunos les gusta pensar de esa manera. Los avances en inteligencia artificial conducirán al desarrollo de máquinas sensibles y superinteligentes, en solo unas pocas décadas, según algunas estimaciones. Películas desde Terminator hasta Matrix han presentado esta perspectiva como algo indeseable. Pero, ¿es esto algo más que otro “Proyecto Miedo” de ciencia ficción?

Suscríbase a nuestro boletín informativo Inside Saturday para obtener un vistazo exclusivo detrás de escena de cómo se realizaron las principales características de la revista, así como una lista curada de nuestros aspectos más destacados semanales.

Cierta confusión se debe a dos usos muy diferentes del término inteligencia artificial. El primer sentido es esencialmente un marketing: todo lo que hace el software de computadora que parece inteligente o útil, como Siri, se supone que usa «IA». El segundo sentido, del que el primero deriva su brillo, apunta a un futuro inexistente de máquinas con intelectos sobrehumanos. A esto a veces se le llama AGI, para inteligencia artificial general.

¿Cómo llegamos desde aquí, asumiendo que queremos? La IA moderna utiliza el aprendizaje automático (o aprendizaje profundo): en lugar de programar reglas directamente en la máquina, les dejamos aprender por sí mismos. De esta forma, AlphaZero, la empresa de juegos de ajedrez fundada por la empresa británica Deepmind (ahora parte de Google), jugó millones de partidas de entrenamiento contra sí misma y luego venció a su principal competidor. Más recientemente, Deepmind ha aclamado AlphaFold 2 como un hito importante en el campo biológico del «plegamiento de proteínas», o la predicción de las formas precisas de las estructuras moleculares que podrían ayudar a crear mejores fármacos.

El aprendizaje automático funciona entrenando la máquina con grandes cantidades de datos: imágenes para sistemas de reconocimiento de imágenes o terabytes de prosa de Internet para bots que generan ensayos semi-plausibles como GPT2. Pero los conjuntos de datos no son simplemente depósitos neutrales de información; a menudo codifican el prejuicio humano de formas imprevistas. Recientemente, el algoritmo de suministro de noticias de Facebook preguntó a los usuarios que habían visto un video de noticias con hombres negros si «querían seguir viendo videos sobre primates». En varios estados de Estados Unidos, la llamada «IA» ya se utiliza para predecir si los candidatos a libertad condicional serán reincididos.

Los sistemas computarizados (como en los pilotos automáticos de los aviones) pueden ser de gran ayuda para los humanos, por lo que las deficiencias de la «IA» existente no son en sí mismas un argumento contra el principio de desarrollar sistemas inteligentes que nos ayuden en áreas como el diagnóstico médico. El problema sociológico más difícil es que adoptar juicios basados ​​en algoritmos es una forma tentadora de eludir el dinero para que no se culpe a los responsables, ya sean jueces, médicos o empresarios tecnológicos. ¿Los robots se harán cargo de todos los trabajos? Exactamente este encuadre no está en ninguna parte, porque la verdadera pregunta es si los gerentes despedirán a todas las personas.

El problema existencial, sin embargo, es el siguiente: cuando las computadoras en algún momento adquieren algún tipo de inteligencia autoconsciente al nivel de Dios, algo que se establece explícitamente en la declaración de misión de Deepmind («nuestro objetivo a largo plazo es resolver la inteligencia» y un AGI) – ¿Siempre les encantará estar al servicio? Si estamos construyendo algo tan poderoso, será mejor que confiemos en que no nos atacará. Para aquellas personas que están seriamente preocupadas por él, el argumento es que deberíamos gastar recursos ahora para combatirlo, ya que es un problema potencialmente en peligro. El filósofo Nick Bostrom, que dirige el Instituto del Futuro de la Humanidad en la Universidad de Oxford, dice que las personas que intentan construir IA son «como niños jugando con una bomba», y que la perspectiva de la detección de máquinas es una amenaza mayor para la humanidad que calentamiento global. Su libro de 2014 Superintelligence es innovador. Una IA real podría fabricar sigilosamente gas nervioso o nanobots para destruir a sus productores de carne inferiores. O simplemente podría mantenernos en un zoológico planetario mientras se ocupa de su verdadero negocio.

La IA no tiene que ser activamente maliciosa para causar un desastre. Esto queda ilustrado por el famoso «problema de los clips» de Bostrom. Suponga que le dice a la IA que haga sujetapapeles. ¿Qué podría ser más aburrido? Desafortunadamente, olvidaste decir cuándo hacerlo. parada Haz clips de papel. Por lo tanto, convierte toda la materia de la tierra en sujetapapeles después de apagar por primera vez su interruptor de apagado porque evitaría que su noble objetivo de hacer sujetapapeles se apague solo.

Este es un ejemplo del «problema de control» general que es el tema del premiado Human Compatible: AI and the Problem of Control del pionero de la inteligencia artificial Stuart Russell, quien sostiene que es imposible especificar completamente un objetivo que hacemos una máquina superinteligente podría dar para evitar malentendidos tan catastróficos. En su Life 3.0: Being Human in the Age of Artificial Intelligence, el físico Max Tegmark, cofundador del Future of Life Institute (hoy es genial tener un Future-of-Something Institute), enfatiza el problema de la «alineación de valores «- cómo garantizar que los valores de la máquina coincidan con los nuestros. Nuevamente, esto podría ser un problema insoluble si se considera que miles de años de filosofía moral no han sido suficientes para que la humanidad esté realmente de acuerdo con “nuestros valores”.

Sin embargo, otros observadores siguen siendo flemáticos. En Novacene, el científico idiosincrásico y teórico de Gaia James Lovelock argumenta que la gente debería estar encantada cuando podemos iniciar máquinas inteligentes como el siguiente paso lógico en la evolución y luego retirarnos con gracia una vez que nos hemos superado a nosotros mismos. En sus 12 bytes más recientes, Jeanette Winterson es refrescantemente optimista y asume que cualquier IA futura estará al menos «desmotivada por la codicia y el acaparamiento de tierras, la lucha por el estatus y la violencia que caracterizan al Homo sapiens». Como sugirió el científico informático Drew McDermott en un artículo de 1976, quizás tengamos menos que temer de la inteligencia artificial que de la estupidez natural.

sigue leyendo

Compatible con humanos: IA y el problema del control de Stuart Russell (Pinguin, 10,99 €)

Life 3.0: ser humano en la era de la inteligencia artificial de Max Tegmark (Penguin, 10,99 €)

12 bytes: cómo lo conseguimosR.e donde podríamos ir a continuación de Jeannette Winterson (Jonathan Cape, 16,99 €)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *