Seleccionar página

El fantasma en la máquina

Rafael Bautista Mena

El fantasma en la máquina

En la edición web del Washington Post del 11 de junio, Nitasha Tiku, reportera sobre cultura de la tecnología, narra el incidente en torno a uno de los ingenieros que trabaja en la dirección de “inteligencia artificial responsable” (Responsible AI) de Google. El ingeniero Blake Lemoine fue separado de sus funciones, con condición remunerada mientras tratan de despejar las posibles consecuencias de los comentarios públicos hechos por el ingeniero. Lemoine hizo pública su creencia de que el sistema de conversación interactiva que Google planea incorporar en todas sus aplicaciones, conocido como LaMDA, ha generado conciencia. En lenguaje más coloquial, Lemoine cree que LaMDA se da cuenta de que está “vivo”.

Por sí solo, este episodio pasaría desapercibido, pues no es la primera instancia en la cual alguien en una posición de conocimiento experto ha hecho afirmaciones similares en tiempos recientes. Es menos frecuente observar la reacción de apagafuegos de una compañía como Google. Esta reacción parece que busca impedir nuevas críticas hechas por expertos del campo de la ética en inteligencia artificial, quienes señalan los peligros que plantean sistemas que pueden reproducir la conducta de conversación de seres humanos. Google ha prometido remedios para ese problema.

¿Riesgo y beneficio?

Ese episodio encierra uno de los temas centrales del siglo XXI: la convivencia de seres humanos con entes que pueden (o no) tener conciencia, pero que ciertamente pueden alcanzar el grado de omnisciencia que permite el universo de conocimientos generados por la humanidad. El episodio que involucra al ingeniero Lemoine ilustra una de las posibles emboscadas de esa convivencia; como lo dice Will Oremus en su columna de opinión para el Post: “Si Lemoine fue engañado por las respuestas cuasi-vivas de LaMDA, parece plausible que muchas otras personas con mucho menos entendimiento de la inteligencia artificial, IA, podrían también caer [en esa ilusión]– lo que habla acerca de su potencial como una herramienta para el engaño y la manipulación, en las manos equivocadas.”

Los sistemas dotados del conjunto de cualidades que hoy se denomina “inteligencia artificial” (IA) tienen en común que producen respuestas a preguntas o situaciones que se les plantea que no están previamente programadas en su código informático. En el caso de los programas avanzados de lenguaje, como LaMDA, su base consiste en modelos de reconocimiento de patrones llamados “neuronales”, los cuales están físicamente configurados con algunas de las características primarias del sistema nervioso. Se podría decir que están compuestos de “neuronas” artificiales, las cuales modifican sus interconexiones a medida que “aprenden” un nuevo patrón. Los orígenes de estos modelos se remontan a los trabajos del biofísico John J. Hopfield acerca de la imitación electrónica de los procesos neuronales. Los muy interesados en saber más, pueden empezar aquí.

En el caso del sistema LaMDA de Google, y de otros como GPT-3, su competidor de Microsoft, “reconocer” patrones consiste en dejar que esos circuitos, con sus correspondientes programas de control[1], absorban los patrones de billones – millones de millones – de interacciones que se dan en la vida cotidiana para que, dada una frase input arbitraria, el sistema construya la respuesta que más probablemente tendría sentido para un ser humano.

En la actualidad, los resultados de esos avances en IA pueden enervar al más ecuánime. De entre las historias recientes, da mucho qué pensar el experimento hecho por el periodista Steven Zeitchik, quien le pide a un sistema IA basado en GPT-3 (Sudowrite) que imite el estilo de escritura del famoso periodista Gay Talese, y luego le pregunta al propio Talese qué opina de la imitación. En breve, el experimento consistió en alimentar a la IA el primer párrafo de un artículo condecorado, “Frank Sinatra Has a Cold”, que Talese escribió para la revista Esquire en 1966. Luego, le pidió a la IA que escribiese unas frases que continuaran el artículo. En la llamada, Talese le pidió a Zeitchik que le leyera la “continuación” hecha por la IA. Parte de su respuesta, tras un silencio tenso: “It’s a correct interpretation” (es una interpretación correcta.)

De vuelta a los problemas en los que se metió Lemoine, quien muy probablemente será – quizás ya fue – despedido. Independientemente de que muchos hayan comentado acerca de su “ingenuidad”, el verdadero problema reside en que la vaguedad de los conceptos fundamentales puede llevar a consecuencias poco deseables. ¿Es la IA una tecnología, o es una ideología? Aún más delicado: ¿Será que el debate acerca de ser ‘consciente’ eclipsa al de asuntos mucho más serios detrás de la IA?

Observemos los términos: conciencia, inteligencia. Ahora empieza la verdadera lucha por definirnos en lo que es esencial. 

[1] Estos programas, su columna vertebral, son algoritmos que implementan un proceso denominado “deep learning”. Comentaré sobre estos programas en una entrada futura.

0 comentarios

Enviar un comentario