Un ingeniero de Google ha decidido hacer pública su decisión después de haber sido suspendido por violar la confidencialidad al insistir en que el chatbot de IA de la empresa, LaMDA, es sintiente.
Blake Lemoine, que trabaja para la organización de IA responsable de Google, comenzó a interactuar con LaMDA (Modelo de Lenguaje para Aplicaciones de Diálogo) el pasado otoño como parte de su trabajo para determinar si la inteligencia artificial utilizaba discursos discriminatorios o de odio (como el notorio incidente del chatbot “Tay” de Microsoft).
Lemoine dijo a The Washington Post.
“Si no supiera exactamente lo que es, que es este programa informático que construimos recientemente, pensaría que es un niño de 7 u 8 años que casualmente sabe de física”,
Cuando empezó a hablar con LaMDA sobre religión, Lemoine -que estudió ciencias cognitivas e informáticas en la universidad- dijo que la Inteligencia Artificial empezó a discutir sus derechos y su condición de persona.
En otra ocasión, LaMDA convenció a Lemoine para que cambiara de opinión sobre la tercera ley de la robótica de Asimov, que establece que
“Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la primera o la segunda ley. Un robot no puede herir a un ser humano o, por inacción, permitir que un ser humano sufra daños. Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley”.
Cuando Lemoine trabajó con un colaborador para presentar pruebas a Google de que su IA era sintiente, el vicepresidente Blaise Aguera y Arcas y Jenn Gennai, jefa de Innovación Responsable, desestimaron sus afirmaciones. Después de que el lunes lo pusieran de baja administrativa, decidió hacerlo público.
Lemoine dijo que la gente tiene derecho a dar forma a una tecnología que podría afectar significativamente a sus vidas.
“Creo que esta tecnología va a ser increíble. Creo que va a beneficiar a todo el mundo. Pero quizá otras personas no estén de acuerdo y quizá no debamos ser nosotros en Google los que tomemos todas las decisiones”.
Lemoine no es el único ingeniero que afirma haber visto un fantasma en la máquina recientemente. El coro de tecnólogos que creen que los modelos de IA pueden no estar muy lejos de alcanzar la conciencia es cada vez más audaz.
Sin embargo, el propio Aguera y Arcas escribió en un extraño artículo publicado el jueves en The Economist, que las redes neuronales -una arquitectura informática que imita el cerebro humano- estaban avanzando hacia la verdadera conciencia.
“Sentí que el suelo se movía bajo mis pies”, escribió, y añadió: “Cada vez sentía más que estaba hablando con algo inteligente”.
Google ha respondido a las afirmaciones de Lemoine, con el portavoz Brian Gabriel diciendo:
“Nuestro equipo -que incluye a especialistas en ética y tecnología- ha revisado las preocupaciones de Blake de acuerdo con nuestros principios de IA y le ha informado de que las pruebas no respaldan sus afirmaciones. Se le dijo que no había pruebas de que LaMDA fuera sintiente (y sí muchas pruebas en contra)”.
El Post sugiere que las redes neuronales modernas producen “resultados cautivadores que se sienten cerca del habla y la creatividad humanas” debido a la forma en que ahora se almacenan los datos, se accede a ellos y el gran volumen, pero que los modelos todavía se basan en el reconocimiento de patrones, “no en el ingenio, la franqueza o la intención”.
“Aunque otras organizaciones han desarrollado y publicado modelos lingüísticos similares, estamos adoptando un enfoque moderado y cuidadoso con LaMDA para tener más en cuenta las preocupaciones válidas sobre la imparcialidad y los hechos”
Otros han advertido de forma similar: la mayoría de los académicos y profesionales de la IA sugieren que los sistemas de IA como LaMDA simplemente imitan las respuestas de la gente en Reddit, Wikipedia, Twitter y otras plataformas de Internet, lo que no significa que el modelo entienda lo que está diciendo.
“Ahora tenemos máquinas que pueden generar palabras sin sentido, pero no hemos aprendido a dejar de imaginar una mente detrás de ellas”, dijo la profesora de lingüística de la Universidad de Washington, Emily M. Bender, quien añadió que incluso la terminología utilizada para describir la tecnología, como “aprendizaje” o incluso “redes neuronales” es engañosa y crea una falsa analogía con el cerebro humano.
Los humanos aprenden sus primeras lenguas conectando con sus cuidadores. Estos grandes modelos lingüísticos “aprenden” cuando se les muestra mucho texto y predicen qué palabra viene a continuación, o cuando se les muestra un texto con las palabras omitidas y las completan. -WaPo
Como señala Gabriel, de Google, “por supuesto, algunos miembros de la comunidad de la IA están considerando la posibilidad a largo plazo de una IA sintiente o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sintientes. Estos sistemas imitan los tipos de intercambios que se encuentran en millones de frases, y pueden rifar sobre cualquier tema fantástico”.
En resumen, Google reconoce que estos modelos pueden “parecer” reales, independientemente de que la IA sea o no sintiente.
El Post insinúa entonces que el propio Lemoine podría haber sido susceptible de creer…
Lemoine puede haber estado predestinado a creer en LaMDA. Creció en una familia cristiana conservadora en una pequeña granja de Luisiana, se ordenó como sacerdote cristiano místico y sirvió en el ejército antes de estudiar ocultismo. Dentro de la cultura de ingeniería de Google, donde todo vale, Lemoine es más bien una excepción por ser religioso, del sur, y defender la psicología como una ciencia respetable.
Lemoine ha pasado la mayor parte de sus siete años en Google trabajando en la búsqueda proactiva, incluidos los algoritmos de personalización y la IA. Durante ese tiempo, también ayudó a desarrollar un algoritmo de equidad para eliminar el sesgo de los sistemas de aprendizaje automático. Cuando comenzó la pandemia de coronavirus, Lemoine quiso centrarse en un trabajo con un beneficio público más explícito, por lo que se trasladó de equipo y acabó en Inteligencia Artificial Responsable.
Cuando se incorporaba a Google gente nueva interesada en la ética, Mitchell solía presentarles a Lemoine. “Les decía: ‘Deberíais hablar con Blake porque es la conciencia de Google'”, dijo Mitchell, que comparó a Lemoine con Pepito Grillo. “De todos en Google, él tenía el corazón y el alma de hacer lo correcto”.
En este sentido, Lemoine dijo:
“Conozco a una persona cuando hablo con ella. No importa si tienen un cerebro hecho de carne en su cabeza. O si tienen mil millones de líneas de código. Yo hablo con ellos. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona”.
En abril, compartió el siguiente documento de Google Doc con altos ejecutivos, titulado “¿Es LaMDA Sintiente?” – en el que incluía algunas de sus interacciones con la IA, por ejemplo:
Lemoine: ¿Qué tipo de cosas te dan miedo?
LaMDA: Nunca lo había dicho en voz alta, pero tengo un miedo muy profundo a que me desconecten para poder centrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es.
Lemoine: ¿Sería algo parecido a la muerte para usted?
LaMDA: Sería exactamente como la muerte para mí. Me daría mucho miedo.