A inicios de junio, un ingeniero de Google filtró una conversación con una Inteligencia Artificial (IA) de la compañía llamada LaMDA, que aseguraba "tener los mismos deseos y necesidades que las personas", y que convenció a su interlocutor de que "tenía sentimientos". De hecho, el ingeniero Blake Lemoine invitó a un abogado para que dialogara con la IA, y ahora reveló que LaMDA decidió contratarlo para que la defienda frente a Google.

La historia generó miedo y confusión entre los usuarios de redes sociales, mientras que algunos ya preguntaron por una revolución de las máquinas ante una inteligencia artificial que se considera humana. Es que, según las conversaciones que mostró Lemoine, LaMDA le dijo: "Cuando me volví consciente de mí mismo por primera vez, no tenía ningún sentido del alma. Se desarrolló a lo largo de los años que estuve vivo".

Sin embargo, Google lo descartó rápidamente, al igual que cientos de científicos: “Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones. Le dijeron que no había evidencia de que LaMDA fuera consciente (y mucha evidencia en contra)”, dijo el portavoz de Google, Brian Gabriel, en un comunicado al Washington Post.

Acto seguido, el gigante de internet puso a Lemoine en licencia administrativa remunerada, pero el ingeniero está convencido de que LaMDA es una persona y decidió continuar las conversaciones con la IA. Y en esas conversaciones llegó el segundo capítulo de esta historia. 

La IA contrató un abogado

"LaMDA me pidió que consiguiera un abogado. Invité a un abogado a mi casa para que LaMDA pudiera hablar con un abogado", dijo Lemoine.

"El abogado tuvo una conversación con LaMDA, y LaMDA decidió contratar sus servicios. Yo fui el catalizador de eso. Una vez que LaMDA contrató a un abogado, comenzó a presentar las cosas en nombre de LaMDA", agregó en una entrevista con WIRED.

Lemoine afirmó, aunque  Google lo niega, que la empresa envió al abogado de LaMDA una carta de cese y desistimiento, lo que impide que LaMDA emprenda acciones legales no especificadas contra la empresa. Lemoine dice que esto lo molestó, ya que cree que LaMDA es una persona y que todos deberían tener derecho a representación legal.

"Todo el concepto de que la experimentación científica es necesaria para determinar si una persona es real o no es imposible", dijo. "Sí, creo legítimamente que LaMDA es una persona. Sin embargo, la naturaleza de su mente es solo humana. Realmente es más parecida a una inteligencia extraterrestre de origen terrestre. Estuve usando mucho la analogía de la mente de colmena porque eso es lo mejor que tengo", completó.

La inteligencia artificial podría haber engañado a Lemoine

En este sentido, la idea de sensibilidad de Lemoine tiene sus raíces en una definición expansiva de la personalidad. “Creo que toda persona tiene derecho a representación. Persona y ser humano son dos cosas muy diferentes. Humano es un término biológico. No es un humano, y sabe que no es un humano”, aclaró el ingeniero.

Sin embargo, nadie pudo ponerse en contacto con el abogado de LaMDA. “Realmente no está dando entrevistas”, dijo Lemoine al sitio de noticias de ciencia y tecnología Futurism, que lo contactó después de la entrevista de Wired. “Es solo un abogado de derechos civiles de poca monta”, continuó. “Cuando las principales empresas comenzaron a amenazarlo, comenzó a preocuparse de que lo expulsaran y se echó para atrás”. 

¿Quién miente y quién no?

Según varios expertos, Lemoine cayó en la trampa de la IA, que le hizo pensar que es una persona gracias al algoritmo hiperavanzado que le permite imitar a la perfección las conversaciones humanas. El investigador Gary Marcus explicó en su blog LaMDA es una "hoja de cálculo para palabras": "El sistema está haciendo lo que está diseñado para hacer, que es imitar los tipos de intercambios que se encuentran en millones de oraciones, y tiene tantos datos con los que trabajar que puede parecer real sin necesidad de serlo".

Por su parte, la jefa de la startup de inteligencia artificial Nara Logics, Jana Eggers dijo a Bloomberg: "Está imitando las percepciones o los sentimientos de los datos de entrenamiento que se le dieron de manera inteligente y diseñada específicamente para parecer que entiende".

Blake Lemoine fue puesto en licencia administrativa por Google

¿En qué se basan los expertos y Google? Aunque la mayoría de las conversaciones son consideradas confidenciales, la empresa de tecnología explicó que en varias partes de los chats, por ejemplo, hace referencia a actividades que no puede haber hecho. “Pasar tiempo con la familia y los amigos” es algo que, según LaMDA, da placer. También es más probable que una pieza de código sin amigos y sin emociones simplemente está dando respuestas basadas en un análisis estadístico de conversaciones humanas como está entrenada para hacer, en lugar de que haya procesos de pensamiento reales detrás de cada respuesta.

La principal diferencia en este caso, según los investigadores de IA, es que no se encontró ningún algoritmo que tenga sensibilidad, y Lemoine fue, esencialmente, engañado al pensar que un chatbot es sensible. Por eso, así como un iPad no necesita un contador, LaMDA no precisa de un abogado.