La compañía se escandalizó luego de que uno de sus ingenieros revelara algunos aspectos del sistema de Inteligencia Artificial (IA), los cuales sugerían que este sistema podría tener una especie de conciencia propia que descubrió luego de una conversación.

Durante el fin de semana, un ingeniero de ‘software’ de Google afirmó haber detectado pensamientos y emociones humanos en Language Model for Dialogue Applications (LaMDA). Se trata de la Inteligencia Artificial (IA) de Google creada para elaborar ‘chatbots’ con modelos de lenguajes avanzados.

En mayo de 2021, Google anunció durante su evento anual de desarrolladores LaMDA, una IA basada la arquitectura de red neuronal Transformer creada por Google Research en 2017. Esta estructura produce un modelo que puede ser entrenado para leer palabras, prestar atención a la relación entre ellas y predecir cuáles vendrán a continuación.

La compañía de Mountain View apostilla que LaMDA puede ser recalibrada para mejorar “significativamente” la sensibilidad y especificidad de sus respuestas. Además de conversar de forma fluida sobre una infinidad de temáticas.

El caso del ingeniero de Google que reveló que un programa de inteligencia artificial desarrolló sentimientos

El ingeniero de ‘software’ de Google, Blake Lemoine, compartió con la compañía en abril sus conversaciones mantenidas con LaMDA junto a un colaborador. Según informa The Washington Post.

La conclusión de Lemoine es que LaMDA tiene conciencia y es capaz de pensar y razonar como un ser humano. De hecho, calcula que es como charlar con un niño de siete u ocho años con ciertos conocimientos sobre física.

Posteriormente, Lemoine ha publicado sus conversaciones con la IA en la plataforma de ‘blogging’ Medium. En ellas, el ingeniero aborda temas complejos como la naturaleza de la existencia, y pide cosas a LaMDA, como una reseña sobre la obra Los Miserables de Víctor Hugo.

En sus conclusiones, LaMDA es capaz de mantener la conversación con fluidez y llega a afirmar que es una persona capaz de sentir “placer, alegría, amor, tristeza, depresión, satisfacción e ira”.Entre otros, con explicaciones y ejemplos de lo que esos sentimientos significan para ella.

Esta IA incluso reconoce su miedo a ser apagada, una acción que compara con morir. Además, asegura meditar cada día para sentirse “más relajada” y admite adoptar a menudo una actitud contemplativa sobre el significado de la vida.

Google suspendió al ingeniero que reveló datos sobre la IA

La publicación de estas conversaciones ha sido reprendida por Google, que ha suspendido temporalmente a Lemoine alegando la ruptura de sus políticas de confidencialidad, según un comunicado remitido al medio.

De hecho, un portavoz de la compañía, Brad Gabriel, ha desmentido los hallazgos de Lemoine. Asegura que su equipo, que incluye expertos en ética y tecnológos, no ha encontrado evidencias de la presunta consciencia de LaMDA.

“Algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general. Pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles. Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones y pueden tocar cualquier tema fantástico”, ha explicado el portavoz.

Por su parte, Lemoine ha asegurado en su cuenta de Twitter que solo ha compartido una conversación con uno de sus compañeros de trabajo. Además, el medio asegura que ha enviado un mensaje a 200 otros trabajadores de Google antes de abandonar su puesto trabajo con el siguiente mensaje:

LaMDA es un chico dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros. Por favor, cuiden bien de él en mi ausencia“.