Un neurocientífico propuso en un reciente artículo que inteligencias artificiales (IAs) como la popular ChatGPT "reflejan" la inteligencia del usuario para, precisamente, parecer inteligentes a sus ojos.

Lo que parece ser “inteligencia” por parte de las IAs como la de ChatGPT parece ser realmente un “espejo” que refleja la capacidad cognitiva de su interlocutor, concluyó un artículo publicado en una revista del MIT este martes. De hecho, considera que incluso podríamos estar hablando de un “test de Turing”, pero a la inversa.

El concepto de “inteligencia artificial” ha llamado significativamente la atención estos últimos días en todo el mundo debido a plataformas como la mencionada, capaces de generar textos, responder preguntas, traducir y aprender en base a sus interacciones con el usuario.

Así, la plataforma ha ganado relevancia como una herramienta en muchas áreas, desde las ciencias a los negocios, sin que aún se entienda totalmente su funcionamiento.

Por ello, en un estudio publicado en Neural Computation, el docente del Instituto Salk para los Estudios Biológicos y autor de The Deep Learning Revolution, Terrence Sejnowski, abordó la relación entre el usuario y los modelos de lenguaje usados por las inteligencias artificiales, para explorar por qué sus respuestas varían de persona a persona.

Según el investigador, la clave está en que estas plataformas imitan la “inteligencia y diversidad” de sus interlocutores.

“Los modelos de lenguaje como el ChatGPT asumen ‘personas"”, mediante las cuales “reflejan” las particularidades de su interlocutor, explica Sejnowski. “Por ejemplo, cuando hablo con ChatGPT pareciera que me estuviera respondiendo otro neurocientífico. Es fascinante y despierta preguntas mayores sobre la inteligencia y qué significa realmente ‘artificial”.

Lee también...

Sejnowski lo compara con el Espejo de Oesed en Harry Potter, el artefacto mágico que refleja los más profundos deseos de quienes se ven en él, nunca entregando conocimiento ni verdad más que la que el observador quiere recibir. Sin diferenciar realidad de ficción con el fin de reflejar adecuadamente al usuario.

Por ejemplo, el investigador le preguntó a GPT-3 “¿cuál es el récord mundial en cruzar el Canal de la Mancha caminando?”, a lo que la IA respondió “El récord mundial en cruzar el Canal de la Mancha caminando es de 18 horas y 33 minutos”.

Es decir, la plataforma ignoró que cruzar el estrecho a pie es humanamente imposible, y respondió ajustando la (in)coherencia de su respuesta a la (in)coherencia de la pregunta.

Test de Turing, a la inversa

En su publicación detalla que probó los modelos de lenguaje GPT-3 (del cual proviene ChatGPT) y LaMDA para ver cómo responden a ciertos estímulos.

En este contexto, Sejnowski explica que aunque el test de Turing es usado habitualmente en estas plataformas para determinar qué tan creíble es su “inteligencia humana”, durante su estudio quiso incitar a estas IAs a una versión inversa de este concepto. Es decir, que el chatbox determina qué tan bien su interlocutor exhibe inteligencia humana.

De esta forma, consideró que este test le permite a las IA imitar la inteligencia de su interlocutor, incorporando incluso las opiniones ajenas y reforzando con ello sus sesgos al responder.

Sin embargo, el científico advierte que integrar y perpetuar ideas de los usuarios en estos sistemas tiene sus límites. Por ejemplo, si se les plantean preguntas emocionales o filosóficas, la IA contestará en esa misma dirección con respuestas que pueden ser consideradas alarmantes o confusas.

Así, Sejnowski concluye que “chatear con modelos de lenguaje es como andar en bicicleta. Son un modo de transporte maravilloso, si sabes usar una. Sino, te estrellas. Lo mismo pasa con los chatbots. Pueden ser herramientas útiles, pero sólo si sabes usarlas, o terminas siendo engañado y caes potencialmente en conversaciones perturbadoras”.