VER RESUMEN

Resumen automático generado con Inteligencia Artificial

El sistema de inteligencia artificial implementado por Google en su buscador, conocido como "Resúmenes de IA", ha generado confusión entre los usuarios al proporcionar respuestas inexactas y a veces ridículas, como mezclar pegamento con salsa, comer rocas pequeñas diariamente, permitir que un gato te lama para decidir si eres comestible, o afirmar que las serpientes pitón tienen más huesos que cualquier mamífero vertebrado. A pesar de haber estado en fase de pruebas por más de un año, estas respuestas provocaron una ola de memes en redes sociales. Ante la situación, Google salió en defensa de la plataforma, prometiendo mejoras y asegurando que la gran mayoría de las respuestas de su IA son fiables. La compañía está tomando medidas rápidas para corregir los errores y mejorar su sistema, con planes de expansión que incluyen razonamiento en varios pasos y nuevas funcionalidades. Este incidente no es el primero en el ámbito de la inteligencia artificial, ya que en 2022 Meta presentó un bot con problemas similares.

Desarrollado por BioBioChile

“Mezcla aproximadamente 1/8 de taza de pegamento Elmer con la salsa. Pegamento no tóxico funcionará”. “Según geólogos de la UC Berkeley, debes comer al menos una roca pequeña al día”. “Un gato puede lamerte para saborearte y ver si eres apto para su consumo”. “La serpiente pitón tiene más huesos que cualquier mamífero vertebrado”. Esas son algunas de las respuestas que el sistema “Resúmenes de IA” (AI Overview) implementado por Google en su icónico buscador ha dado a los usuarios, causando confusión en su intento de implementar inteligencia artificial generativa en sus productos.

Respuestas como esas llegaron incluso a causar una oleada de memes en redes sociales, con pantallazos dando cuenta de respuestas que iban desde lo impreciso hasta lo ridículo, pese a que el sistema pasó más de un año en etapa de pruebas.

En consecuencia, Google salió a defender la plataforma y prometer mejoras: “Muchos de los ejemplos que hemos visto han sido consultas poco comunes, y también hemos visto ejemplos trucados o que no hemos podido reproducir”, sostuvo Meghann Farnsworth, vocera de la compañía ante The Verge.

Según el gigante de Silicon Valley, la inmensa mayoría de las respuestas elaboradas por su IA proporcionan información fiable y las barreras de seguridad integradas en la tecnología están diseñadas para evitar que aparezcan contenidos nocivos.

Sin embargo, aseguró que están tomando “medidas rápidas” para corregir la situación, retirando AI Overview “cuando proceda cuando sea apropiado considerando nuestras políticas de contenidos, y utilizando estos ejemplos para desarrollar mejoras más amplias en nuestros sistemas, algunas de las cuales ya han empezado a implantarse”.

Aquel paso es clave, por cuanto la tecnológica ya anticipó que espera implementar AI Overview a un nivel mucho mayor que lo recientemente anunciado, incluyendo razonamiento en varios pasos para consultas complejas, posibilidad de generar una página de resultados organizada por la inteligencia artificial, e incluso búsqueda de vídeos en Google Lens.

En cualquier caso, no es la primera vez que algo similar ocurre: el especialista en IA Gary Marcus recuerda a The Verge que, en 2022, Meta presentó Galáctica, un bot que -entre otros problemas- sugirió a los usuarios comer vidrio.