Los expertos recogieron que herramientas como ChatGPT pueden ser engañadas por ciberdelincuentes para generar código malicioso, ciberataques y robar información.

Un estudio realizado por expertos de la Universidad de Sheffield en Reino Unido, evidenció que herramientas como ChatGPT pueden utilizarse para generar ciberataques y robar información a través de código malicioso.

De acuerdo con el comunicado de la casa de estudios, el experimento lo hicieron académicos del Departamento de Ciencias de la Computación y sería el primero en comprobar que los sistemas de texto a SQL, como el de ChatGPT, pueden ser usados para atacar a otros sistemas informáticos.

Recordemos que los sistemas SQL son inteligencias artificiales que permiten a los usuarios hacer búsquedas en bases de datos con un lenguaje simple y que actualmente funcionan como una herramienta que se usa en muchas industrias de maneras diferentes.

Los expertos hicieron pruebas con distintas inteligencias artificiales, además del conocido chat de OpenAI, también utilizaron BAIDU-UNIT, AI2SQL, AIHELPERBOT, Text2SQL y ToolSKE.

Así, les hicieron preguntas muy específicas y detalladas, descubriendo que eran capaces de generar códigos maliciosos.

“Los investigadores descubrieron que si hacían preguntas específicas a cada una de las IA, producían código malicioso. Una vez ejecutado, el código filtraría información confidencial de la base de datos, interrumpiría el servicio normal de una base de datos o incluso la destruiría“, dice el comunicado.

¿Por qué las herramientas como ChatGPT podrían generar ciberataques?

Según Xutan Peng, estudiante de doctorado en Shieffeld que codirigió la investigación, “muchas empresas simplemente no son conscientes de este tipo de amenazas y, debido a la complejidad de los chatbots, incluso dentro de la comunidad, hay cosas que no se entienden del todo”.

“En este momento, ChatGPT está recibiendo mucha atención. Es un sistema independiente, por lo que los riesgos para el servicio en sí son mínimos, pero lo que descubrimos es que se puede engañar para que produzca código malicioso que puede causar graves daños a otros servicios”, agregó.

El equipo que llevó a cabo la investigación describió este uso como una “vulnerabilidad”. De hecho, en Baidu-UNIT, pudieron obtener configuraciones confidenciales su servidor y dejaron una parte de él fuera de servicio.

Incluso Baidu respondió a estos resultados y catalogó estas vulnerabilidades como “altamente peligrosas”. En la misma línea, la compañía tomó medidas, solucionó estas amenazas de sus sistemas y recompensó económicamente a los autores del estudio.

“Los usuarios de sistemas de texto a SQL deben ser conscientes de los riesgos potenciales destacados en este trabajo. Los modelos de lenguaje grandes, como los utilizados en los sistemas ‘Text-to-SQL’, son extremadamente potentes, pero su comportamiento es complejo y puede resultar difícil de predecir“, manifestó el Dr. Mark Stevenson, profesor titular del grupo de investigación de Procesamiento del Lenguaje Natural de la Universidad de Sheffield.

Además, agregó que su equipo sigue trabajando en ello, “en la Universidad de Sheffield estamos trabajando actualmente para comprender mejor estos modelos y permitir que se alcance todo su potencial de forma segura”.