Fuga de Seguridad en ChatGPT: Investigador Hackea Memoria Exponiendo una Gran Vulnerabilidad
Un reciente estudio ha revelado una deficiencia significativa en el sistema de seguridad del AI conversacional ChatGPT, desarrollado por OpenAI. Un investigador conocido por el seudónimo "Mister_P" demostró cómo logró eludir los mecanismos de protección integrados que dependen de la memoria del modelo para almacenar información sobre interacciones previas. Este incidente destaca los riesgos potenciales asociados con el uso de AI en aplicaciones que procesan datos sensibles.
Mister_P describió cómo pudo extraer información personal, como nombres de usuario y direcciones de correo electrónico, junto con otros datos sensibles que habían sido introducidos previamente en el sistema. Según él, la vulnerabilidad se descubrió al probar la función de memoria de ChatGPT, donde notó que el modelo podía retener información más allá de las sesiones. Así, el investigador pudo crear condiciones para acceder a estos datos sin necesidad de autorización.
Los expertos en seguridad advierten que tal fuga de datos podría exponer potencialmente a los usuarios a amenazas y llevar a ataques más graves, como phishing o robo de identidad. A pesar de que OpenAI ya ha lanzado actualizaciones destinadas a mejorar la seguridad, este incidente una vez más plantea interrogantes sobre la necesidad de un control estricto sobre los sistemas de AI y sus capacidades.
Entre las recomendaciones para los usuarios está el seguimiento de la información que ingresan en los chatbots y verificar cada solicitud por cuestiones de confidencialidad. Este evento enfatiza la importancia de la seguridad en la tecnología y abre nuevas discusiones sobre cómo mejorar la protección de los sistemas de inteligencia artificial en el futuro.
#security #privacy #AI #ChatGPT #breach #vulnerability #data #protection