Ni email ni SMS: el nuevo sistema de seguridad de ChatGPT cambia las reglas para siempre
OpenAI ha introducido un nuevo sistema de seguridad avanzado en ChatGPT y sus otras apps para mejorar la protección de las cuentas y evitar ataques.
El auge de la inteligencia artificial en los últimos tiempos está haciendo que muchos usuarios cada vez valoren más las medidas para proteger sus cuentas y la información de su trabajo o sus proyectos personales, y OpenAI ha decidido ponerse manos a la obra en este asunto.
La compañía estadounidense ha incorporado recientemente una nueva opción de seguridad avanzada que ya pueden habilitar los usuarios de sus principales aplicaciones como la de uso general ChatGPT o la de programación Codex, como explica OpenAI en un comunicado.
Estas medidas están al acceso para todas las cuentas de usuario de OpenAI, pero se dirigen especialmente a quienes por la información que manejan corren mayor riesgo de sufrir ataques digitales, quienes no se pueden permitir perder el control de su cuenta o simplemente quienes quieren tener el máximo cuidado posible, sobre todo teniendo en cuenta que cada vez se comparten datos más personales con la IA.
Todas las nuevas medidas de protección de ChatGPT
En primer lugar, OpenAI ya permite la autenticación en sus cuentas a través de llaves de seguridad, con soporte para las YubiKeys, y de hecho en su nueva opción de máxima seguridad ya no es posible acceder usando contraseñas convencionales.
Otro de los aspectos que la compañía de Sam Altman ha reforzado ha sido el proceso de recuperación de cuentas, esencial para los casos en los que se produce un ataque a una de las direcciones de correo electrónico vinculadas a herramientas como ChatGPT.
Para reducir el riesgo de que los atacantes se hagan con la cuenta de OpenAI, la configuración avanzada de seguridad no permite usar SMS ni email para la verificación de doble factor, sino métodos más seguros como las llaves de seguridad, aunque estas medidas de seguridad adicionales hacen que la empresa no pueda asistir al usuario en caso de ayuda.
La compañía de IA también ha reducido el tiempo de duración de sus sesiones hasta pedir identificarse de nuevo, de forma que se reduce el riesgo de ataque mientras los usuarios tienen sesiones activas en segundo plano. Para ello, se han añadido alertas para cuando una persona inicia sesión para poder comprobar la actividad.
Y la última, pero quizá la función más interesante, si los usuarios han activado las nuevas medidas de protección avanzadas de OpenAI, por defecto su información no se utilizará parta entrenar nuevos modelos de inteligencia artificial.
Esto, que desde los inicios de la IA generativa siempre ha sido uno de los mayores riesgos para quienes manejan información clasificada o sensible, es algo que antes había que solicitar manualmente, pero ahora pasa a ser automático.
La activación de estas medidas de seguridad es opcional para todos los usuarios, pero habrá algunos para los que sea obligatoria, concretamente a los miembros de su programa de ciberseguridad Trusted Access for Cyber. Se les activará automáticamente el 1 de junio.
Roberto Corrales
Redactor
Roberto Corrales escribe sobre actualidad tecnológica, prueba dispositivos de todo tipo y escribe reportajes.