Por Jason Nelson
4 min lectura
El jueves, OpenAI presentó Advanced Account Security, una nueva configuración opcional para ChatGPT diseñada para usuarios que desean mayor protección o que enfrentan mayores riesgos de ataques digitales.
La empresa señaló que la nueva función fue creada en respuesta al creciente uso de ChatGPT para tareas más sensibles y de alto riesgo.
"Las personas recurren a la IA para preguntas profundamente personales y trabajos cada vez más importantes. Con el tiempo, una cuenta de ChatGPT puede contener contexto personal y profesional sensible, y convertirse en el centro de herramientas y flujos de trabajo conectados", afirmó OpenAI en un comunicado. "Para algunas personas, como periodistas, funcionarios electos, disidentes políticos, investigadores y quienes son especialmente conscientes de la seguridad, las apuestas son aún más altas".
OpenAI agregó que la función está diseñada para dar a los usuarios mayor control sobre la seguridad y privacidad, centralizando las protecciones en un solo lugar.
Disponible en la configuración de la cuenta web, la función aplica a las cuentas de ChatGPT y Codex que utilicen el mismo inicio de sesión, y requiere llaves de acceso o llaves de seguridad físicas en lugar de contraseñas, al tiempo que limita la recuperación de cuenta a llaves de acceso de respaldo, llaves de seguridad o claves de recuperación, eliminando las opciones de correo electrónico y SMS. Esto significa que OpenAI no podrá asistir en la recuperación de cuentas si esos métodos no están disponibles.
"El uso de llaves de seguridad físicas, como las YubiKeys, es una de las defensas más sólidas contra el phishing", escribió la compañía. "Para facilitar el acceso a ese nivel de protección, nos hemos asociado con Yubico, líder en autenticación basada en hardware y protección de cuentas, para ofrecer a nuestros usuarios precios preferenciales en un paquete personalizado de llaves de seguridad de primer nivel".
OpenAI indicó que ofrecerá un descuento en un paquete que incluye dos llaves para uso cotidiano y respaldo. Los usuarios también podrán utilizar otras llaves de seguridad compatibles con FIDO o llaves de acceso basadas en software.
Las sesiones de inicio de sesión se acortan para limitar la exposición en caso de que un dispositivo se vea comprometido. Los usuarios reciben alertas de inicio de sesión y pueden revisar las sesiones activas en todos sus dispositivos. La configuración también modifica el manejo de los datos del usuario: las conversaciones de las cuentas inscritas en Advanced Account Security quedan excluidas automáticamente del entrenamiento de modelos.
OpenAI no respondió de inmediato a una solicitud de comentarios de Decrypt.
El anuncio llega en medio de la continua proliferación de ataques de phishing con estafas cada vez más convincentes.
En marzo, un desarrollador de OpenClaw fue atraído hacia una estafa de phishing dirigida a billeteras cripto a través de una cuenta falsa de Github. Ese mismo mes, el dominio de Bonk.fun fue secuestrado por estafadores para lanzar prompts que vaciaban billeteras. A inicios de este mes, una aplicación falsa de Ledger robó más de $9 millones a más de 50 usuarios.
El lanzamiento de Advanced Account Security también incluye cambios para los usuarios del programa "Trusted Access for Cyber" de OpenAI, que ofrece acceso a modelos más capaces y permisivos. Los miembros del programa deberán activar Advanced Account Security a partir del 1 de junio. Las organizaciones podrán, en su lugar, confirmar que utilizan autenticación resistente al phishing a través de sistemas de inicio de sesión único.
"La privacidad y la seguridad son fundamentales en la forma en que desarrollamos todos nuestros productos, y continuaremos invirtiendo en protecciones que brinden a las personas mayor control y salvaguardas más sólidas con el tiempo", escribió OpenAI. "Esperamos extender este trabajo a audiencias adicionales, incluyendo entornos empresariales, donde una mayor seguridad de cuentas puede ser igual de importante".
Decrypt-a-cookie
This website or its third-party tools use cookies. Cookie policy By clicking the accept button, you agree to the use of cookies.