Hackeo, despido y dudas: OpenAI en el ojo del huracán por su gestión de la seguridad.
Las propias fuentes del New York Times informaron que en 2023, el foro interno de los empleados de OpenAI fue pirateado y el atacante logró robar datos desde allí. OpenAI no informó públicamente el incidente ni notificó a las autoridades porque, según la compañía, el pirata informático no obtuvo acceso a la información del cliente o socio y el ataque no se consideró una amenaza a la seguridad nacional.
Los ejecutivos de OpenAI que informaron del hack a los empleados sintieron que el ataque no era gran cosa porque supuestamente fue llevado a cabo por una sola persona ajena a gobiernos extranjeros. Además, el hack no afectó a los datos de los clientes y socios de la empresa, ni a los sistemas en los que se almacenan y desarrollan los productos de IA de OpenAI.
Sin embargo, según la publicación y fuentes que prefirieron permanecer en el anonimato, el incidente provocó un acalorado debate interno dentro de la empresa sobre la seriedad con la que OpenAI se toma las cuestiones de seguridad.
“Después del hack, Leopold Aschenbrenner, director del programa técnico de OpenAI responsable de garantizar que las futuras tecnologías de IA no causen daños graves, envió un memorando a la junta directiva de OpenAI diciendo que la empresa no estaba haciendo lo suficiente para que los gobiernos chinos y otros gobiernos extranjeros no pudieran robar sus secretos. ”, escribe The New York Times.
A principios de este año, Aschenbrenner fue despedido, supuestamente por filtrar información. Sin embargo, él mismo tiene una opinión diferente. Entonces, a principios de junio de 2024, en un podcast con Dwarkesh Patel, Aschenbrenner dijo:
“OpenAI informó a los empleados que me despidieron por una violación de datos. Otras personas y yo los presionamos para que respondieran a la pregunta de de qué se trataba esta filtración. Aquí está su respuesta: En algún momento del año pasado, escribí un documento de lluvia de ideas sobre la preparación, la seguridad y las medidas de protección necesarias en el futuro en el camino hacia AGI. Compartí este artículo con tres investigadores externos para recibir comentarios. Esta fue la fuga. Antes de compartir el documento con expertos, lo revisé en busca de datos confidenciales”.
También en el podcast, Aschenbrenner aludió al hack mencionado anteriormente y afirmó que la seguridad de OpenAI es claramente insuficiente para proteger contra el robo de secretos clave, especialmente si la empresa se ve comprometida por hackers extranjeros.