OpenAI abrió una convocatoria laboral inusual ofreciendo un salario superior a 555 mil dólares anuales para cubrir un puesto dedicado exclusivamente a anticipar y contener los riesgos más graves de la inteligencia artificial avanzada. La oferta, anunciada por el CEO Sam Altman, incluye una advertencia poco común: será un trabajo estresante que requiere inmersión total desde el primer día.
El cargo de ‘Responsable de Preparación’ tendrá una responsabilidad crítica en momentos en que los modelos de IA avanzan a velocidad sin precedentes. Estos sistemas ya no solo generan texto o imágenes, sino que detectan vulnerabilidades de seguridad, influyen en estados mentales y desarrollan capacidades que podrían utilizarse con fines destructivos. Según la compañía, en 2025 ya han documentado impactos en la salud mental y observan cómo los modelos se vuelven competentes en ciberseguridad.
La persona seleccionada será responsable directo de la maquinaria de seguridad: evaluaciones técnicas, modelos de amenaza, pruebas de abuso y decisiones de lanzamiento. Una de sus funciones principales será determinar si un modelo de IA es demasiado peligroso para liberar, incluso si eso implica perder ventaja competitiva. OpenAI supervisa áreas de ‘daño severo’ como ciberseguridad, capacidades biológicas y químicas, y sistemas con auto-mejora.
Esta iniciativa refleja tensiones internas en la industria sobre seguridad versus velocidad de desarrollo. OpenAI enfrenta demandas, escrutinio regulatorio y desconfianza pública creciente. Encuestas recientes muestran que la mayoría de estadounidenses ve más riesgos que beneficios en la expansión de IA. La alta remuneración del puesto señala que la compañía intenta responder a críticas pasadas colocando responsabilidad directa en una persona con autoridad real para frenar lanzamientos si es necesario.














































