En Hackmetrix, ayudamos a las empresas a construir confianza a través de la ciberseguridad. Nuestra plataforma combina tecnología + consultoría para que empresas mid-market logren certificaciones como ISO
- y validen la seguridad de sus sistemas con servicios de Ethical Hacking. Ahora estamos creando algo radicalmente reciente : una interfaz basada en inteligencia artificial capaz de proponer y diseñar ataques, así como ayudar a nuestros pentesters en la explotación y documentación de los mismos. Y necesitamos tu ayuda para llevarla más lejos. El reto : Búsqueda de un Research Engineer que combine pensamiento algorítmico, mentalidad hacker y sensibilidad por la ingeniería de producto. Tu misión será desarrollar agentes inteligentes que automaticen flujos de prueba y validación de seguridad, integrando modelos de AI con nuestra plataforma de pentesting. Lo que harás : Diseñar, prototipar y mantener agentes basados en LLMs que interactúan con entornos, ejecutan pruebas y generan evidencia automatizada. Integrar estos sistemas con nuestros pipelines de Ethical Hacking y módulos de cumplimiento. Crear y mantener frameworks de pruebas automatizadas (funcionales, seguridad, regresión, adversarial). Colaborar con el equipo de producto y ofensiva para mejorar la cobertura, fiabilidad y eficiencia de nuestras validaciones. Medir el rendimiento de tus agentes en entornos reales : cobertura, falsos positivos, reproducibilidad. Mantener la infraestructura necesaria para experimentos controlados y despliegue progresivo. Documentar bien tus decisiones y compartir aprendizajes con el equipo (valoramos escribir bien). Calificaciones : Experiencia práctica con LLMs (OpenAI, Claude, open source) y arquitecturas de orquestación (prompt flows, RAG, agentes). Dominio de Python y al menos una experiencia en diseño de APIs o servicios backend. Experiencia creando pruebas automatizadas : scripting, asserts, validación, mocking. Familiaridad con conceptos de seguridad ofensiva (OWASP, CVEs, pruebas comunes). Conocimiento de herramientas como Docker, Git, y algún entorno de CI / CD. Capacidad de traducir ideas en prototipos funcionales de forma autónoma. Mentalidad experimental : iterar, medir, aprender. Plus (no excluyentes) : Experiencia en MLOps, fine-tuning, evaluación de modelos generativos. Conocimientos de Go, TypeScript o Kotlin. Experiencia en arquitecturas distribuidas, cloud (AWS / GCP), pub / sub. Cómo trabajamos : Ciclos iterativos rápidos : "probar antes de perfeccionar". Mucha autonomía, poco micromanagement. Somos obsesivos con la experiencia del usuario y la calidad de nuestros entregables. Creemos que el cumplimiento no debe ser un infierno : debe sentirse como magia. Proyecto con impacto regional : más de 170 empresas confían en Hackmetrix. Espacio para experimentar con IA aplicada a problemas reales de seguridad. Cultura de excelencia, sin ego. Horario flexible, remoto-first. Plan de crecimiento y participación en equity. Ubicación : México, Chile, Colombia, Argentina. Cómo aplicar : Escríbenos contándonos : qué AI agents has construido (o te gustaría construir). Cómo automatizarías la validación de una vulnerabilidad con un modelo. No necesitas haber hecho exactamente esto antes. Pero sí necesitas la voluntad de explorarlo. #J-
- Ljbffr
#J-18808-Ljbffr