
Virtue AI is hiring: AI Safety ML Infrastructure Engineer in San Francisco
Virtue AI, San Francisco, CA, United States
An innovative AI security startup in San Francisco seeks an Applied Machine Learning Engineer to develop robust ML systems that address AI safety challenges. The ideal candidate will have a degree in Computer Science or related fields, 2+ years of experience, and proficiency in Python and ML frameworks. Responsibilities include designing AI risk mitigation systems and collaborating with teams to ensure safety objectives. This role offers an exciting opportunity to shape the future of AI applications.
#J-18808-Ljbffr
In Summary: The ideal candidate will have a degree in Computer Science or related fields, 2+ years of experience, and proficiency in Python and ML frameworks . Responsibilities include designing AI risk mitigation systems and collaborating with teams to ensure safety objectives . This role offers an exciting opportunity to shape the future of AI applications .
En Español: Una startup innovadora de seguridad AI en San Francisco busca un ingeniero de aprendizaje automático aplicado para desarrollar sistemas robustos de inteligencia artificial que aborden los desafíos de seguridad de la IA. El candidato ideal tendrá una licenciatura en Ciencias de la Computación o campos relacionados, más de 2 años de experiencia y competencia en Python y marcos ML. Las responsabilidades incluyen diseñar sistemas de mitigación de riesgos de IA y colaborar con equipos para garantizar objetivos de seguridad.
#J-18808-Ljbffr
In Summary: The ideal candidate will have a degree in Computer Science or related fields, 2+ years of experience, and proficiency in Python and ML frameworks . Responsibilities include designing AI risk mitigation systems and collaborating with teams to ensure safety objectives . This role offers an exciting opportunity to shape the future of AI applications .
En Español: Una startup innovadora de seguridad AI en San Francisco busca un ingeniero de aprendizaje automático aplicado para desarrollar sistemas robustos de inteligencia artificial que aborden los desafíos de seguridad de la IA. El candidato ideal tendrá una licenciatura en Ciencias de la Computación o campos relacionados, más de 2 años de experiencia y competencia en Python y marcos ML. Las responsabilidades incluyen diseñar sistemas de mitigación de riesgos de IA y colaborar con equipos para garantizar objetivos de seguridad.