
Forward Deployed Machine Learning Engineer Job at Black Forest Labs Inc. in San
Black Forest Labs Inc., San Francisco, CA, United States
Forward Deployed Machine Learning Engineer
What if the hardest part of generative AI isn't training the model, but making it work in production under constraints no one anticipated?
Our founding team pioneered Latent Diffusion and Stable Diffusion - breakthroughs that made generative AI accessible to millions. Today, our FLUX models power creative tools, design workflows, and products across industries worldwide.
Our FLUX models are best-in-class not only for their capability, but for ease of use in developing production applications. We top public benchmarks and compete at the frontier - and in most instances we're winning.
If you're relentlessly curious and driven by high agency, we want to talk.
With a team of ~50, we move fast and punch above our weight. From our labs in Freiburg - a university town in the Black Forest - and San Francisco, we're building what comes next.
What You'll Pioneer
Youll live at the intersection of cutting?edge research and brutal production reality. Your customers wont just want FLUX to worktheyll need it optimised for their specific hardware, fine?tuned for their unique use cases, and integrated into systems that werent designed for diffusion models in the first place.
Youll be the person who:
- Ensures FLUX models perform optimally in customer environmentswhether thats on?premise GPU clusters or BFL?hosted infrastructurebalancing the eternal tension between latency and output quality
- Architects deep product integrations that go far beyond heres an API endpointhelping customers with everything from model hosting and deployment to inference optimisation techniques that havent made it into textbooks yet
- Customises our foundation models for visual media to solve problems customers couldnt articulate until you helped them understand whats possible
- Sits in technical deep?dives with customers to diagnose performance bottlenecks, then translates those findings into solutions (and sometimes into research questions for our core team)
- Discovers where generative visual AI should go next by understanding what industries are struggling with problems we could solve
Questions Were Wrestling With
- What does optimal performance actually mean when one customer needs 100?ms latency and another needs photorealistic quality at any cost?
- How do you fine?tune a foundation model for a customers specific use case without losing what made it powerful in the first place?
- When should a customer run FLUX on their own infrastructure versus use our hosted solutionand how do we help them make that decision honestly?
- What inference optimisations work in theory but break in production, and vice versa?
- Which industries dont yet realise they have a generative visual AI problem we could solve?
Were figuring these out together, at the edge of whats technically possible.
Who Thrives Here
You understand diffusion models not just conceptually, but viscerallyyouve debugged them, optimised them, served them at scale. Youve been in the room when a customers integration goes wrong and you need to diagnose whether its a model issue, an infrastructure issue, or a fundamental misunderstanding of what the model can do.
You likely have:
- Direct experience working with customers on generative AI deploymentthe kind where youre iterating on solutions in real?time, not just following a playbook
- Hands?on expertise with generative modelling approaches, particularly finetuning, optimising and serving deep learning models in production environments
- A proven track record as an ML engineer whos shipped models that real systems depend on
- Strong Python skills and intuitive understanding of API design (because demos and prototypes are how you communicate whats possible)
- The ability to explain why a diffusion model is slow to an executive and how to fix it to an engineerin the same meeting
Wed be especially excited if you:
- Have deep knowledge of diffusion models and/or flow matching, including finetuning and distillation techniques that go beyond standard tutorials
- Know the FLUX ecosystem intimatelyComfyUI, common training frameworks, the tools practitioners actually use
- Have battle?tested experience optimising inference for transformer?based models (and the scars to prove it)
- Can architect solutions in complex enterprise environments where just add more GPUs isnt an option
- Contribute to open?source projects in the diffusion model space and understand the community
- Have deployed models on cloud platforms using state?of?the?art serving infrastructure
What Were Building Toward
Were not just supporting customerswere learning what it actually takes to bring frontier generative AI into production at scale. Every customer integration teaches us something we didnt know. Every optimisation challenge reveals gaps in our understanding. If that sounds more compelling than having all the answers documented, we should talk.
Base Annual Salary for SF based role: $180,000$300,000 USD (depending on experience)
Were based in Europe and value depth over noise, collaboration over hero culture, and honest technical conversations over hype. Our models have been downloaded hundreds of millions of times, but were still a ~50?person team learning whats possible at the edge of generative AI.
#J-18808-LjbffrIn Summary: Fronted team pioneered Latent Diffusion and Stable Diffusion - breakthroughs that made generative AI accessible to millions . Today, our FLUX models power creative tools, design workflows, and products across industries worldwide . With a team of ~50, we move fast and punch above our weight .
En Español:
Ingeniero de aprendizaje automático desplegado en el futuro
¿Qué pasa si la parte más difícil de la IA generativa no es entrenar el modelo, sino hacerlo funcionar en producción bajo restricciones que nadie anticipó?
Nuestro equipo fundador fue pionero en la difusión latente y estable, avances que hicieron que la IA generativa fuera accesible a millones de personas. Hoy nuestros modelos FLUX impulsan herramientas creativas, flujos de trabajo de diseño y productos en todas las industrias del mundo.
Nuestros modelos FLUX son los mejores de su clase no sólo por sus capacidades, sino también por la facilidad de uso en el desarrollo de aplicaciones productivas.
Si usted es implacablemente curioso y impulsado por la alta agencia, queremos hablar.
Con un equipo de unos 50 personas, nos movemos rápido y ponchamos por encima de nuestro peso. Desde nuestros laboratorios en Freiburg - una ciudad universitaria en el Bosque Negro - y San Francisco, estamos construyendo lo que viene después.
Lo que usted será pionero
Los clientes no sólo quieren que FLUX funcione, sino que lo necesitan optimizado para su hardware específico, ajustado a sus casos de uso únicos e integrado en sistemas que no estaban diseñados para modelos de difusión en primer lugar.
Tú serás la persona que:
- Asegura que los modelos FLUX funcionen de manera óptima en entornos de clientes, ya sean clusters GPU locales o infraestructuras alojadas por BFL, equilibrando la tensión eterna entre latencia y calidad de salida.
- Arquitectos integraciones profundas de productos que van mucho más allá aquí es una API punto final ayudan a los clientes con todo desde el alojamiento del modelo y la implementación para inferir técnicas de optimización que no lo han hecho en libros de texto todavía
- Personaliza nuestros modelos de base para medios visuales para resolver problemas que los clientes no pudieron articular hasta que les ayudaste a entender lo posible
- Se sumerge en profundidades técnicas con los clientes para diagnosticar cuellos de botella del rendimiento, luego traduce esos hallazgos en soluciones (y a veces en preguntas de investigación para nuestro equipo central)
- Descubre dónde debería ir la IA visual generativa al entender qué industrias están luchando con problemas que podríamos resolver
Las preguntas con las que luchaba
- ¿Qué significa el rendimiento óptimo cuando un cliente necesita una latencia de 100 ms y otro necesita calidad fotorealista a cualquier costo?
- ¿Cómo ajustar un modelo de base para un caso de uso específico del cliente sin perder lo que le hacía poderoso en primer lugar?
- ¿Cuándo debe un cliente ejecutar FLUX en su propia infraestructura versus utilizar nuestra solución alojada y cómo le ayudamos a tomar esa decisión con honestidad?
- ¿Qué optimizaciones de inferencias funcionan en teoría pero rompen la producción, y viceversa?
- ¿Qué industrias aún no se dan cuenta de que tienen un problema de IA visual generativa que podríamos resolver?
Estábamos resolviendo esto juntos, al borde de lo técnicamente posible.
Quienes prosperan aquí
Usted entiende los modelos de difusión no sólo conceptualmente, sino visceralmente.Los ha desactivado, optimizado y servido a gran escala.Ha estado en la sala cuando una integración con el cliente va mal y necesita diagnosticar si es un problema del modelo, un problema de infraestructura o una incomprensión fundamental sobre lo que puede hacer el modelo.
Es probable que tengas:
- Experiencia directa trabajando con los clientes en el despliegue de IA generativa, del tipo donde usted está iterando soluciones en tiempo real, no sólo siguiendo un manual
- Experiencia práctica con enfoques de modelado generativo, en particular la fine tuning, optimización y servicio a los modelos de aprendizaje profundo en entornos productivos
- Un historial comprobado como ingeniero ML que envió modelos de los cuales dependen los sistemas reales
- Fuertes habilidades Python y una comprensión intuitiva del diseño de API (porque las demostraciones y los prototipos son la forma en que se comunica lo posible)
- La capacidad de explicar por qué un modelo de difusión es lento para un ejecutivo y cómo fijarlo a un ingeniero en la misma reunión
Estarás especialmente emocionado si:
- Tener un profundo conocimiento de los modelos de difusión y/o coincidencia del flujo, incluidas las técnicas de ajuste fino y destilación que van más allá de los tutoriales estándar
- Conocer íntimamente el ecosistema FLUXComfyUI, los marcos comunes de formación y las herramientas que realmente utilizan los profesionales
- Tener experiencia probada optimizando la inferencia para los modelos basados en transformadores (y las cicatrices que lo demuestran)
- Puede arquitectar soluciones en entornos empresariales complejos donde añadir más GPUs no es una opción
- Contribuir a proyectos de código abierto en el ámbito del modelo de difusión y comprender la comunidad
- Ha implementado modelos en plataformas de nube que utilizan infraestructuras de última generación
Lo que estaba construyendo hacia el futuro
Si no solo apoyamos a los clientes, estamos aprendiendo lo que realmente se necesita para llevar la IA generadora de fronteras a producción en escala. Cada integración con el cliente nos enseña algo que no sabíamos.
Salario anual base para un puesto basado en SF: $180,000$300,000 USD (dependiendo de la experiencia)
Nuestros modelos han sido descargados cientos de millones de veces, pero todavía eran un equipo de ~50 personas aprendiendo lo que era posible en el borde de la IA generativa.
#J-18808-Ljbffr