Mediabistro logo
job logo

Data Scientist, Applied AI - Latin America - Remote Job at Azumo in San Francisc

Azumo, San Francisco, CA, United States


Azumo is currently looking for a highly motivated Data Scientist / Machine Learning Engineer to develop and enhance our data and analytics infrastructure. The position is FULLY REMOTE , based in Latin America.

This position will provide you with the opportunity to collaborate with a dynamic team and talented data scientists in the field of big data analytics and applied AI . If you have a passion for designing and implementing advanced machine learning and deep learning models, particularly in the Generative AI space, this role is perfect for you. We are seeking a skilled professional with expertise in Python for production-level projects, proficiency in machine learning and deep learning techniques such as CNNs and Transformers , and hands‑on experience working with PyTorch .

We’re looking for a versatile Machine Learning Engineer / Data Scientist to join our big‑data analytics team. In this hybrid role you’ll not only design and prototype novel ML/DL models , but also productionize them end‑to‑end, integrating your solutions into our data pipelines and services. You’ll work closely with data engineers, software developers and product owners to ensure high‑quality, scalable, maintainable systems.

Key Responsibilities
Model Development & Productionization

Design, train, and validate supervised and unsupervised models (e.g., anomaly detection, classification, forecasting).

Architect and implement deep learning solutions (CNNs, Transformers) with PyTorch .

Develop and fine‑tune Large Language Models (LLMs) and build LLM‑driven applications.

Implement Retrieval‑Augmented Generation (RAG) pipelines and integrate with vector databases.

Build robust pipelines to deploy models at scale ( Docker , Kubernetes , CI/CD ).

Data Engineering & MLOps

Ingest, clean and transform large datasets using libraries like pandas , NumPy , and Spark .

Automate training and serving workflows with Airflow or similar orchestration tools.

Monitor model performance in production; iterate on drift detection and retraining strategies.

Implement LLMOps practices for automated testing, evaluation, and monitoring of LLMs.

Software Development Best Practices

Write production‑grade Python code following SOLID principles, unit tests and code reviews.

Collaborate in Agile (Scrum) ceremonies; track work in JIRA .

Document architecture and workflows using PlantUML or comparable tools.

Cross‑Functional Collaboration

Communicate analysis, design and results clearly in English.

Partner with DevOps, data engineering and product teams to align on requirements and SLAs.

At Azumo we strive for excellence and strongly believe in professional and personal growth. We want each individual to be successful and pledge to help each achieve their goals while at Azumo and beyond. Challenging ourselves and learning new technologies is at the core of what we do. We believe in giving back to our community and will volunteer our time to philanthropy, open source initiatives and sharing our knowledge.

Based in San Francisco, California, Azumo is an innovative software development firm helping organizations make insightful decisions using the latest technologies in data, cloud and mobility. We combine expertise in strategy, data science, application development and design to drive digital transformation initiatives for companies of all sizes.

If you are qualified for the opportunity and looking for a challenge please apply online at Azumo/join-our-team or connect with us at people@azumo.co

Minimum Qualifications

Bachelor’s or Master’s in Computer Science, Data Science or related field.

5+ years of professional experience with Python in production environments.

Solid background in machine learning & deep learning ( CNNs , Transformers , LLMs ).

Hands‑on experience with PyTorch or similar frameworks (training, custom modules, optimization).

Proven track record deploying ML solutions .

Expert in pandas , NumPy and scikit‑learn .

Familiarity with Agile/Scrum practices and tooling ( JIRA , Confluence ).

Strong foundation in statistics and experimental design.

Excellent written and spoken English.

Preferred Qualifications

Experience with cloud platforms ( AWS , GCP , or Azure ) and their AI‑specific services like Amazon SageMaker , Google Vertex AI , or Azure Machine Learning .

Familiarity with big‑data ecosystems ( Spark , Hadoop ).

Practice in CI/CD & container orchestration ( Jenkins/GitLab CI , Docker , Kubernetes ).

Exposure to MLOps/LLMOps tools ( MLflow , Kubeflow , TFX ).

Experience with Large Language Models , Generative AI , prompt engineering , and RAG pipelines .

Hands‑on experience with vector databases (e.g., Pinecone , FAISS ).

Experience building AI Agents and using frameworks like Hugging Face Transformers , LangChain or LangGraph .

Documentation skills using PlantUML or similar.

Benefits

Paid time off (PTO)

U.S. Holidays

Training

Udemy free Premium access

Mentored career development

Profit Sharing

$US Remuneration

#J-18808-Ljbffr



En Español:

Azumo está buscando actualmente un científico de datos / ingeniero de aprendizaje automático altamente motivado para desarrollar y mejorar nuestra infraestructura de datos y análisis. El puesto es FULLY REMOTE, con sede en América Latina. Este puesto le brindará la oportunidad de colaborar con un equipo dinámico y científicos de datos talentosos en el campo del análisis de grandes datos y la IA aplicada. Si usted tiene una pasión por diseñar e implementar modelos avanzados de aprendizado de máquina y aprendizaje profundo, especialmente en el espacio de la IA generativa, este papel es perfecto para usted. Buscamos un profesional calificado con experiencia en Python para proyectos de nivel de producción, competencia en aprendizaje de máquinas y técnicas de aprendizamiento profundo como CNN roles y transformadores , y experiencia práctica trabajando con PyTorch. buscamos a un ingeniero/científico de máquina versátil para unirse a nuestro equipo de análisis de datos de datos. En este servicio de datos, no solo diseñará y desarrollará nuevos modelos híbridos, sino que también los integrará en nuestras líneas de producción de prototipos, así como en nuestras soluciones híbridas y prototipos. Trabajará en estrecha colaboración con ingenieros de datos, desarrolladores de software y propietarios de productos para garantizar sistemas de alta calidad, escalables y mantenibles. Implementará tuberías de desarrollo de modelos y producción clave Diseño, capacitación e validación de modelos supervisados y no supervisados (por ejemplo, detección de anomalías, clasificación, pronóstico). Arquitecto e implementará soluciones de aprendizaje profundo (CNNs, transformadores) con PyTorch. Desarrollará y perfeccionará modelos de lenguaje grande (LLMs) y construirá aplicaciones impulsadas por LLM. Implemente la recuperación-generación aumentada (RAG) y se integrará con bases de datos vectoriales. Construya tuberías robustas para implementar modelos a escala (Docker, Iternetas de datos , LL/CDMs). Queremos que cada individuo tenga éxito y nos comprometemos a ayudar a cada uno a alcanzar sus objetivos mientras esté en Azumo y más allá. Desafiarse a nosotros mismos y aprender nuevas tecnologías es el núcleo de lo que hacemos. Creemos en devolver a nuestra comunidad y dedicaremos nuestro tiempo voluntariamente a la filantropía, las iniciativas de código abierto y compartir nuestro conocimiento. Con sede en San Francisco, California, Azumo es una empresa innovadora de desarrollo de software que ayuda a las organizaciones a tomar decisiones inteligentes utilizando las últimas tecnologías en datos, nube y movilidad. Combinamos experiencia en estrategia, ciencia de datos, desarrollo de aplicaciones y diseño para impulsar iniciativas de transformación digital para empresas de todos los tamaños. Si usted está calificado para la oportunidad y busca un desafío, por favor solicite en línea en Azumo/joínese a nuestro equipo o comuníquese con nosotros en people@azumo.co Qualifications Minimum Bachelors o Masters en Informática, Ciencia de Datos o campo relacionado. 5+ años de experiencia profesional con Python en entornos de producción. Un fondo sólido en aprendizaje automático y aprendizaje profundo (CNN, Transformers , LLMs). Experiencia práctica con PyTorch o marcos similares (entrenamiento, módulos, optimización). Prueba de implementación de soluciones. Experto en pandas, AWS Benefitory y scikit-learn. Familiaridad con las prácticas de aprendizaje Agile/Scrum y Aging (JCPI), Confluencia de trabajo en las plataformas de diseño de piezas y de datos escritas y de alta calidad (CAG), Experiencia avanzada con las herramientas de desarrollo de conocimiento de las computadoras y las máquinas, como los sistemas de inteligencia artificial avanzada (AI, AI, AI) y las tecnologías avanzadas (API), así como las grandes tecnologías de construcción de datos (Acefacultador de conocimientos de datos y tecnología avanzada, como las plataformes de aprendizajes de uso de las aguas, CLI, TLS, CSI, CGI, CPI, CIP, etc.). Entrenamiento de vacaciones Udemy gratuito Acceso premium Desarrollo profesional con mentores División de beneficios US$ Remuneración #J-18808-Ljbffr.