Mediabistro logo
job logo

OneMarketData is hiring: Data Engineer (Service team) in New York

OneMarketData, New York, NY, United States


Data Engineer Opportunity

OneMarketData is continuously searching for bright talent with the skills to make an impact. From developers to data scientists, at OneTick, you will have the opportunity to develop and enhance your problem-solving skills using a combination of analytics, imagination, and talent.

We're a leading RegTech company, delivering advanced market and trade surveillance solutions to some of the world's top financial institutions including regulators, exchanges, and brokers.

Our flagship product, OneTick Trade Surveillance, was named Best Trade Surveillance Solution at the TradingTech Insight Awards USA 2025, and is trusted to detect complex forms of market manipulation.

Every day, our systems process and analyze massive volumes of market data - helping firms stay compliant with global regulatory standards like MiFID II, SEC, FINRA, ASIC, and IIROC.

We're looking for a Data Engineer to help us build and maintain reliable, scalable data workflows that power our trade surveillance platform.

You'll thrive in this role if you're someone who:

  • Are a curious and adaptable engineer who enjoys working with complex data flows, transforming large datasets, and adapting systems to real-world business needs
  • Want to deepen your skills and further develop as a Data Engineer or Python developer
  • Have a genuine interest in the investing and trading domain and are excited about gaining international experience and career opportunities in a high-impact field

Tech stack:

  • AWS (EFS, EC2, SGW, ASG, NLB, and more)
  • Terraform & Ansible for infrastructure as code
  • Kubernetes (K8s) and Docker
  • Grafana & Sentry for observability (metrics, logs, alerts)
  • OneTick time-series database
  • Apache Airflow for data-processing pipelines
  • Python 3 as the primary programming and scripting language

What you'll do:

  • Build, maintain, and customize ETL pipelines that process large volumes of data on a daily basis
  • Investigate data processing issues and resolve them
  • Collaborate directly with clients to gather requirements, provide updates, and ensure successful delivery of data workflows

Requirements:

  • Linux: confident with the command line and system fundamentals
  • GitLab / Git: working knowledge of Git, understanding of core branching strategies (Git Flow, GitHub Flow, GitLab Flow) and main git commands
  • Python: hands-on experience with Python and main tools for data manipulation: Pandas, Numpy, working with datetimes, string transformations
  • English: professional working proficiency (spoken and written)

Will be considered an advantage:

  • Kubernetes & Docker: ability to explore a cluster, inspect pods/containers
  • Experience working with Apache Airflow (especially for managing data processing pipelines)
  • Basic knowledge of financial markets and trading workflows: common asset classes (e.g., equities, derivatives, fixed income), trade lifecycle events, and corporate actions

What we offer:

  • Flexible working arrangements: full remote, hybrid, or office-based, depending on your location and preferences
  • Competitive compensation, aligned with your experience, skillset, education, and local market standards
  • Regular performance reviews linked to salary adjustments
  • Medical insurance for you and immediate family members
  • Professional-development budget to support courses, certifications, and conferences
  • Supportive international team

The position will require a background check, signed NDA, signed contract, and signed GDPR processor passthrough agreement (since we act as a data processor under GDPR). Salaries will be commensurate with experience, education, skillset, and local norms.



In Summary: OneMarketData is looking for a Data Engineer to help us build reliable, scalable data workflows that power our trade surveillance platform . The position will require a background check, signed NDA, signed contract, and signed GDPR processor passthrough agreement (since we act as a data processor under GDPR)

En Español:
Oportunidad para ingenieros de datos

OneMarketData está buscando continuamente talentos brillantes con las habilidades para tener un impacto. Desde desarrolladores hasta científicos de datos, en OneTick tendrás la oportunidad de desarrollar y mejorar tus habilidades de resolución de problemas utilizando una combinación de análisis, imaginación y talento.

Somos una empresa líder en RegTech, ofreciendo soluciones avanzadas de vigilancia del mercado y el comercio a algunas de las principales instituciones financieras del mundo incluyendo reguladores, bolsas y corredores.

Nuestro producto insignia, OneTick Trade Surveillance, fue nombrado la mejor solución de vigilancia comercial en los TradingTech Insight Awards USA 2025, y se confía en detectar formas complejas de manipulación del mercado.

Todos los días, nuestros sistemas procesan y analizan enormes volúmenes de datos del mercado - ayudando a las empresas a mantenerse en conformidad con estándares regulatorios globales como MiFID II, SEC, FINRA, ASIC e IIROC.

Buscamos un Ingeniero de Datos para ayudarnos a construir y mantener flujos de trabajo fiables y escalables que impulsen nuestra plataforma de vigilancia comercial.

Usted prosperará en este papel si usted es alguien que:

  • Es un ingeniero curioso y adaptable que disfruta trabajando con flujos de datos complejos, transformando grandes conjuntos de datos y adaptando los sistemas a las necesidades empresariales del mundo real
  • Quiere profundizar sus habilidades y desarrollarse como ingeniero de datos o desarrollador de Python
  • Tener un interés genuino en el ámbito de la inversión y del comercio y estar entusiasmados por adquirir experiencia internacional y oportunidades profesionales en un campo de alto impacto

Estaca técnica:

  • Las medidas de ayuda se basan en los criterios establecidos en el apartado 1 del presente artículo.
  • Terraform & Ansible para infraestructura como código
  • Kubernetes (K8s) y Docker
  • Grafana & Sentry para observabilidad (medicinas, registros y alertas)
  • Base de datos de series temporales OneTick
  • Apache Airflow para las tuberías de procesamiento de datos
  • Python 3 como lenguaje primario de programación y scripting

Lo que vas a hacer:

  • Construir, mantener y personalizar las tuberías ETL que procesan grandes volúmenes de datos diariamente
  • Investigar y resolver los problemas relacionados con el tratamiento de datos
  • Colaborar directamente con los clientes para reunir requisitos, proporcionar actualizaciones y garantizar la entrega exitosa de flujos de trabajo de datos

Requisitos:

  • Linux: confiado en la línea de comandos y los fundamentos del sistema
  • GitLab / Git: conocimiento de trabajo de Git, comprensión de las estrategias básicas de ramificación (Git Flow, GitHub Flow) y comandos git principales
  • Python: experiencia práctica con Python y herramientas principales para la manipulación de datos: Pandas, Numpy, trabajo con tiempos de datos, transformaciones de cadenas
  • Inglés: habilidad laboral profesional (hablada y escrita)

Se considerará una ventaja:

  • Kubernetes & Docker: capacidad para explorar un racimo, inspeccionar las cápsulas/contenedores
  • Experiencia en el trabajo con Apache Airflow (especialmente para la gestión de tuberías de procesamiento de datos)
  • Conocimiento básico de los mercados financieros y flujos de trabajo comerciales: clases comunes de activos (por ejemplo, acciones, derivados, renta fija), eventos del ciclo de vida comercial y acciones corporativas

Lo que ofrecemos:

  • Disposiciones de trabajo flexibles: a distancia completa, híbrida o basada en la oficina, dependiendo de su ubicación y preferencias
  • Compensación competitiva, alineada con su experiencia, habilidades, educación y estándares del mercado local
  • Revisiones periódicas del desempeño vinculadas a los ajustes salariales
  • Seguro médico para usted y sus familiares inmediatos
  • Presupuesto de desarrollo profesional para apoyar cursos, certificaciones y conferencias
  • Equipo internacional de apoyo

El puesto requerirá una comprobación de antecedentes, un NDA firmado, un contrato firmado y un procesador del RGPD firmado a través de un acuerdo (ya que actuamos como procesadores de datos bajo el RGDP).