
Python Developer - Ai Training Job at YO IT CONSULTING in San Francisco
YO IT CONSULTING, San Francisco, CA, United States
Work Mode: Remote
Engagement Type: Independent Contractor
Schedule: Full-Time or Part-Time Contract
Language Requirement: Fluent English
Role Overview
We partner with leading AI teams to improve the quality, usefulness, and reliability of general‑purpose conversational AI systems. This project focuses specifically on evaluating and improving how AI systems reason about code, generate programming solutions, and explain technical concepts across various complexity levels. The role involves rigorous technical evaluation of AI‑generated responses in coding and software engineering contexts.
What You’ll Do
Evaluate LLM‑generated responses to coding and software engineering queries for accuracy, reasoning, clarity, and completeness
Conduct fact‑checking using trusted public sources and authoritative references
Conduct accuracy testing by executing code and validating outputs using appropriate tools
Annotate model responses by identifying strengths, areas of improvement, and factual or conceptual inaccuracies
Assess code quality, readability, algorithmic soundness, and explanation quality
Ensure model responses align with expected conversational behavior and system guidelines
Apply consistent evaluation standards by following clear taxonomies, benchmarks, and detailed evaluation guidelines
Who You Are
You hold a BS, MS, or PhD in Computer Science or a closely related field
You have significant real‑world experience in software engineering or related technical roles
You are an expert in at least one relevant programming language (e.g., Python, Java, C++, JavaScript, Go, Rust)
You are able to solve HackerRank or LeetCode Medium and Hard‑level problems independently
You have experience contributing to well‑known open‑source projects, including merged pull requests
You have significant experience using LLMs while coding and understand their strengths and failure modes
You have strong attention to detail and are comfortable evaluating complex technical reasoning, identifying subtle bugs or logical flaws
Nice‑to‑Have Specialties
Prior experience with RLHF, model evaluation, or data annotation work
Track record in competitive programming
Experience reviewing code in production environments
Familiarity with multiple programming paradigms or ecosystems
Experience explaining complex technical concepts to non‑expert audiences
What Success Looks Like
You identify incorrect logic, inefficiencies, edge cases, or misleading explanations in model‑generated code, technical concepts, and system design discussions
Your feedback improves the correctness, robustness, and clarity of AI coding outputs
You deliver reproducible evaluation artifacts that strengthen model performance
#J-18808-Ljbffr
In Summary: Work Mode: Remote Engagement Type: Independent Contractor Schedule: Full-Time or Part-Time Contract Language Requirement: Fluent English . We partner with leading AI teams to improve quality, usefulness, and reliability of general‑purpose conversational AI systems .
En Español:
Modo de trabajo: Tipo de participación remota: Programa de contratistas independientes: Requisito del lenguaje de contrato a tiempo completo o parcial: Fluente Inglés Role Overview Nos asociamos con equipos líderes de IA para mejorar la calidad, utilidad y fiabilidad de los sistemas de inteligencia artificial conversacionales de propósito general. Este proyecto se centra específicamente en evaluar y mejorar cómo los sistemas AI razonan sobre el código, generan soluciones de programación y explican conceptos técnicos a través de varios niveles de complejidad. El papel implica una evaluación técnica rigurosa de las respuestas generadas por IA en contextos de codificación e ingeniería de software. Lo que harás Evaluación de las Respuestas producidas por LLM a preguntas sobre codificación y ingeniería del software para determinar la exactitud, razonamiento, claridad y integridad Realizar verificaciones de hechos utilizando fuentes públicas confiables y referencias autorizadas Realizar pruebas de precisión ejecutando código y validar salidas usando herramientas apropiadas Anotar respuestes de modelos identificando puntos fuertes, áreas de mejora, inexactitudes factuales o conceptuales de lógica Y proporcionar explicaciones lógicas Para evaluar la calidad, legibilidad, solidez algorítmica y reproducción de los parámetros Técnicas Con el objetivo de mejorar el comportamiento conversacional y las pautas del sistema Sigue aplicando estándares de valoración consistente siguiendo criterios fiscales claros, marcas de referencia cerrantes y directrices de evaluación detalladas Los expertos que tienen experiencia en diseño de código abierto, tener un nivel incorrecto de trabajo o reconocer los problemas técnicos relacionados con el desarrollo de programas informáticos O desarrollar sus conocimientos básicos (incluyendo: R&R;D/L;C++) Si usted es capaz de analizar los aspectos más complejos y desejantes de programación de sistemas de datos, así como el uso de recursos humanos o de lenguaje, si tiene una buena experiencia en ciertos campos tecnológicos o no conocidos, lo cual son los proyectos de aprendizajes específicos (como la elaboración de información, análisis de logística, etc.).