Trabajos remotos de ingeniero de datos Hadoop/Kafka

En Turing estamos buscando ingenieros de datos Hadoop/Kafka remotos, que serán responsables de crear nuevas funcionalidades y componentes en la plataforma o infraestructura de datos, produciendo trabajo técnico detallado y diseño arquitectónico de alto nivel. Esta es la mejor oportunidad de colaborar con los mejores líderes de la industria mientras trabajas con las principales empresas de Silicon Valley.

Echa un vistazo a los mejores empleos para mayo 2024aquí

Descubre trabajos remotos en software con centenas de clientes de Turing

Descripción del puesto

Responsabilidades del puesto

  • Diseñar y desarrollar aplicaciones de análisis de datos de alto rendimiento y baja latencia.
  • Desarrollar canalizaciones de datos automatizadas para sincronizar y procesar flujos de datos complejos.
  • Colaborar con científicos/ingenieros de datos, desarrolladores front-end y diseñadores para crear componentes de almacenamiento y procesamiento de datos.
  • Crear modelos de datos para bases de datos relacionales y escribir pruebas de integración completas para ofrecer productos de alta calidad.
  • Participar en la carga de datos de varios conjuntos de datos dispares, y ayudar al equipo de documentación a proporcionar una buena documentación del cliente.
  • Contribuir en la determinación del alcance y el diseño de activos de datos analíticos y la implementación de atributos modelados.

Requisitos mínimos

  • Licenciatura / Maestría en Ingeniería, Ciencias de la Computación (o experiencia equivalente).
  • 3+ años de experiencia en ingeniería de datos (con algunas excepciones para desarrolladores altamente calificados).
  • Amplia experiencia con tecnologías de big data como Hadoop, Hive, Druid, etc.
  • Experiencia en la creación y gestión de canalizaciones de big data utilizando Kafka, Flume, Airflow, etc.
  • Eficiencia trabajando con Python y otros lenguajes de procesamiento de datos como Scala, Java, etc.
  • Experiencia laboral con entornos alojados en AWS.
  • Fuerte conocimiento de bases de datos incluyendo SQL, MySQL, PostgreSQL.
  • Familiaridad con entornos DevOps y contenedorización con Docker, Kubernetes, etc.
  • Fluidez en Inglés para comunicarse de manera efectiva.
  • Capacidad para trabajar a tiempo completo (40 horas a la semana) con una superposición de 4 horas con las zonas horarias de EE. UU.

Habilidades preferidas

  • Experiencia en el uso de sistemas de aprendizaje automático.
  • Conocimiento de procesamiento de datos por lotes y creación de sistemas de análisis en tiempo real.
  • Experiencia práctica con Golang y Scala.
  • Comprensión de sistemas altamente distribuidos, escalables y de baja latencia.
  • Comprensión de visualización de datos y herramientas de BI como Power BI, Tableau, etc.
  • Experiencia en desarrollo de APIs REST.
  • Excelentes habilidades de organización y comunicación.
  • Gran capacidad técnica, analítica y de resolución de problemas.

¿Interesado en este trabajo?

Aplica a Turing hoy mismo.

Aplicar ahora

¿Por qué unirse a Turing?

Elite US Jobs

1Empleos de élite en EE. UU.

Los desarrolladores de Turing obtienen un salario superior al del mercado local en la mayoría de los países gracias a que colaboran con las mejores empresas estadounidenses.
Career Growth

2Crecimiento profesional

Crece rápidamente trabajando en problemas desafiantes, tanto técnicos como de negocio utilizando las tecnologías más actuales.
Developer success support

3Asistencia al Desarrollador

Mientras estes emparejado, disfruta de asistencia 24/7 a los desarrolladores.

Desarrolladores Turing

Lee las reseñas sobre Turing.com de desarrolladores de todo el mundo y descubre como es trabajar con las mejores empresas de EE.UU.
4.6DE 5
Basado en las opiniones de los desarrolladores a abril 2024
Ver todas las reseñas

¿Cómo convertirse en un desarrollador de Turing?

Trabaja con las mejores compañías de software en solo 4 sencillos pasos
  1. Crea tu perfil

    Completa tus datos básicos: nombre, ubicación, conocimientos, expectativa salarial y experiencia.

  2. Realiza nuestras pruebasy entrevistas

    Resuelve pruebas y asiste a una entrevista técnica.

  3. Recibe ofertas de trabajo

    Las mejores empresas de EE.UU. y Silicon Valley te elegirán como colaborador.

  4. Obtén el trabajo de tus sueños

    Una vez que seas parte de Turing, ya no tendrás que volver a buscar otro trabajo.

cover

¿Cómo convertirte en ingeniero de datos de Hadoop/Kafka?

Hadoop es un framework de software de código abierto para almacenar y procesar datos, particularmente grandes conjuntos de datos, en grupos de hardware básico en un entorno informático distribuido. Permite que los clústeres interpreten grandes conjuntos de datos rápidamente al facilitar la distribución de los cálculos entre muchas computadoras. Hadoop se ha convertido en la base de la gestión de grandes sistemas de datos, que a su vez desempeñan un papel crucial en numerosas aplicaciones de Internet.

Software escrito en Java y Scala y comercializado como código abierto, Apache Kafka es una popular plataforma de transmisión de eventos utilizada por los desarrolladores para la integración de datos, análisis, canalizaciones de datos de alto rendimiento y aplicaciones de misión crítica. Las empresas han estado contratando desarrolladores de Kafka desde que la herramienta ganó una inmensa fama.

¿Cuál es el alcance de los ingenieros de datos de Hadoop/Kafka?

Desde compañías gigantes como Netflix, LinkedIn y Uber hasta fabricantes de automóviles, muchas de las principales organizaciones del mundo confían en Kafka para procesar datos de transmisión a una velocidad de billones de eventos por día. La plataforma de mensajería se creó originalmente para admitir una cola de mensajería por Apache Kafka, una herramienta de código abierto con licencia de Apache. En la actualidad, los desarrolladores emplean Kafka para producir canalizaciones de transmisión en tiempo real y aplicaciones que procesan y analizan los datos a medida que llegan.

Hadoop brinda a las empresas una oportunidad única para dirigirse a los consumidores y brindar experiencias personalizadas a cada uno de ellos mediante la conversión de datos en contenido procesable. Las empresas que pueden convertir con éxito los datos en contenido procesable utilizando Hadoop estarán en la mejor posición para generar publicidad, marketing y otras estrategias comerciales fantásticas diseñadas para atraer clientes.

Es seguro decir que los ingenieros de datos de Hadoop/Kafka seguirán teniendo una gran demanda.

¿Cuáles son las funciones y responsabilidades de un ingeniero de datos de Hadoop/Kafka?

Un desarrollador de Hadoop es responsable de desarrollar y programar aplicaciones de Hadoop. Estos desarrolladores crean aplicaciones para administrar y mantener los grandes datos de una empresa. Saben cómo construir, operar y solucionar problemas de grandes clústeres de Hadoop. Por lo tanto, las empresas más grandes que buscan contratar desarrolladores de Hadoop deben encontrar profesionales experimentados que puedan satisfacer las necesidades de la empresa para construir una infraestructura de almacenamiento y procesamiento de datos a gran escala. Se espera que los desarrolladores de Kafka lleven a cabo la implementación y producción de extremo a extremo de varios proyectos de datos junto con el diseño, el desarrollo y la mejora de aplicaciones web y la realización de análisis funcionales y técnicos independientes para varios proyectos. Estos desarrolladores trabajan en un entorno ágil en el que diseñan una implementación estratégica de Kafka en varios centros de datos (MDC). Además de tener experiencia en varios enfoques de programación funcional, trabajar con contenedores, administrar organizadores de contenedores e implementar aplicaciones nativas de la nube, también deben tener experiencia en desarrollo basado en comportamiento y desarrollo basado en pruebas. Los ingenieros de datos de Hadoop/Kafka generalmente tienen las siguientes responsabilidades laborales:

  • Desarrollar aplicaciones de análisis de datos de alto rendimiento y baja latencia
  • Automatizar la sincronización y el procesamiento de flujos de datos complejos mediante canalizaciones de datos
  • Desarrollar componentes de procesamiento y almacenamiento de datos en cooperación con científicos/ingenieros de datos, diseñadores y desarrolladores front-end
  • Diseñar y crear modelos de bases de datos relacionales e integre pruebas exhaustivas para garantizar productos de alta calidad.
  • Ayudar al equipo de documentación a proporcionar una buena documentación del cliente mediante la carga de datos de conjuntos de datos dispares.
  • Contribuir al desarrollo de activos de datos analíticos e implementar atributos modelados

¿Cómo convertirte en un ingeniero de datos de Hadoop/Kafka?

Cuando busques un trabajo de ingeniero de datos de Hadoop/Kafka, deberás considerar los títulos y, finalmente, la especialización adecuada. No es fácil conseguir un trabajo como ingeniero de datos de Hadoop/Kafka con solo un diploma de escuela secundaria. Los candidatos mejor posicionados para un trabajo de ingeniero de datos de Hadoop/Kafka son aquellos que han obtenido títulos de licenciatura o maestría.

Para sobresalir en tu rubro, es importante que adquieras experiencia y conocimientos prácticos. Las pasantías son una forma de hacer esto. La certificación también es valiosa por muchas razones. Por ejemplo, la certificación lo distingue de los ingenieros de datos de Hadoop/Kafka no certificados, lo que te permite enorgullecerte de sus logros y saber que es uno de los profesionales más capacitados en su rubro. La certificación también abre las puertas a mejores oportunidades que pueden ayudarte a crecer profesionalmente y sobresalir como ingeniero de datos de Hadoop/Kafka.

A continuación se presentan algunas de las habilidades duras más importantes que un ingeniero de datos de Hadoop/Kafka necesita para tener éxito en el lugar de trabajo:

¿Estás interesado en obtener trabajos remotos de ingeniero de datos de Hadoop/Kakfa?

¡Conviértete en un desarrollador de Turing!

Aplica ahora

Habilidades requeridas para convertirte en un ingeniero de datos de Hadoop/Kafka

Los trabajos de ingeniero de datos de Hadoop/Kafka requieren ciertas habilidades y conceptos básicos. ¡Aquí está lo que necesitas saber!

1. Conocimiento de la arquitectura Apache Kafka

Para comprender la plataforma Apache Kafka, es útil conocer su arquitectura. Aunque suene complejo, la arquitectura es bastante sencilla. La arquitectura de Kafka es simple y eficiente y le ofrece la posibilidad de enviar y recibir mensajes en sus aplicaciones. Esta combinación de eficiencia y facilidad de uso hace que Apache Kafka sea muy deseable.

2. API de Kafka

Además de otras habilidades recomendadas, un ingeniero de datos de Hadoop/Kafka debe estar versado en cuatro API de Java: la API de productor, la API de consumidor, la API de transmisión y la API de conector. Estas API hacen de Kafka una plataforma totalmente personalizable para aplicaciones de procesamiento de flujo. La API de flujos ofrece una funcionalidad de alto nivel que le permite procesar flujos de datos; El uso de la API de conectores te permite crear conectores de importación y exportación de datos reutilizables.

3. Conceptos básicos de Hadoop

Prepararte para un trabajo remoto de ingeniero de datos de Hadoop/Kafka requiere una comprensión profunda de la tecnología. Una comprensión fundamental de las capacidades y utilización de Hadoop, así como de sus ventajas y desventajas, es esencial para aprender tecnologías más sofisticadas. Para obtener más información sobre un área específica, consulta los recursos disponibles tanto en línea como fuera de línea. Estos recursos pueden ser tutoriales, revistas y trabajos de investigación, seminarios, etc.

4. SQL

Necesitarás una sólida comprensión del lenguaje de consulta estructurado (SQL) para ser un ingeniero de datos de Hadoop/Kafka. Trabajar con otros lenguajes de consulta, como HiveQL, te beneficiará significativamente si tiene una sólida comprensión de SQL. Puedes mejorar aún más sus habilidades repasando los principios de las bases de datos, los sistemas distribuidos y temas similares para ampliar tus horizontes.

5. Componentes de Hadoop

Una vez que hayas aprendido sobre los principios de Hadoop y qué habilidades técnicas se requieren para trabajar con ellos, es hora de seguir adelante y obtener más información sobre el ecosistema de Hadoop en su conjunto. Hay cuatro componentes principales del ecosistema Hadoop.

  • Sistema de archivos distribuido Hadoop
  • Mapa reducido
  • Otro negociador de recursos
  • Hadoop común

¿Estás interesado en obtener trabajos remotos de ingeniero de datos de Hadoop/Kakfa?

¡Conviértete en un desarrollador de Turing!

Aplica ahora

¿Cómo obtener trabajos remotos de ingeniero de datos de Hadoop/Kafka?

Los desarrolladores de ingeniería de datos de Hadoop/Kafka, al igual que los atletas, deben practicar de manera efectiva y constante para sobresalir en su oficio. A medida que mejoran sus habilidades, también deben trabajar lo suficientemente duro para mantener esas habilidades a lo largo del tiempo. Para garantizar el progreso en esta área, los desarrolladores deben seguir dos factores clave: la asistencia de alguien más experimentado y efectivo en las técnicas de práctica. Como ingeniero de datos de Hadoop/Kafka, necesitas saber cuánto practicar y estar atento a las señales de agotamiento.

Turing ofrece los mejores trabajos para ingenieros de datos remotos de Hadoop/Kafka. Enfrenta problemas técnicos y comerciales desafiantes con las últimas tecnologías y crece rápidamente. Únete a la red de los mejores desarrolladores del mundo y obtén trabajos de ingeniero de datos de Hadoop/Kafka remoto a tiempo completo y a largo plazo con una mejor compensación y crecimiento profesional.

¿Por qué convertirte en ingeniero de datos de Hadoop/Kafka en Turing?

Empleos de élite en EE. UU.

Oportunidades a largo plazo para trabajar para compañías estadounidenses increíbles e impulsadas por una misión con una gran compensación.

Crecimiento profesional

Trabaja en problemas técnicos y comerciales desafiantes utilizando tecnología de punta para acelerar el crecimiento de tu carrera.

Comunidad de desarrolladores exclusiva

Únete a la comunidad mundial de desarrolladores de software de élite.

Una vez que te unas a Turing, nunca más tendrás que solicitar otro trabajo.

Los compromisos de Turing son a largo plazo y de tiempo completo. Cuando un proyecto llega a su fin, nuestro equipo se pone a trabajar identificando el próximo para ti en cuestión de semanas.

Trabaja desde la comodidad de tu casa

Turing te permite trabajar según tu conveniencia. Tenemos horarios de trabajo flexibles y puedes trabajar para las principales empresas estadounidenses desde la comodidad de tu hogar.

Gran compensación

Trabajando con las principales corporaciones estadounidenses, los desarrolladores de Turing ganan más que el pago estándar del mercado en la mayoría de las naciones.

¿Cuánto paga Turing a sus ingenieros de datos de Hadoop/Kafka?

Turing permite que sus ingenieros de datos de Hadoop/Kafka establezcan sus propias tarifas. Turing recomendará un salario en el que estamos seguros de que podemos encontrarte una oportunidad de trabajo a largo plazo. Nuestras recomendaciones se basan en nuestro análisis de las condiciones del mercado, así como en la demanda de nuestros clientes.

Preguntas Frecuentes

Somos una plataforma de empleos de largo plazo basada en Palo Alto California que permite a los desarrolladores de software más talentosos del mundo trabajar con las mejores empresas estadounidenses desde la comodidad de sus hogares. Nuestros directivos Jonathan Siddharth y Vijay Krishnan son ex-alumnos de Stanford y exitosos emprendedores de IA.

Después de cargar tu currículum, tendrás que pasar por tres pruebas: una evaluación de experiencia, una breve prueba de tus stacks tecnológicos y un desafío de programación en vivo. Una vez que pases estas pruebas, estarás listo para aplicar a una amplia gama de trabajos disponibles según tus habilidades.

No necesitas pagar ningún impuesto en los Estados Unidos. Sin embargo, es posible que debas pagar impuestos de acuerdo con las leyes fiscales de tu país. Además, tu banco podría cobrarte una pequeña comisión al depositar en tu moneda local.

En Turing, contratamos desarrolladores remotos en más de 100 tecnologías como React/Node, Python, Angular, Swift, React Native, Android, Java, Rails, Golang, PHP, Vue, entre otras. Además de ello, consideramos la experiencia laborar previa.

La comunicación es crucial para el éxito cuando se trabaja con clientes estadounidenses. Preferimos candidatos con un nivel B1 de inglés, es decir, aquellos que tienen la fluidez necesaria para comunicarse de manera oral y escrita sin problemas con nuestros clientes y hablantes nativos.

Actualmente, contamos solamente con vacantes para desarrolladores debido a la demanda de nuestros clientes. Es posible que en el futuro expandamos nuestra oferta a otros roles. Consulta frecuentemente nuestra página de carreras, puede ser que encuentres una posición que se adapte a tus habilidades y experiencia.

Nuestra diferenciación exclusiva radica en la combinación de nuestro modelo de negocio principal y nuestros valores. Para el avance de la AGI, Turing ofrece oportunidades de contratos temporales. La mayoría de los contratos para Consultores de IA tienen una duración máxima de 3 meses, con posibilidad de prórrogas mensuales — condicionadas a su interés, disponibilidad y a la demanda del cliente — hasta un máximo de 10 meses consecutivos. Para nuestro negocio Turing Intelligence, ofrecemos proyectos a largo plazo y de jornada completa.

No, el servicio es absolutamente gratuito para los desarrolladores de software que se registren.

Idealmente, un desarrollador remoto debe tener al menos 3 años de experiencia relevante para ser contratado por Turing, sin embargo, no cerramos las puertas a desarrolladores excepcionales. Realiza nuestras pruebas para averiguar si podemos ofrecerte alguna oportunidad emocionante.

Ver más preguntas frecuentes

Últimas entradas de Turing

Gul-bhai-Turkey

Gültekin from Istanbul Reviews Turing.com, Says Remote Work Has Helped Him Spend More Time with Family

In his Turing.com review, Gultekin said he would recommend Turing to his friends and other developers who want to...

Leer más
Remote software developer enjoying remote work

Tips for Succeeding as a Remote Software Developer

Many people dream of working as a freelancer. Aside from working whenever and wherever they want, freelancers are...

Leer más
Turing.com Review by developer from Kenya

Turing Reviews: ‘I Can Travel, Visit My Family and Friends While Still Working,’ Says Shadrack from Kenya

Developer from Kenya reviews Turing.com, remote software jobs, working culture, salary, and work-life balance...

Leer más
Turing.com-Review-Turing-Developer-Salary

Turing.com Salary Review: How Much Do Turing Developers Earn?

Remote software developers from across the world answer the debated question: What are Turing salaries like?...

Leer más

Here’s How You Can Use Docker to Test and Deploy Web Applications

This post shares tips to build images, run tests, and deploy web applications with Docker containers...

Leer más

Liderazgo

En pocas palabras, Turing tiene como objetivo hacer que el mundo tenga igualdad de oportunidades. Turing fue fundada por los empresarios seriales de IA Jonathan y Vijay, cuya empresa anterior de IA (vendida con éxito) fue impulsada por un talento remoto excepcional. Turing tambien es respaldada por inversionistas innovadores de alto perfil como el primer CTO de Facebook (Adam D'Angelo), ejecutivos de Google, Amazon, Twitter y Foundation Capital.

Política de Igualdad de Oportunidades

Turing es un empleador que ofrece igualdad de oportunidades. Turing prohíbe la discriminación y el acoso de cualquier tipo y ofrece igualdad de oportunidades de trabajo a los empleados y solicitantes sin tener en cuenta la raza, el color, la religión, el sexo, la orientación sexual, la identidad o expresión de género, la edad, el estado de discapacidad, el estado de veterano protegido o cualquier otra característica protegida por la ley.

Explora trabajos remotos de desarrollador

briefcase
Python Automation and Task Creator

About Turing:

Based in San Francisco, California, Turing is the world’s leading research accelerator for frontier AI labs and a trusted partner for global enterprises deploying advanced AI systems. Turing supports customers in two ways: first, by accelerating frontier research with high-quality data, advanced training pipelines, plus top AI researchers who specialize in coding, reasoning, STEM, multilinguality, multimodality, and agents; and second, by applying that expertise to help enterprises transform AI from proof of concept into proprietary intelligence with systems that perform reliably, deliver measurable impact, and drive lasting results on the P&L.


Role Overview

We are seeking a detail-oriented Computer-Using Agent (CUA) to perform structured automation tasks within Ubuntu-based virtual desktop environments. In this role, you will interact with real desktop applications using Python-based GUI automation tools, execute workflows with high accuracy, and document every step taken.

This is a hands-on execution role ideal for candidates who are comfortable working with Linux systems, virtualization tools, and repeatable task workflows in a controlled environment.


What Does the Day-to-Day Look Like?

  • Set up and operate Ubuntu virtual machines using VMware or VirtualBox
  • Automate mouse and keyboard interactions using Python-based GUI automation (e.g., PyAutoGUI)
  • Execute predefined workflows across various Ubuntu desktop applications
  • Ensure tasks are completed accurately and can be reproduced consistently
  • Capture and document all actions, steps, and outcomes in a structured format
  • Collaborate with the delivery team to refine automation scenarios and workflows

Required Skills & Qualifications

  • Hands-on experience with Ubuntu/Linux desktop environments
  • Working knowledge of PyAutoGUI or similar GUI automation frameworks
  • Basic Python scripting and debugging skills
  • Familiarity with VMware or VirtualBox
  • Strong attention to detail and ability to follow step-by-step instructions
  • Clear documentation and reporting skills

Application Domains

You will be expected to perform automation tasks across the following Ubuntu-based environments:

  • os – Core Ubuntu desktop environment
  • chrome – Ubuntu with Google Chrome
  • gimp – Ubuntu with GIMP
  • libreoffice_calc – LibreOffice Calc
  • libreoffice_writer – LibreOffice Writer
  • libreoffice_impress – LibreOffice Impress
  • thunderbird – Thunderbird email client
  • vlc – VLC media player
  • vs_code – Visual Studio Code

Perks of Freelancing With Turing

  • Fully remote work.
  • Opportunity to work on cutting-edge AI projects with leading LLM companies.

Offer Details:

  • Commitments Required: 40 hours per week with 4 hours of overlap with PST. 
  • Engagement  type  : Contractor assignment (no medical/paid leave)
  • Duration of contract : 2 month
Holding Companies & Conglomerates
10K+ employees
Python
briefcase
Knowledge Graph Expert (Knowledge Graph / SQL / LLM)
About the Client

Our mission is to bring community and belonging to everyone in the world. We are a community of communities where people can dive into anything through experiences built around their interests, hobbies, and passions. With more than 50 million people visiting 100,000+ communities daily, it is home to the most open and authentic conversations on the internet.

About the Team

The Ads Content Understanding team’s mission is to build the foundational engine for interpretable and frictionless understanding of all organic and paid content on our platform. Leverage state-of-the-art applied ML and a robust Knowledge Graph (KG) to extract high-quality, monetization-focused signals from raw content — powering better ads, marketplace performance, and actionable business insights at scale.

We are seeking a Knowledge Graph Expert to help us grow and curate our KG of entities and relationships, bringing it to the next level.


About the Role


We are looking for a detail-oriented and strategic Knowledge Graph Curator. In this role, you will sit at the intersection of AI automation and human judgment. You will not only manage incoming requests from partner teams but also proactively shape the growth of our Knowledge Graph (KG) to ensure high fidelity, relevance, and connectivity. You will serve as the expert human-in-the-loop, validating LLM-generated entities and ensuring our graph represents the "ground truth" for the business.

 

Key Responsibilities


  • Onboarding of new entities to the Knowledge Graph maintained by the Ads team
  •  Data entry, data labeling for automation of content understanding capabilities
  • LLM Prompt tuning for content understanding automation

What You'll Do


1. Pipeline Management & Prioritization

  • Manage Inbound Requests: Act as the primary point of contact for partner teams (Product, Engineering, Analytics) requesting new entities or schema changes.
  • Strategic Prioritization: Triage the backlog of requests by assessing business impact, urgency, and technical feasibility.

2. AI-Assisted Curation & Human-in-the-Loop

  • Oversee Automation: Interact with internal tooling to review entities generated by Large Language Models (LLMs). You will approve high-confidence data, edit near-misses, and reject hallucinations.
  • Quality Validation: Perform rigorous QA on batches of generated entities to ensure they adhere to the strict ontological standards and factual accuracy required by the KG.
  • Model Feedback Loops: Participate in ad-hoc labeling exercises (creation of Golden Sets) to measure current model quality and provide training data to fine-tune classifiers and extraction algorithms.

3. Data Integrity & Stakeholder Management

  • Manual Curation & Debugging: Investigate bug reports from downstream users or automated anomaly detection systems. You will manually fix data errors, merge duplicate entities, and resolve conflicting relationships.
  • Feedback & Reporting: Close the loop with partner teams. You will report on the status of their requests, explain why certain modeling decisions were made, and educate stakeholders on how to best query the new data.


Qualifications for this role:

  • Knowledge Graph Fundamentals: Understanding of graph concepts (Nodes, Edges, Properties)
  • Taxonomy & Ontology: Experience categorizing data, managing hierarchies, and understanding semantic relationships between entities.
  • Data Literacy: Proficiency in navigating complex datasets. Experience with SQL, SPARQL, or Cypher is a strong plus.
  • AI/LLM Familiarity: Understanding of how Generative AI works, common failure modes (hallucinations), and the importance of ground-truth data in training.

Operational & Soft Skills

  • Analytical Prioritization: Ability to look at a list of 50 tasks and determine the 5 that will drive the most business value.
  • Attention to Detail: An "eagle eye" for spotting inconsistencies, typos, and logical fallacies in data.
  • Stakeholder Communication: Ability to translate complex data modeling concepts into clear language for non-technical product managers and business stakeholders.
  • Tool Proficiency: Comfort learning proprietary internal tools, ticketing systems (e.g., Jira), and spreadsheet manipulation (Excel/Google Sheets).


Offer Details


  • Full-time contractor or full-time employment, depending on the country
  • Remote only, full-time dedication (40 hours/week)
  • 8 hours of overlap with Netherlands
  • Competitive compensation package.
  • Opportunities for professional growth and career development.
  • Dynamic and inclusive work environment focused on innovation and teamwork
Media & Internet
251-10K employees
LLMSQL
sample card

Aplica a los mejores trabajos

Ver más vacantes
Turing books $87M at a $1.1B valuation to help source, hire and manage engineers remotely
Turing named one of America's Best Startup Employers for 2022 by Forbes
Ranked no. 1 in The Information’s "50 Most Promising Startups of 2021" in the B2B category
Turing named to Fast Company's World's Most Innovative Companies 2021 for placing remote devs at top firms via AI-powered vetting
Turing helps entrepreneurs tap into the global talent pool to hire elite, pre-vetted remote engineers at the push of a button

Trabaje con las principales empresas del mundo

Crea tu perfil, pasa las pruebas de Turing y recibe ofertas de trabajo dos semanas después.