Trabajos remotos de ingeniero de datos Hadoop/Kafka

En Turing estamos buscando ingenieros de datos Hadoop/Kafka remotos, que serán responsables de crear nuevas funcionalidades y componentes en la plataforma o infraestructura de datos, produciendo trabajo técnico detallado y diseño arquitectónico de alto nivel. Esta es la mejor oportunidad de colaborar con los mejores líderes de la industria mientras trabajas con las principales empresas de Silicon Valley.

Echa un vistazo a los mejores empleos para mayo 2024aquí

Descubre trabajos remotos en software con centenas de clientes de Turing

Descripción del puesto

Responsabilidades del puesto

  • Diseñar y desarrollar aplicaciones de análisis de datos de alto rendimiento y baja latencia.
  • Desarrollar canalizaciones de datos automatizadas para sincronizar y procesar flujos de datos complejos.
  • Colaborar con científicos/ingenieros de datos, desarrolladores front-end y diseñadores para crear componentes de almacenamiento y procesamiento de datos.
  • Crear modelos de datos para bases de datos relacionales y escribir pruebas de integración completas para ofrecer productos de alta calidad.
  • Participar en la carga de datos de varios conjuntos de datos dispares, y ayudar al equipo de documentación a proporcionar una buena documentación del cliente.
  • Contribuir en la determinación del alcance y el diseño de activos de datos analíticos y la implementación de atributos modelados.

Requisitos mínimos

  • Licenciatura / Maestría en Ingeniería, Ciencias de la Computación (o experiencia equivalente).
  • 3+ años de experiencia en ingeniería de datos (con algunas excepciones para desarrolladores altamente calificados).
  • Amplia experiencia con tecnologías de big data como Hadoop, Hive, Druid, etc.
  • Experiencia en la creación y gestión de canalizaciones de big data utilizando Kafka, Flume, Airflow, etc.
  • Eficiencia trabajando con Python y otros lenguajes de procesamiento de datos como Scala, Java, etc.
  • Experiencia laboral con entornos alojados en AWS.
  • Fuerte conocimiento de bases de datos incluyendo SQL, MySQL, PostgreSQL.
  • Familiaridad con entornos DevOps y contenedorización con Docker, Kubernetes, etc.
  • Fluidez en Inglés para comunicarse de manera efectiva.
  • Capacidad para trabajar a tiempo completo (40 horas a la semana) con una superposición de 4 horas con las zonas horarias de EE. UU.

Habilidades preferidas

  • Experiencia en el uso de sistemas de aprendizaje automático.
  • Conocimiento de procesamiento de datos por lotes y creación de sistemas de análisis en tiempo real.
  • Experiencia práctica con Golang y Scala.
  • Comprensión de sistemas altamente distribuidos, escalables y de baja latencia.
  • Comprensión de visualización de datos y herramientas de BI como Power BI, Tableau, etc.
  • Experiencia en desarrollo de APIs REST.
  • Excelentes habilidades de organización y comunicación.
  • Gran capacidad técnica, analítica y de resolución de problemas.

¿Interesado en este trabajo?

Aplica a Turing hoy mismo.

Aplicar ahora

¿Por qué unirse a Turing?

Elite US Jobs

1Empleos de élite en EE. UU.

Los desarrolladores de Turing obtienen un salario superior al del mercado local en la mayoría de los países gracias a que colaboran con las mejores empresas estadounidenses.
Career Growth

2Crecimiento profesional

Crece rápidamente trabajando en problemas desafiantes, tanto técnicos como de negocio utilizando las tecnologías más actuales.
Developer success support

3Asistencia al Desarrollador

Mientras estes emparejado, disfruta de asistencia 24/7 a los desarrolladores.

Desarrolladores Turing

Lee las reseñas sobre Turing.com de desarrolladores de todo el mundo y descubre como es trabajar con las mejores empresas de EE.UU.
4.6DE 5
Basado en las opiniones de los desarrolladores a abril 2024
Ver todas las reseñas

¿Cómo convertirse en un desarrollador de Turing?

Trabaja con las mejores compañías de software en solo 4 sencillos pasos
  1. Crea tu perfil

    Completa tus datos básicos: nombre, ubicación, conocimientos, expectativa salarial y experiencia.

  2. Realiza nuestras pruebasy entrevistas

    Resuelve pruebas y asiste a una entrevista técnica.

  3. Recibe ofertas de trabajo

    Las mejores empresas de EE.UU. y Silicon Valley te elegirán como colaborador.

  4. Obtén el trabajo de tus sueños

    Una vez que seas parte de Turing, ya no tendrás que volver a buscar otro trabajo.

cover

¿Cómo convertirte en ingeniero de datos de Hadoop/Kafka?

Hadoop es un framework de software de código abierto para almacenar y procesar datos, particularmente grandes conjuntos de datos, en grupos de hardware básico en un entorno informático distribuido. Permite que los clústeres interpreten grandes conjuntos de datos rápidamente al facilitar la distribución de los cálculos entre muchas computadoras. Hadoop se ha convertido en la base de la gestión de grandes sistemas de datos, que a su vez desempeñan un papel crucial en numerosas aplicaciones de Internet.

Software escrito en Java y Scala y comercializado como código abierto, Apache Kafka es una popular plataforma de transmisión de eventos utilizada por los desarrolladores para la integración de datos, análisis, canalizaciones de datos de alto rendimiento y aplicaciones de misión crítica. Las empresas han estado contratando desarrolladores de Kafka desde que la herramienta ganó una inmensa fama.

¿Cuál es el alcance de los ingenieros de datos de Hadoop/Kafka?

Desde compañías gigantes como Netflix, LinkedIn y Uber hasta fabricantes de automóviles, muchas de las principales organizaciones del mundo confían en Kafka para procesar datos de transmisión a una velocidad de billones de eventos por día. La plataforma de mensajería se creó originalmente para admitir una cola de mensajería por Apache Kafka, una herramienta de código abierto con licencia de Apache. En la actualidad, los desarrolladores emplean Kafka para producir canalizaciones de transmisión en tiempo real y aplicaciones que procesan y analizan los datos a medida que llegan.

Hadoop brinda a las empresas una oportunidad única para dirigirse a los consumidores y brindar experiencias personalizadas a cada uno de ellos mediante la conversión de datos en contenido procesable. Las empresas que pueden convertir con éxito los datos en contenido procesable utilizando Hadoop estarán en la mejor posición para generar publicidad, marketing y otras estrategias comerciales fantásticas diseñadas para atraer clientes.

Es seguro decir que los ingenieros de datos de Hadoop/Kafka seguirán teniendo una gran demanda.

¿Cuáles son las funciones y responsabilidades de un ingeniero de datos de Hadoop/Kafka?

Un desarrollador de Hadoop es responsable de desarrollar y programar aplicaciones de Hadoop. Estos desarrolladores crean aplicaciones para administrar y mantener los grandes datos de una empresa. Saben cómo construir, operar y solucionar problemas de grandes clústeres de Hadoop. Por lo tanto, las empresas más grandes que buscan contratar desarrolladores de Hadoop deben encontrar profesionales experimentados que puedan satisfacer las necesidades de la empresa para construir una infraestructura de almacenamiento y procesamiento de datos a gran escala. Se espera que los desarrolladores de Kafka lleven a cabo la implementación y producción de extremo a extremo de varios proyectos de datos junto con el diseño, el desarrollo y la mejora de aplicaciones web y la realización de análisis funcionales y técnicos independientes para varios proyectos. Estos desarrolladores trabajan en un entorno ágil en el que diseñan una implementación estratégica de Kafka en varios centros de datos (MDC). Además de tener experiencia en varios enfoques de programación funcional, trabajar con contenedores, administrar organizadores de contenedores e implementar aplicaciones nativas de la nube, también deben tener experiencia en desarrollo basado en comportamiento y desarrollo basado en pruebas. Los ingenieros de datos de Hadoop/Kafka generalmente tienen las siguientes responsabilidades laborales:

  • Desarrollar aplicaciones de análisis de datos de alto rendimiento y baja latencia
  • Automatizar la sincronización y el procesamiento de flujos de datos complejos mediante canalizaciones de datos
  • Desarrollar componentes de procesamiento y almacenamiento de datos en cooperación con científicos/ingenieros de datos, diseñadores y desarrolladores front-end
  • Diseñar y crear modelos de bases de datos relacionales e integre pruebas exhaustivas para garantizar productos de alta calidad.
  • Ayudar al equipo de documentación a proporcionar una buena documentación del cliente mediante la carga de datos de conjuntos de datos dispares.
  • Contribuir al desarrollo de activos de datos analíticos e implementar atributos modelados

¿Cómo convertirte en un ingeniero de datos de Hadoop/Kafka?

Cuando busques un trabajo de ingeniero de datos de Hadoop/Kafka, deberás considerar los títulos y, finalmente, la especialización adecuada. No es fácil conseguir un trabajo como ingeniero de datos de Hadoop/Kafka con solo un diploma de escuela secundaria. Los candidatos mejor posicionados para un trabajo de ingeniero de datos de Hadoop/Kafka son aquellos que han obtenido títulos de licenciatura o maestría.

Para sobresalir en tu rubro, es importante que adquieras experiencia y conocimientos prácticos. Las pasantías son una forma de hacer esto. La certificación también es valiosa por muchas razones. Por ejemplo, la certificación lo distingue de los ingenieros de datos de Hadoop/Kafka no certificados, lo que te permite enorgullecerte de sus logros y saber que es uno de los profesionales más capacitados en su rubro. La certificación también abre las puertas a mejores oportunidades que pueden ayudarte a crecer profesionalmente y sobresalir como ingeniero de datos de Hadoop/Kafka.

A continuación se presentan algunas de las habilidades duras más importantes que un ingeniero de datos de Hadoop/Kafka necesita para tener éxito en el lugar de trabajo:

¿Estás interesado en obtener trabajos remotos de ingeniero de datos de Hadoop/Kakfa?

¡Conviértete en un desarrollador de Turing!

Aplica ahora

Habilidades requeridas para convertirte en un ingeniero de datos de Hadoop/Kafka

Los trabajos de ingeniero de datos de Hadoop/Kafka requieren ciertas habilidades y conceptos básicos. ¡Aquí está lo que necesitas saber!

1. Conocimiento de la arquitectura Apache Kafka

Para comprender la plataforma Apache Kafka, es útil conocer su arquitectura. Aunque suene complejo, la arquitectura es bastante sencilla. La arquitectura de Kafka es simple y eficiente y le ofrece la posibilidad de enviar y recibir mensajes en sus aplicaciones. Esta combinación de eficiencia y facilidad de uso hace que Apache Kafka sea muy deseable.

2. API de Kafka

Además de otras habilidades recomendadas, un ingeniero de datos de Hadoop/Kafka debe estar versado en cuatro API de Java: la API de productor, la API de consumidor, la API de transmisión y la API de conector. Estas API hacen de Kafka una plataforma totalmente personalizable para aplicaciones de procesamiento de flujo. La API de flujos ofrece una funcionalidad de alto nivel que le permite procesar flujos de datos; El uso de la API de conectores te permite crear conectores de importación y exportación de datos reutilizables.

3. Conceptos básicos de Hadoop

Prepararte para un trabajo remoto de ingeniero de datos de Hadoop/Kafka requiere una comprensión profunda de la tecnología. Una comprensión fundamental de las capacidades y utilización de Hadoop, así como de sus ventajas y desventajas, es esencial para aprender tecnologías más sofisticadas. Para obtener más información sobre un área específica, consulta los recursos disponibles tanto en línea como fuera de línea. Estos recursos pueden ser tutoriales, revistas y trabajos de investigación, seminarios, etc.

4. SQL

Necesitarás una sólida comprensión del lenguaje de consulta estructurado (SQL) para ser un ingeniero de datos de Hadoop/Kafka. Trabajar con otros lenguajes de consulta, como HiveQL, te beneficiará significativamente si tiene una sólida comprensión de SQL. Puedes mejorar aún más sus habilidades repasando los principios de las bases de datos, los sistemas distribuidos y temas similares para ampliar tus horizontes.

5. Componentes de Hadoop

Una vez que hayas aprendido sobre los principios de Hadoop y qué habilidades técnicas se requieren para trabajar con ellos, es hora de seguir adelante y obtener más información sobre el ecosistema de Hadoop en su conjunto. Hay cuatro componentes principales del ecosistema Hadoop.

  • Sistema de archivos distribuido Hadoop
  • Mapa reducido
  • Otro negociador de recursos
  • Hadoop común

¿Estás interesado en obtener trabajos remotos de ingeniero de datos de Hadoop/Kakfa?

¡Conviértete en un desarrollador de Turing!

Aplica ahora

¿Cómo obtener trabajos remotos de ingeniero de datos de Hadoop/Kafka?

Los desarrolladores de ingeniería de datos de Hadoop/Kafka, al igual que los atletas, deben practicar de manera efectiva y constante para sobresalir en su oficio. A medida que mejoran sus habilidades, también deben trabajar lo suficientemente duro para mantener esas habilidades a lo largo del tiempo. Para garantizar el progreso en esta área, los desarrolladores deben seguir dos factores clave: la asistencia de alguien más experimentado y efectivo en las técnicas de práctica. Como ingeniero de datos de Hadoop/Kafka, necesitas saber cuánto practicar y estar atento a las señales de agotamiento.

Turing ofrece los mejores trabajos para ingenieros de datos remotos de Hadoop/Kafka. Enfrenta problemas técnicos y comerciales desafiantes con las últimas tecnologías y crece rápidamente. Únete a la red de los mejores desarrolladores del mundo y obtén trabajos de ingeniero de datos de Hadoop/Kafka remoto a tiempo completo y a largo plazo con una mejor compensación y crecimiento profesional.

¿Por qué convertirte en ingeniero de datos de Hadoop/Kafka en Turing?

Oportunidades a largo plazo para trabajar para compañías estadounidenses increíbles e impulsadas por una misión con una gran compensación.

Trabaja en problemas técnicos y comerciales desafiantes utilizando tecnología de punta para acelerar el crecimiento de tu carrera.

Únete a la comunidad mundial de desarrolladores de software de élite.

Los compromisos de Turing son a largo plazo y de tiempo completo. Cuando un proyecto llega a su fin, nuestro equipo se pone a trabajar identificando el próximo para ti en cuestión de semanas.

Turing te permite trabajar según tu conveniencia. Tenemos horarios de trabajo flexibles y puedes trabajar para las principales empresas estadounidenses desde la comodidad de tu hogar.

Trabajando con las principales corporaciones estadounidenses, los desarrolladores de Turing ganan más que el pago estándar del mercado en la mayoría de las naciones.

¿Cuánto paga Turing a sus ingenieros de datos de Hadoop/Kafka?

Turing permite que sus ingenieros de datos de Hadoop/Kafka establezcan sus propias tarifas. Turing recomendará un salario en el que estamos seguros de que podemos encontrarte una oportunidad de trabajo a largo plazo. Nuestras recomendaciones se basan en nuestro análisis de las condiciones del mercado, así como en la demanda de nuestros clientes.

Preguntas Frecuentes

Somos una plataforma de empleos de largo plazo basada en Palo Alto California que permite a los desarrolladores de software más talentosos del mundo trabajar con las mejores empresas estadounidenses desde la comodidad de sus hogares. Nuestros directivos Jonathan Siddharth y Vijay Krishnan son ex-alumnos de Stanford y exitosos emprendedores de IA.

Después de cargar tu currículum, tendrás que pasar por tres pruebas: una evaluación de experiencia, una breve prueba de tus stacks tecnológicos y un desafío de programación en vivo. Una vez que pases estas pruebas, estarás listo para aplicar a una amplia gama de trabajos disponibles según tus habilidades.

No necesitas pagar ningún impuesto en los Estados Unidos. Sin embargo, es posible que debas pagar impuestos de acuerdo con las leyes fiscales de tu país. Además, tu banco podría cobrarte una pequeña comisión al depositar en tu moneda local.

En Turing, contratamos desarrolladores remotos en más de 100 tecnologías como React/Node, Python, Angular, Swift, React Native, Android, Java, Rails, Golang, PHP, Vue, entre otras. Además de ello, consideramos la experiencia laborar previa.

La comunicación es crucial para el éxito cuando se trabaja con clientes estadounidenses. Preferimos candidatos con un nivel B1 de inglés, es decir, aquellos que tienen la fluidez necesaria para comunicarse de manera oral y escrita sin problemas con nuestros clientes y hablantes nativos.

Actualmente, contamos solamente con vacantes para desarrolladores debido a la demanda de nuestros clientes. Es posible que en el futuro expandamos nuestra oferta a otros roles. Consulta frecuentemente nuestra página de carreras, puede ser que encuentres una posición que se adapte a tus habilidades y experiencia.

Nuestra diferenciación exclusiva radica en la combinación de nuestro modelo de negocio principal y nuestros valores. Para el avance de la AGI, Turing ofrece oportunidades de contratos temporales. La mayoría de los contratos para Consultores de IA tienen una duración máxima de 3 meses, con posibilidad de prórrogas mensuales — condicionadas a su interés, disponibilidad y a la demanda del cliente — hasta un máximo de 10 meses consecutivos. Para nuestro negocio Turing Intelligence, ofrecemos proyectos a largo plazo y de jornada completa.

No, el servicio es absolutamente gratuito para los desarrolladores de software que se registren.

Idealmente, un desarrollador remoto debe tener al menos 3 años de experiencia relevante para ser contratado por Turing, sin embargo, no cerramos las puertas a desarrolladores excepcionales. Realiza nuestras pruebas para averiguar si podemos ofrecerte alguna oportunidad emocionante.

Ver más preguntas frecuentes

Últimas entradas de Turing

Gul-bhai-Turkey

Gültekin from Istanbul Reviews Turing.com, Says Remote Work Has Helped Him Spend More Time with Family

In his Turing.com review, Gultekin said he would recommend Turing to his friends and other developers who want to...

Leer más
Remote software developer enjoying remote work

Tips for Succeeding as a Remote Software Developer

Many people dream of working as a freelancer. Aside from working whenever and wherever they want, freelancers are...

Leer más
Turing.com Review by developer from Kenya

Turing Reviews: ‘I Can Travel, Visit My Family and Friends While Still Working,’ Says Shadrack from Kenya

Developer from Kenya reviews Turing.com, remote software jobs, working culture, salary, and work-life balance...

Leer más
Turing.com-Review-Turing-Developer-Salary

Turing.com Salary Review: How Much Do Turing Developers Earn?

Remote software developers from across the world answer the debated question: What are Turing salaries like?...

Leer más

Here’s How You Can Use Docker to Test and Deploy Web Applications

This post shares tips to build images, run tests, and deploy web applications with Docker containers...

Leer más

Liderazgo

En pocas palabras, Turing tiene como objetivo hacer que el mundo tenga igualdad de oportunidades. Turing fue fundada por los empresarios seriales de IA Jonathan y Vijay, cuya empresa anterior de IA (vendida con éxito) fue impulsada por un talento remoto excepcional. Turing tambien es respaldada por inversionistas innovadores de alto perfil como el primer CTO de Facebook (Adam D'Angelo), ejecutivos de Google, Amazon, Twitter y Foundation Capital.

Política de Igualdad de Oportunidades

Turing es un empleador que ofrece igualdad de oportunidades. Turing prohíbe la discriminación y el acoso de cualquier tipo y ofrece igualdad de oportunidades de trabajo a los empleados y solicitantes sin tener en cuenta la raza, el color, la religión, el sexo, la orientación sexual, la identidad o expresión de género, la edad, el estado de discapacidad, el estado de veterano protegido o cualquier otra característica protegida por la ley.

Explora trabajos remotos de desarrollador

briefcase
Senior Backend Engineer

Before you read on, take a look around you. Everything you see has been shipped, often multiple times, before reaching its destination. Global e-commerce sales are expected to total $5.5 trillion worldwide in 2022 and continue growing over the next few years. Here at Shippo, we are the shipping layer of the internet, and we consider ourselves to be one of the core building blocks of e-commerce.

Our mission is to make merchants successful through world class shipping. With our products and solutions, we level the playing field by providing our customers with best-in-class solutions that otherwise wouldn’t be available to them. Through our e-commerce businesses, marketplaces, and platforms are able to connect to shipping carriers around the world from one API and dashboard. We provide our customers with the most competitive shipping rates, print labels, automated international documents, shipment tracking, facilitate the returns process and more.

About the Role

We are looking for a Senior Backend Engineer to join our Carriers Capabilities Team! Businesses, partners, customers, and users worldwide rely on our integration to a global network of carriers to streamline their fulfillment workflow. You can look forward to expanding our Shipping Carrier Library for both domestic and international shipments. The Carrier Capabilities Team is responsible for developing new integrations with carriers, maintaining them, building infrastructure and maintaining current services. As a Senior Engineer, you will provide experience and oversight in technical definitions, and coding for your team.

 

Job Responsibilities:


  • Design, implement, test, and deploy software services with high SLAs that can handle millions of requests a day
  • Ensure scalability and maintainability through microservices adoption, decoupling of concerns from the data model, queuing of jobs, application layering and container-based software distribution.
  • Continue to build out and enhance our CI/CD pipeline for smooth and safe production releases via automated testing and verification.
  • Verify and ensure performance and correctness of systems in response time and throughput.
  • Architect systems and refactor existing systems for optimal performance and reuse
  • Participate in peer reviews, testing and in design reviews for new features, products, and systems
  • Collaborate with business teams and provide early input to new product ideas and functionality
  • Define, implement, and monitor operational metrics to ensure performance and quality.
  • Work with a sense of urgency and iterate quickly in an agile process.
  • Mentor more junior engineers on engineering best practices.
  • Exceptional problem solving skills: demonstrated ability to understand business challenges and translate those into technical solutions.
  • Being on team on-call rotation and able to respond quickly to system incidents


Job Requirements:


  • 7+ years of experience in software development
  • Coding experience in server-side programming languages (e.g. Python, Go, Java, Ruby) as well as database languages (SQL) in production at scale
  • Experience consuming APIs (client) and processing millions of integrations per second
  • Experience working with server-side frameworks (e.g. Django, FastAPI, .NET, Spring, Rails, Phoenix)
  • Strong interpersonal skills and the ability to work with all levels of the organization.
  • Past experience and success building and supporting scalable APIs, services, or applications
  • Solid understanding of object-oriented programming and familiarity with various design and architectural patterns.
  • Exceptional verbal, written, and interpersonal communication skills. You are adept at communicating relevant information clearly and concisely.
  • Deep understanding of customer needs and passion for customer success.
  • Ability to look ahead to identify opportunities, foster a culture of innovation, and build for scale.
  • Exhibit core behaviors focused on craftsmanship, continuous improvement, and team success
  • BS or MS degree in Computer Science or equivalent experience

Bonus


  • Experience with Integration Patterns Concepts like messaging, routing, translator.
  • Experience working with Enterprise Integration Frameworks (e.g. Apache Camel, Spring Integration) or Data Integration Framework (e.g. Prefect, Sprint Data Streams)
  • Experience with workflow orchestration tools (e.g. Temporal, Kestra, Prefect)
  • Experience using Python and/or Golang in production at scale
  • Interest and experience in performance tuning, concurrency, security, data pipelines, and web servers
  • Familiarity with microservices architectures
  • Experience integrating with APIs that use REST, SOAP, gRPC and other technologies
  • Experience with Django and/or FastAPI
  • Prior experience working or interacting with shipping and/or postal carriers
  • Experience with messaging systems such as NSQ, Kafka, SQS and Celery
  • Experience with DevOps tooling such as Docker, Terraform, Kubernetes, CircleCI, GitHub Actions, ArgoCD, New Relic, PagerDuty, etc
  • Experience with AWS/Cloud services such as EC2, S3, DynamoDB, Lambda, Route 53, Cloud Formation, Cloudflare, Elastic Beanstalk, IAM, etc.

Offer Details

  • Full-time Contractor (No benefits)
  • Remote only, full-time dedication (40 hours/week)
  • Required 5 hours overlap with EST (Eastern Standard Time)
  • Competitive compensation package.
  • Opportunities for professional growth and career development.
  • Dynamic and inclusive work environment focused on innovation and teamwork
Software
251-10K employees
PythonDjangoDynamoDB+ 3
briefcase
Engineering Researcher UG/Master’s/PhD

About Us

Turing is one of the world’s fastest-growing AI companies, pushing the boundaries of AI-assisted software development. Our mission is to empower the next generation of AI systems to reason about and work with real-world software repositories. You’ll be working at the intersection of software engineering, open-source ecosystems, and frontier AI.

Role Overview — What Does a Typical Day Look Like?

You’ll work alongside top AI researchers and domain experts shaping foundational LLMs at leading AI labs to:

  • Design and solve high-quality engineering problems that push the limits of model reasoning—spanning undergraduate through PhD-level topics.
  • Analyze and evaluate model-generated solutions using a structured evaluation and ranking framework.
  • Identify conceptual gaps, edge cases, and model blind spots—helping define new benchmarks for engineering reasoning.
  • Contribute insights that shape model fine-tuning and frontier AI research

Required Skills & Experience

  • Strong academic background in Engineering disciplines (Computer Science, Electrical, Mechanical, Chemical, Civil, Biotechnology, Robotics, or related fields)
  • Open to talent at all education levels — UG, Master’s, and PhD
  • Deep problem-solving skills and a structured, analytical mindset.
  • Strong communication skills to collaborate with technical researchers.
  • Interest in LLMs and how they work is a plus!

Engagement Details

  • Commitment: Work as an expert gig worker with flexible engagement; minimum 10 hrs/week and up to 40 hrs/week (partial PST overlap required)
  • Duration: 1 month with potential extensions based on performance and fit
-
1-10 employees
Growth EngineeringRoboticsElectronic Engineering and Telecommunications
sample card

Aplica a los mejores trabajos

Ver más vacantes
Turing books $87M at a $1.1B valuation to help source, hire and manage engineers remotely
Turing named one of America's Best Startup Employers for 2022 by Forbes
Ranked no. 1 in The Information’s "50 Most Promising Startups of 2021" in the B2B category
Turing named to Fast Company's World's Most Innovative Companies 2021 for placing remote devs at top firms via AI-powered vetting
Turing helps entrepreneurs tap into the global talent pool to hire elite, pre-vetted remote engineers at the push of a button

Trabaje con las principales empresas del mundo

Crea tu perfil, pasa las pruebas de Turing y recibe ofertas de trabajo dos semanas después.