Vagas Hadoop/Kafka | Ganhe em Dólar

Nós, da Turing, estamos buscando por engenheiros de dados interessados em vagas Hadoop/Kafka, que possam trabalhar de forma remota e que serão responsáveis ​​por criar novos recursos e componentes na plataforma ou infraestrutura de dados, produzindo trabalho técnico detalhado e projeto arquitetônico de alto nível. Aqui está a melhor chance de colaborar com os principais líderes do setor enquanto trabalha com as principais empresas do Vale do Silício.

Confira os melhores empregos para Maio de 2024aqui

Encontre o emprego perfeito com centenas de parceiros da Turing.

Descrição do trabalho

Responsabilidades

  • Projetar e desenvolver aplicativos de análise de dados de alta performance e baixa latência
  • Desenvolver pipelines de dados automatizados para sincronizar e processar fluxos de dados complexos
  • Colaborar com cientistas/engenheiros de dados, desenvolvedores front-end e designers para criar componentes de processamento e armazenamento de dados
  • Construir modelos de dados para bancos de dados relacionais e escrever testes de integração abrangentes para entregar produtos de alta qualidade
  • Participar do carregamento de dados de vários conjuntos diferentes e auxiliar a equipe de documentação no fornecimento de boa documentação ao cliente
  • Contribuir em design de ativos de dados analíticos e implementação de atributos modelados

Requisitos mínimos

  • Bacharelado ou Mestrado em Ciência da Computação ou Engenharia (ou experiência equivalente)
  • Mais de 3 anos de experiência como engenheiro de dados (com raras exceções para desenvolvedores talentosos)
  • Experiência extensa em tecnologias de big data como Hadoop, Hive, Druid, etc.
  • Expertise na criação e gerenciamento de pipelines de big data usando Kafka, Flume, Airflow etc.
  • Trabalho eficiente com Python e outras linguagens de processamento de dados como Scala, Java, etc.
  • Experiência de trabalho com ambientes hospedados em AWS
  • Forte conhecimento de banco de dados incluindo SQL, MySQL, PostgreSQL
  • Familiaridade com ambientes DevOps e conteinerização com Docker, Kubernetes etc.
  • Proficiência em inglês para uma comunicação eficaz com o resto do time
  • Capacidade de trabalhar em tempo integral (40 horas/semana) e sobrepor mais de 4 horas com os fusos horários dos EUA

Habilidades desejadas

  • Experiência com sistemas de Machine Learning
  • Conhecimento de processamento de dados em lotes e criação de sistemas de análise em tempo real
  • Experiência prática com Golang e Scala
  • Compreensão de sistemas altamente distribuídos, escaláveis ​​e de baixa latência
  • Ideia de visualização de dados e ferramentas de BI como Power BI, Tableau, etc .
  • Experiência no desenvolvimento de APIs REST
  • Excelentes habilidades organizacionais e de comunicação
  • Grande habilidade técnica, analítica e de resolução de problemas

Interessado neste trabalho online?

Inscreva-se na Turing hoje

Inscreva-se agora

Por que você deveria se juntar à Turing?

Empregos de alto nível nos EUA

1Empregos de alto nível nos EUA

Os desenvolvedores da Turing ganham mais do que o salário médio do mercado na maioria dos países, trabalhando com grandes empresas americanas.
Crescimento profissional

2Crescimento profissional

Cresça rapidamente trabalhando com problemas técnicos e de negócios desafiadores e relacionados às mais recentes tecnologias.
Suporte ao Desenvolvedor

3Suporte ao Desenvolvedor

Após o match, aproveite o suporte ao desenvolvedor 24 horas por dia, 7 dias por semana.

Desenvolvedores Turing

Leia as avaliações da Turing.com feitas por desenvolvedores de todo o mundo e saiba como é trabalhar para as melhores empresas dos EUA.
4.6DE 5
com base nas avaliações dos desenvolvedores em Abril de 2024
Veja todas as avaliações

Como se tornar um desenvolvedor da Turing?

Trabalhe com as melhores empresas de software em apenas 4 passos fáceis
  1. Crie seu perfil

    Preencha seus dados básicos: nome, endereço, habilidades, salário e experiência.

  2. Realize nossos testes e entrevista

    Resolva os testes e realize uma entrevista técnica.

  3. Receba ofertas de trabalho

    Seja selecionado pelas melhores empresas dos EUA e do Vale do Silício

  4. Comece a trabalhar no seu emprego dos sonhos

    Quando você estiver na Turing, não precisará procurar outro emprego.

cover

Como se tornar um engenheiro de dados Hadoop/Kafka?

O Hadoop é um framework de software de código aberto para armazenamento e processamento de dados, principalmente grandes conjuntos de deles, em clusters de hardware comum em um ambiente de computação distribuído. Ele permite que os clusters interpretem grandes conjuntos de dados rapidamente, facilitando a distribuição dos cálculos por muitos computadores. O Hadoop tornou-se a base do gerenciamento de grandes sistemas de dados, que, por sua vez, desempenham um papel crucial em várias aplicações da Internet.

O Apache Kafka, um software escrito em Java e Scala e comercializado como código aberto, é uma plataforma popular de streaming de eventos usada por desenvolvedores para integração de dados, análises, funis de dados de alto desempenho e aplicativos de missão crítica. Desde que a ferramenta ganhou imensa fama nos últimos anos, as empresas contratam cada vez mais desenvolvedores Kafka. Dessa forma, vale a pena investir em vagas remotas de engenheiro de dados Hadoop/Kafta.

Qual é o escopo da engenharia de dados Hadoop/Kafka?

De empresas gigantes, como Netflix, LinkedIn e Uber, a fabricantes de automóveis, muitas das principais organizações do mundo confiam no Kafka para processar dados de streaming a uma taxa de trilhões de eventos por dia. A plataforma de mensagens foi originalmente construída para suportar uma fila de mensagens pelo Apache Kafka, uma ferramenta de código aberto sob a licença Apache. Hoje, os desenvolvedores estão usando o Kafka para criar funis e aplicativos de streaming em tempo real que processam e analisam os dados à medida que chegam.

O Hadoop oferece às empresas uma oportunidade única de segmentar consumidores e fornecer experiências personalizadas para cada um deles, convertendo dados em conteúdo acionável. As empresas que podem converter dados em conteúdo acionável com sucesso usando o Hadoop sairão na frente para criar publicidade, marketing e outras estratégias comerciais fantásticas projetadas para atrair clientes.

Diante disso, é seguro dizer que os engenheiros de dados Hadoop/Kafka continuarão em alta demanda no mercado de tecnologia.

Quais são as funções e responsabilidades de um engenheiro de dados Hadoop/Kafka?

Um desenvolvedor Hadoop é responsável pelo desenvolvimento e programação de aplicativos Hadoop. São eles que criam aplicativos para gerenciar e manter o Big Data de uma empresa. Eles sabem como construir, operar e solucionar problemas de grandes clusters Hadoop. Portanto, as empresas que desejam contratar desenvolvedores Hadoop precisam encontrar profissionais experientes que possam atender às suas necessidades de construção de infraestrutura de processamento e armazenamento de dados em grande escala.

Espera-se que os desenvolvedores Kafka realizem implementação e produção de ponta a ponta de vários projetos de dados, além de projetar, desenvolver e aprimorar aplicações web e realizar análises funcionais e técnicas independentes para vários projetos. Esses desenvolvedores trabalham em um ambiente Agile, no qual projetam uma implantação Kafka estratégica de Multi Data Center (MDC). Além de ter experiência em várias abordagens de programação funcional, trabalhar com containers, gerenciar orquestradores de containers e implantar aplicativos nativos em nuvem, eles também devem ter experiência em Desenvolvimento Orientado a Comportamento e Desenvolvimento Orientado a Testes. Os engenheiros de dados Hadoop/Kafka geralmente têm as seguintes responsabilidades de trabalho:

  • Desenvolver aplicações de análise de dados de alto desempenho e baixa latência
  • Automatizar a sincronização e o processamento de fluxos de dados complexos usando funis de dados
  • Desenvolver componentes de processamento e armazenamento de dados em cooperação com cientistas ou engenheiros de dados, designers e desenvolvedores front-end
  • Projetar e construir modelos de banco de dados relacionais e integrar testes abrangentes para garantir produtos de alta qualidade
  • Auxiliar a equipe de documentação no fornecimento de boa documentação do cliente, carregando dados de datasets diferentes
  • Contribuir para desenvolver ativos de dados analíticos e implementar atributos modelados

Como se tornar um engenheiro de dados Hadoop/Kafka?

Ao procurar um emprego de engenheiro de dados Hadoop/Kafka, você precisará considerar ter um diploma na área e, eventualmente, a graduação mais adequada para a função. Não será fácil conseguir um emprego de engenheiro de dados Hadoop/Kafka com apenas um diploma do ensino médio. Os candidatos mais adequados para um trabalho de engenheiro de dados Hadoop/Kafka são aqueles que obtiveram bacharelado ou mestrado em Ciência da Computação ou áreas afins.

Para se destacar em sua área, é importante que você ganhe experiência e conhecimento prático. Nesse sentido, fazer um estágio é uma excelente opção. Além disso, inúmeros treinamentos estão disponíveis em diversas instituições privadas. Ter pelo menos uma qualificação pode ajudá-lo a destacar o seu currículo num processo de seleção. Vale ressaltar que, para se candidatar a um cargo de engenheiro de dados Hadoop/Kafka, você também deverá ter mais de 3 anos de experiência com bibliotecas Ruby on Rails, como Rescue e RSpec, além de talento em programação Ruby e habilidades de escrita de código limpo.

Abaixo estão algumas das habilidades mais importantes que um engenheiro de dados do Hadoop/Kafka precisa para ter sucesso no local de trabalho:

Interessado em vagas remotas de engenheiro de dados Hadoop/Kafka?

Inscreva-se na Turing hoje!

Inscreva-se agora

Habilidades necessárias para se tornar um engenheiro de dados Hadoop/Kafka

Os trabalhos remotos de engenheiro de dados Hadoop/Kafka exigem certas habilidades e noções básicas. Portanto, se você deseja garantir uma vaga como engenheiro de dados Hadoop/Kafka, comece a aprender as habilidades fundamentais que podem lhe garantir empregos bem remunerados. Aqui está o que você precisa saber!

1. Conhecimento da arquitetura Apache Kafka

Para entender a plataforma Apache Kafka, é útil conhecer sua arquitetura. Embora pareça complexa, a arquitetura é bastante simples e eficiente e oferece a possibilidade de enviar e receber mensagens em suas aplicações. Essa combinação de eficiência e usabilidade torna a programação Apache Kafka altamente desejável pelas empresas.

2. APIs Kafka

Além de outras habilidades recomendadas, um engenheiro de dados Hadoop/Kafka deve ser bem versado em quatro APIs Java: API produtora, API consumidora, API de fluxos e API conectora. Essas APIs tornam o Kafka uma plataforma totalmente personalizável para aplicativos de processamento de fluxo. A API de fluxos oferece funcionalidade de alto nível que permite processar fluxos de dados, já o uso da API conectora permite criar conectores de importação e exportação de dados reutilizáveis.

3. O básico do Hadoop

Preparar-se para um trabalho remoto de engenheiro de dados Hadoop/Kafka requer uma compreensão completa da tecnologia. Além disso, uma compreensão fundamental dos recursos e usos do Hadoop, bem como seus benefícios e desvantagens, é essencial para aprender tecnologias mais sofisticadas. Para saber mais sobre uma área específica, consulte os recursos disponíveis online e offline. Estes podem ser tutoriais, jornais, artigos de pesquisa, seminários, e assim por diante.

4. SQL

Você precisará de um sólido conhecimento de SQL para ser um engenheiro de dados Hadoop/Kafka. Isso se dá porque trabalhar com outras linguagens de consulta, como HiveQL, o beneficiará significativamente se você tiver um forte entendimento de SQL. Você pode melhorar ainda mais suas habilidades aprimorando os princípios de banco de dados, sistemas distribuídos e tópicos semelhantes para ampliar seus horizontes.

5. Componentes Hadoop

Depois de aprender sobre os princípios do Hadoop e quais habilidades técnicas são necessárias para trabalhar com ele, é hora de seguir em frente e descobrir mais sobre o ecossistema do Hadoop como um todo. Existem quatro componentes principais do ecossistema Hadoop:

  • Sistema de arquivos distribuído Hadoop
  • Redução de mapa
  • Mais um negociador de recursos
  • Hadoop comum

Interessado em vagas remotas de engenheiro de dados Hadoop/Kafka?

Inscreva-se na Turing hoje!

Inscreva-se agora

Como obter trabalhos remotos de engenheiro de dados Hadoop/Kafka?

Atletas e desenvolvedores têm muito em comum. Ambos devem praticar eficiente e consistentemente para se destacarem em seu meio. Eles também devem trabalhar duro para que suas habilidades melhorem com o tempo. Neste sentido, há duas coisas importantes nas quais os desenvolvedores devem se concentrar para que esse crescimento ocorra: a assistência de alguém mais experiente e bem-sucedido nas técnicas de treino quando você estiver praticando, e o uso de técnicas mais eficazes. Você precisa saber o quanto praticar como desenvolvedor, portanto, certifique-se de ter alguém para ajudá-lo no treino e fique atento a sinais de burnout!

A Turing oferece os melhores trabalhos remotos de engenheiro de dados Hadoop/Kafka que são feitos sob medida para o seu plano de carreira como engenheiro de dados Hadoop/Kafka. Obtenha empregos remotos para engenheiro de dados Hadoop/Kafka, de tempo integral, longo prazo, com oportunidades de crescimento na carreira e ótima remuneração, juntando-se a uma rede com os melhores desenvolvedores do mundo.

Por que se tornar um engenheiro de dados Hadoop/Kafka na Turing?

Trabalhos de primeira linha nos EUA

Oportunidades de trabalho de longo prazo para empresas americanas incríveis, orientadas por suas missões e com grande remuneração.

Crescimento na carreira

Trabalhe em problemas técnicos e comerciais desafiadores, utilizando tecnologia de ponta para acelerar o crescimento de sua carreira.

Comunidade exclusiva de desenvolvedores

Junte-se a uma comunidade mundial de desenvolvedores de software de elite.

Uma vez parte da Turing, você nunca mais terá que se candidatar para outro emprego

Os compromissos da Turing são de longo prazo e em tempo integral. Quando um projeto termina, nossa equipe parte para identificar o próximo em questão de semanas.

Trabalhe do conforto da sua casa

A Turing permite que você trabalhe de acordo com sua conveniência. Temos horários de trabalho flexíveis e você pode trabalhar para as principais empresas americanas do conforto da sua casa.

Ótima remuneração

Trabalhando com as principais corporações americanas, os desenvolvedores da Turing recebem mais do que o mercado costuma oferecer na maioria dos países.

Quanto a Turing paga para engenheiros de dados Hadoop/Kafka?

Na Turing, cada engenheiro de dados Hadoop/Kafka é livre para determinar sua faixa salarial. A Turing, por outro lado, recomendará um salário com o qual estamos confiantes de que poderemos lhe oferecer uma oportunidade vantajosa e de longo prazo. Nossas sugestões baseiam-se na análise das condições de mercado e na demanda que recebemos de nossos clientes.

Perguntas frequentes

Somos uma plataforma “end-to-end” de empregos baseada em Palo Alto que permite que desenvolvedores de software talentosos trabalhem com grandes empresas americanas a partir do conforto de suas casas. Somos liderados por Jonathan Siddharth e Vijay Krishnan, ex-alunos de Stanford e empreendedores bem-sucedidos de I.A.

Nossa diferenciação exclusiva reside na combinação do nosso modelo de negócio principal com os nossos valores. Para o avanço da AGI, a Turing disponibiliza oportunidades de contratos temporários. A maioria dos contratos para Consultores de IA tem duração de até 3 meses, com possibilidade de extensões mensais — condicionadas ao seu interesse, disponibilidade e à demanda do cliente — por um período máximo de 10 meses consecutivos. Para o negócio Turing Intelligence, oferecemos projetos de longo prazo em regime integral.

Atualmente, temos vagas apenas para desenvolvedores devido ao volume de demandas de trabalho de nossos clientes. Mas no futuro, também poderemos expandir para outras áreas. Verifique nossa página de carreiras periodicamente para saber se estamos oferecendo uma vaga que se adapta às suas habilidades e experiência.

Na Turing, contratamos desenvolvedores remotos para mais de 100 habilidades como React/Node, Python, Angular, Swift, React Native, Android, Java, Rails, Golang, PHP, Vue, etc. Também contratamos engenheiros de acordo com sua especialidade e experiência.

Depois de fazer upload do seu currículo, você terá que passar por três testes: avaliação de senioridade, teste de tech stack e desafio de programar ao vivo. Uma vez aprovado nestes testes, você poderá se candidatar a uma ampla gama de trabalhos disponíveis com base nas suas habilidades.

Não, o serviço é absolutamente gratuito para desenvolvedores de software inscritos.

Idealmente, um desenvolvedor remoto deve ter pelo menos 3 anos de experiência relevante para ser contratado pela Turing, mas não dizemos não a desenvolvedores excepcionais. Faça nosso teste para descobrir se podemos oferecer algo interessante para você.

A comunicação é crucial para o sucesso quando se trabalha com clientes dos EUA. Preferimos candidatos com nível B1 de inglês, ou seja, aqueles que têm a fluência necessária para se comunicar sem problemas com nossos clientes e falantes nativos.

Não, você não precisa pagar nenhum imposto nos Estados Unidos. No entanto, você pode ter que pagar impostos de acordo com as leis fiscais do seu país. Além disso, seu banco pode cobrar um pequeno valor como uma taxa de transação.

Veja outras perguntas frequentes

Últimos Posts da Turing

Remote software developer enjoying remote work

Tips for Succeeding as a Remote Software Developer

Many people dream of working as a freelancer. Aside from working whenever and wherever they want, freelancers are...

Saiba mais
Turing.com Review by developer from Kenya

Turing Reviews: ‘I Can Travel, Visit My Family and Friends While Still Working,’ Says Shadrack from Kenya

Developer from Kenya reviews Turing.com, remote software jobs, working culture, salary, and work-life balance...

Saiba mais
Sam Good- Turing.com Review

‘Turing Is a Fantastic Place to Be with a Lot of Really Cool People,’ Says Sam from the US!

Turing is a great place to be with a lot of really cool people, says Sam from the United States in his Turing.com...

Saiba mais
Software-Development-Life-Cycle-scaled

The Nine Steps of Software Product Development Life Cycle

A product development process depends on the nature of the business. But these steps can turn your ordinary softw...

Saiba mais

DevOps Jobs in Demand in 2023 | Turing

Here are the most in-demand DevOps jobs in September 2022: 1. AWS 2. Azure 3. Google Cloud Platform 4. Kubernetes...

Saiba mais

Liderança

Em poucas palavras, a Turing tem como objetivo fazer com que exista um equilíbrio de oportunidades ao redor do mundo. A Turing é uma criação dos empreendedores de IA em série Jonathan e Vijay, cuja empresa anterior de IA (vendida com sucesso) foi potencializada por talentos remotos excepcionais. Também fazem parte do grupo de inovadores da Turing investidores de alto perfil, como o primeiro CTO do Facebook (Adam D'Angelo), executivos de Google, Amazon, Twitter e Foundation Capital.

Política de Igualdade de Oportunidades

Turing é uma contratante que dá oportunidades iguais. A Turing proíbe discriminação e assédios de qualquer tipo e oferece oportunidades de emprego iguais para funcionários e candidatos, sem discriminar raça, cor, religião, sexo, orientação sexual, identidade ou expressão de gênero, idade, status de deficiência, status de veterano protegido ou qualquer outra característica protegida por lei.

Veja alguns trabalhos remotos para desenvolvedores

briefcase
ML/OpenCV Data Labeler

About the Role


We’re looking for a Machine Learning / Computer Vision Data Labeler to support customers onboarding and build high-quality training datasets for our computer vision products used in manufacturing environments. This role sits at the intersection of ML data operations and light product/customer work—you’ll help us understand what customers do on the factory floor, collect and analyze representative sample data from each station, and translate real-world processes into clear labeling instructions and reliable datasets.

This is not a super-senior role, but it does require strong ownership, attention to detail, and comfort working with highly confidential customer data.


Responsibilities


  • Coordinate and execute sample data capture across all manufacturing stations, ensuring coverage of real-world variation
  • Work with our on-site implementation team to validate camera setup outputs (camera position, field of view, recording settings, connectivity, sample clips/images).
  • Organize, clean, and curate datasets (images/video), including selecting representative samples, filtering unusable footage, and documenting capture conditions.
  • Perform data labeling/annotation for computer vision tasks (e.g., classification, object detection, segmentation, defect tagging, action/process step labeling—depending on the use case).
  • Create and maintain labeling taxonomies and annotation guidelines that are consistent, scalable, and easy for others to follow.
  • Run quality checks (spot checks, consistency reviews, edge-case handling) and partner with ML/Engineering to continuously improve label quality.
  • Conduct lightweight exploratory analysis on incoming datasets (e.g., distributions, coverage gaps, common failure modes, ambiguity hot-spots).
  • Flag data issues early (missing stations, misaligned camera views, insufficient examples, inconsistent definitions) and propose fixes.
  • Provide structured feedback to ML and product teams: what data we have, what we’re missing, and what will improve model performance.
  • Support customer onboarding by learning what the client does, mapping their workflow/stations, and translating their needs into data/labeling requirements.
  • Communicate clearly with internal stakeholders and occasionally with customers to align on labeling definitions, success criteria, timelines, and data handling expectations.
  • Document processes, station definitions, and dataset decisions so teams can move fast and stay aligned.
  • Work with sensitive/secret customer manufacturing data and follow strict security policies (access control, secure transfer/storage, need-to-know practices, and customer-specific handling requirements).

Qualifications

  • 1–4 years of experience in a role involving data labeling/annotation, ML data operations, computer vision datasets
  • Working knowledge of computer vision fundamentals (classification vs detection vs segmentation; what labels are used for; why consistency matters).
  • Experience with labeling tools such as CVAT, Labelbox, V7, Supervisely, or similar (or the ability to learn quickly).
  • Comfort working with data formats/workflows (e.g., CSV/JSON annotations, COCO-style formats, dataset folders, basic versioning concepts).
  • Strong written and verbal communication skills; able to explain labeling decisions and customer workflows clearly.
  • Professional maturity and discretion—ability to handle highly confidential customer data.
  • German language ok, strong communication in English preferred

Nice to Have

  • Exposure to manufacturing environments (industrial processes, station-based workflows, quality inspection).
  • Familiarity with camera systems / video capture pipelines (e.g., frame rate, resolution trade-offs, lighting impacts, field of view).

Offer Details

  • Full-time employment via temporary agency (EoR)
  • Remote only, full-time dedication (40 hours/week)
  • EU Timezones
  • Competitive compensation package.
  • Opportunities for professional growth and career development.
  • Dynamic and inclusive work environment focused on innovation and teamwork


Software
51-250 employees
Machine LearningCustomer Interaction
briefcase
React Native Engineer

About the Role

We’re looking for a Senior React Native Engineer with strong native iOS experience to help us build the next generation of Meltwater’s mobile products. This is a hands-on senior role for a self-driven engineer who thrives in collaborative environments, takes full ownership of their work, and is passionate about crafting high-quality mobile experiences that scale.

You’ll work across our React Native, native iOS (Swift), and native Android codebases (Java/Kotlin), collaborating closely with designers, backend engineers, and product managers to deliver intuitive, performant, and reliable apps used by thousands of customers globally. Our mobile stack is evolving—modernizing legacy iOS code (RestKit, UIKit) into React Native with shared business logic and modular architecture. You’ll play a key role in this transformation.


What You’ll Do

  • Lead the development of new features and enhancements in React Native, integrating with existing native iOS (Swift) components.
  • Collaborate with backend and web teams to design and implement APIs, data flows, and modern architecture patterns (MVVM, VIPER, or similar).
  • Maintain and improve our CI/CD pipelines (e.g., GitHub Actions, Fastlane) for build reliability and release automation.
  • Own the end-to-end delivery of mobile features—from requirements and technical design to testing and deployment.
  • Drive code quality, performance optimization, and technical excellence across the team.
  • Partner with Product and Design to refine scope, improve usability, and ensure smooth handoffs.
  • Help mentor junior and mid-level engineers, providing code reviews and technical guidance.
  • Contribute to defining and evolving our mobile architecture strategy as we migrate to a unified React Native codebase.

What We’re Looking For

  • 5+ years of professional mobile development experience, with at least 2+ years in React Native and 3+ years in iOS (Swift).
  • Deep understanding of React Native workflows, native module bridging, and mobile build cycles.
  • Proven experience with modern iOS architecture patterns (VIPER, MVVM, or Clean Architecture).
  • Strong knowledge of Swift, UIKit, and SwiftUI fundamentals.
  • Familiarity with mobile CI/CD systems and automated build pipelines (Fastlane, GitHub Actions, Bitrise, etc.).
  • Solid understanding of RESTful APIs, JSON parsing, and real-time/SSE data flows.
  • Experience integrating with third-party SDKs such as Auth0, Firebase, and social login providers.
  • Strong collaboration and communication skills—able to work cross-functionally in an agile, globally distributed team.
  • A self-starter who takes ownership, identifies improvements, and delivers results without heavy supervision.

Offer Details

  • Full-time contractor
  • Remote only, full-time dedication (40 hours/week)
  • 6 hours of overlap with PST
  • 6 months contract with a possibility of extension
  • Competitive compensation package.
  • Opportunities for professional growth and career development.
  • Dynamic and inclusive work environment focused on innovation and teamwork
Software
251-10K employees
React NativeCI/CDREST/RESTful APIs
sample card

Candidate-se para as melhores vagas

Veja nossos últimos trabalhos remotos
Turing books $87M at a $1.1B valuation to help source, hire and manage engineers remotely
Turing named one of America's Best Startup Employers for 2022 by Forbes
Ranked no. 1 in The Information’s "50 Most Promising Startups of 2021" in the B2B category
Turing named to Fast Company's World's Most Innovative Companies 2021 for placing remote devs at top firms via AI-powered vetting
Turing helps entrepreneurs tap into the global talent pool to hire elite, pre-vetted remote engineers at the push of a button

Trabalhe com as principais empresas do mundo

Crie seu perfil, passe nos testes da Turing e receba ofertas de emprego a partir de 2 semanas.