Hamburger_menu.svg

Trabajos remotos de ingeniero de datos Spark

En Turing estamos buscando ingenieros de datos Spark remotos, que serán responsables de limpiar, transformar y analizar grandes cantidades de datos sin procesar de varios recursos utilizando Apache Spark para proporcionar datos listos para usar a los desarrolladores y analistas de negocios. Obtén la oportunidad de trabajar con las empresas líderes de Silicon Valley mientras aceleras tu carrera.

Echa un vistazo a los mejores empleos para abril 2024aquí

Descubre trabajos remotos en software con centenas de clientes de Turing

Descripción del puesto

Responsabilidades del puesto

  • Crear y optimizar canalizaciones ETL de Apache Spark.
  • Ofrecer soluciones escalables, rentables y flexibles a los clientes.
  • Participar en el desarrollo iterativo de aplicaciones de extremo a extremo.
  • Mantenerse al día con las mejores prácticas de desarrollo de software moderno y la gestión del ciclo de vida.
  • Utilizar herramientas ETL para cargar datos de diferentes fuentes en la plataforma Hadoop.
  • Comunicarse regularmente de manera eficiente con los clientes y las partes interesadas.
  • Crear trabajos de Spark basados ​​en Java para transformaciones y agregaciones de datos.
  • Realizar pruebas unitarias para transformaciones de Spark.
  • Implementar canalizaciones de procesamiento de datos con Spark.

Requisitos mínimos

  • Licenciatura / Maestría en Ingeniería, Ciencias de la Computación (o experiencia equivalente).
  • Al menos 3+ años de experiencia en ingeniería de datos (con algunas excepciones para desarrolladores altamente calificados).
  • Experiencia en lenguajes de programación establecidos como Python, Java, Scala, etc.
  • Dominio de Apache Spark y diferentes Spark Frameworks/Cloud Services como Databricks, EMR, Azure HDI.
  • Experiencia con tecnologías como Storm, Apache Kafka, Hadoop, etc.
  • Conocimiento profundo de la nube (AWS, Azure), así como de CI/CD y visualización de datos.
  • Conocimiento de tecnologías como Spark y Hadoop HDFS, Hive, Hbase con amplia experiencia en Spark.
  • Fluidez en el idioma Inglés para una comunicación efectiva.
  • Experiencia práctica con tecnologías de contenerización y orquestación de contenedores usando Kubernetes, OpenShift, Docker, etc.
  • Capacidad para trabajar a tiempo completo (40 horas a la semana) con una superposición de 4 horas con las zonas horarias de EE. UU.

Habilidades preferidas

  • Comodidad con los conceptos de ETL, SQL (DDL, DML, procedimental).
  • Experiencia práctica en herramientas de ingestión y captura de cambios como StreamSets, Informática.
  • Gran experiencia en repositorios de código fuente como Git, SVN y Jenkins.
  • Conocimiento práctico de NRT y tecnología asociada: Spark, MemSQL, etc.
  • Comprender la arquitectura de datos, la creación de perfiles de datos y la calidad de los datos.
  • Conocimiento de bases de datos de almacenamiento como Teradata, Oracle, etc.
  • Familiaridad con Unix y Shell Scripting.
  • Conocimiento de diversas industrias, herramientas y tecnologías de almacenamiento de datos.
  • Experiencia práctica para crear y administrar máquinas virtuales y contenedores.
  • Es deseable contar con conocimiento práctico de HashiCorp Vault Consul.
  • Excelentes habilidades de comunicación y organización.
  • Certificados profesionales en AWS, RHCE, DevOps serán una ventaja.

¿Interesado en este trabajo?

Aplica a Turing hoy mismo.

Aplicar ahora

¿Por qué unirse a Turing?

Elite US Jobs

1Empleos de élite en EE. UU.

Los desarrolladores de Turing obtienen un salario superior al del mercado local en la mayoría de los países gracias a que colaboran con las mejores empresas estadounidenses.
Career Growth

2Crecimiento profesional

Crece rápidamente trabajando en problemas desafiantes, tanto técnicos como de negocio utilizando las tecnologías más actuales.
Developer success support

3Asistencia al Desarrollador

Mientras estes emparejado, disfruta de asistencia 24/7 a los desarrolladores.

Desarrolladores Turing

Lee las reseñas sobre Turing.com de desarrolladores de todo el mundo y descubre como es trabajar con las mejores empresas de EE.UU.
4.6DE 5
Basado en las opiniones de los desarrolladores a marzo 2024
Ver todas las reseñas

¿Cómo convertirse en un desarrollador de Turing?

Trabaja con las mejores compañías de software en solo 4 sencillos pasos
  1. Crea tu perfil

    Completa tus datos básicos: nombre, ubicación, conocimientos, expectativa salarial y experiencia.

  2. Realiza nuestras pruebasy entrevistas

    Resuelve pruebas y asiste a una entrevista técnica.

  3. Recibe ofertas de trabajo

    Las mejores empresas de EE.UU. y Silicon Valley te elegirán como colaborador.

  4. Obtén el trabajo de tus sueños

    Una vez que seas parte de Turing, ya no tendrás que volver a buscar otro trabajo.

cover

¿Cómo convertirte en un ingeniero de datos remoto de Spark?

Spark o Apache Spark es un motor de procesamiento de datos de propósito general utilizado por desarrolladores a nivel mundial. Parece ser la solución perfecta para manejar los requisitos comerciales de diversas industrias y circunstancias. El motor de procesamiento de datos central de Spark viene con bibliotecas para SQL, ML, computación gráfica y funciones de procesamiento de flujo que se suman a su lista de ventajas. Spark no solo es utilizado por desarrolladores de aplicaciones, sino que también lo utilizan globalmente los científicos de datos para configurar consultas rápidas, analizar y transformar datos a escala.

Spark también es bien conocido por ser una solución preferida asociada frecuentemente con el procesamiento de grandes conjuntos de datos, transmisión de datos de sensores, IoT, sistemas financieros y tareas de ML. A lo largo de los años, Spark ha logrado convertirse en una opción preferida para la mayoría de los desarrolladores, transformándola en una habilidad de alto valor. No solo ha logrado optimizar varios procesos, sino que también ha brindado a las organizaciones alternativas disponibles para desarrollar aplicaciones de escalado rápido para satisfacer las preferencias cambiantes de los usuarios finales. Para lo cual, las empresas de tecnología de todo el mundo siempre buscan contratar ingenieros de datos de Spark capaces de impulsar proyectos y abordar los requisitos comerciales utilizando la tecnología.

¿Cuál es el alcance de un ingeniero de datos de Spark?

Con una demanda creciente de soluciones de big data y tecnologías relacionadas, los ingenieros de datos de Spark parecen tener un futuro próspero. El uso de Spark como tecnología ha aumentado significativamente a lo largo de los años y en diferentes industrias a medida que los desarrolladores usan el marco con diferentes lenguajes. Spark ofrece soporte para varios lenguajes de programación como Scala, Python y Java, lo que permite a los desarrolladores adoptar un enfoque ágil. Una gran parte de la industria del desarrollo de software ya ha adoptado Spark como opción preferida, y muchos más se unen a esta tendencia.

La mayoría de las principales organizaciones de todo el mundo están invirtiendo mucho para crear una nube de talento Spark. Esto ha transformado a Spark en una habilidad de alto valor basada en la cual los desarrolladores pueden llevar su carrera al siguiente nivel. Cualquier desarrollador con algunos años de experiencia profesional y conocimientos en Spark y sus mejores prácticas puede construir fácilmente una carrera exitosa y bien remunerada. Los desarrolladores de Spark no son solo profesionales en demanda dentro de la comunidad tecnológica, sino en todas las industrias. Spark se usa a nivel mundial y se implementa regularmente en industrias como telecomunicaciones, redes, banca y finanzas, comercio minorista, desarrollo de software, medios y entretenimiento, consultoría, atención médica, fabricación y más.

La capacidad de encontrar el éxito en diferentes industrias y trabajar con grandes corporaciones ha hecho que la ingeniería de datos de Spark sea más lucrativa que nunca. Los desarrolladores de todo el mundo intentan asegurarse las mejores oportunidades con innumerables empresas que buscan expertos en Spark. La demanda sostenida para encontrar a los mejores especialistas en Spark entre las empresas de desarrollo de software la ha convertido en una carrera profesional próspera.

¿Cuáles son las responsabilidades y funciones de un ingeniero de datos de Spark?

Como ingeniero de datos de Spark, debes estar preparado para contribuir en diferentes aspectos de los procesos de desarrollo de software. Cuando seas contratado como ingeniero de datos de Spark algunas de tus responsabilidades diarias deben incluir tareas como el desarrollo de aplicaciones utilizando lenguajes modernos como Scala, Python y Java. También debes trabajar de cerca en el desarrollo de pruebas de Spark para agregar y transformar datos. También debes poder diseñar diferentes canalizaciones de procesamiento de datos y realizar revisiones de código entre pares para garantizar la calidad de la lógica de secuencias de comandos.

Como ingeniero de datos de Spark, debes estar preparado para realizar tareas como recopilar información sobre las preferencias de los usuarios y transformarlas en características sólidas para aplicaciones nuevas y emocionantes. Entonces, mientras trabajas como ingeniero de datos de Spark, espera hacerte cargo de tareas como:

  • Desarrollar y optimizar canalizaciones ETL de Apache Spark
  • Producir soluciones fáciles de actualizar, rentables y flexibles para los clientes
  • Contribuir activamente a los procesos de desarrollo de aplicaciones de extremo a extremo
  • Mantenerse actualizado sobre las mejores prácticas y la gestión del desarrollo de software moderno
  • Utilizar herramientas ETL para acceder a datos de varias fuentes en una plataforma Hadoop
  • Colaborar de manera eficiente con diferentes clientes y partes interesadas
  • Crear trabajos de Spark basados ​​en Java para transformaciones y agregaciones de datos
  • Realizar pruebas de unidades para transformaciones de Spark
  • Configurar canalizaciones de procesamiento de datos con Spark

¿Cómo convertirte en un ingeniero de datos de Spark?

El conocimiento del desarrollo de Spark y la ingeniería de datos es una habilidad de gran valor en la industria del software actual. El crecimiento y desarrollo de la industria tecnológica ha permitio que muchas personas desarrollen sus carreras en este rubro. Para tener éxito en tales roles, los desarrolladores deben poseer una comprensión profunda de ciertas habilidades básicas. Las empresas prefieren contratar ingenieros de datos de Spark con experiencia profesional relevante y un conocimiento profundo de Apache Spark y diferentes marcos de Spark y servicios en la nube. La capacidad de trabajar con tecnologías como Storm, Apache Kafka o Hadoop también debería ayudar a asegurar las mejores oportunidades en las principales empresas. Como desarrollador, intenta dominar diferentes tecnologías y enfoques adoptados por los ingenieros de datos de Spark para desarrollar proyectos a gran escala.

Además de la competencia técnica, la mayoría de las organizaciones prefieren contratar desarrolladores con un título en informática o campos relacionados. Además, trata siempre de mantenerte actualizado sobre los últimos desarrollos en el campo de desarrollo de Spark y procesos relacionados.

¿Estás interesado/a en trabajos remotos de ingeniero de Spark Data?

¡Conviértete en un desarrollador de Turing!

Aplica ahora

Habilidades requeridas para convertirte en un ingeniero de datos de Spark

Si deseas construir una carrera exitosa a largo plazo en el desarrollo de software como ingeniero de datos de Spark, debes poseer un cierto conjunto de conocimientos. Trata de desarrollar una comprensión profunda de las tecnologías y los lenguajes, que incluyen:

1. Apache Spark

Apache Spark es un motor de análisis unificado de uso gratuito que a menudo se utiliza para el procesamiento de datos a gran escala. Ofrece una interfaz intuitiva para realizar configuraciones utilizando paralelismo de datos implícito y tolerancia a fallas. La plataforma utiliza el almacenamiento en caché en la memoria y la ejecución optimizada de consultas para consultas rápidas sobre datos de una variedad de tamaños. Con Spark, los desarrolladores pueden crear API en varios lenguajes como Java, Scala, Python y R. También se prefiere Spark, ya que ofrece funciones de reutilización de código para diferentes procesos, como procesamiento por lotes, consultas interactivas, análisis en tiempo real, aprendizaje automático y procesamiento de gráficos. Como plataforma de desarrollo, Apache Spark es extremadamente rápido, eficiente, fácil de usar para desarrolladores y admite múltiples cargas de trabajo.

2. Python

Otra habilidad esencial requerida para trabajar como ingeniero de datos de Spark en 2022 es Python. Es probablemente el lenguaje de programación de propósito general más utilizado en la actualidad. Inicialmente desarrollado para ofrecer sangrías y legibilidad del código, Python se hizo rápidamente con un nicho y un seguimiento global. Python como lenguaje fue construido con un enfoque orientado a objetos para permitir a los programadores escribir códigos limpios y lógicos para diversas industrias y requisitos. El lenguaje se puede usar para desarrollar soluciones digitales para diferentes industrias y ve un foco de atención constante en sectores como: análisis de datos, aprendizaje automático y otros proyectos basados ​​en datos. También es un lenguaje extremadamente versátil y ofrece soporte para tareas esenciales que pueden definir el éxito de un proyecto.

3. AWS/Microsoft Azure

En la industria de desarrollo de software actual, casi todos los productos nuevos utilizan servicios en la nube de alguna manera. Los servicios en la nube han logrado introducir varios beneficios para que los desarrolladores construyan, escalen y administren proyectos con el mínimo esfuerzo y desde cualquier ubicación. La introducción de dicha tecnología ha logrado agilizar diferentes procesos, lo que la convierte en un requisito vital para casi todas las funciones de desarrollo de software. Empresas de tecnología principalmente para ingenieros de datos de Spark con conocimientos profundos de integraciones en la nube y mejores prácticas de desarrollo. Dichos servicios también han revolucionado la forma en que se diseñan las estrategias de desarrollo. Según los beneficios de los servicios en la nube, la mayoría de las empresas buscan experiencia en el desarrollo de AWS o Azure mientras contratan ingenieros de datos de SPark.

4. Contenedorización

La contenedorización se ha convertido rápidamente en un modelo elegido con frecuencia por los desarrolladores de software. Ofrece un tipo de tecnología de virtualización que permite que las aplicaciones se ejecuten en sus espacios individuales/aislados denominados contenedores. En la industria de desarrollo de software actual, casi todos los proyectos de desarrollo de software incorporan modelos basados ​​en contenedores para utilizar servidores con eficiencia continua. La mayoría de las empresas de tecnología intentan activamente buscar expertos con un conjunto de habilidades comprobadas para construir, configurar y mantener proyectos en contenedores. Como ingeniero de datos de Spark, una comprensión profunda de las tecnologías, Docker y Kubernetes debe tratarse como una prioridad principal para construir una carrera exitosa y estable.

5. Herramientas de control de versiones

Los procesos modernos de desarrollo de software utilizan principalmente pequeños módulos de código para mejorar la estabilidad. Los desarrolladores también prefieren trabajar con el mismo modelo, ya que les permite agregar, modificar o deshabilitar ciertas funciones sin tener que interrumpir todo el código fuente. Estos beneficios han transformado las herramientas de control de versiones en una posición de importancia. Con estas herramientas, los desarrolladores pueden realizar un seguimiento de todo el código base durante e incluso después del lanzamiento de las aplicaciones. Esto permite a los desarrolladores no solo monitorear y encontrar áreas de mejora, sino también volver a una versión estable del programa si es necesario o cuando sea necesario. Por lo anterior, la comprensión y la experiencia profesional de trabajar con sistemas de control de versiones se han convertido en habilidades esenciales para construir una carrera exitosa en la industria moderna de desarrollo de software.

6. Habilidades de comunicación

Para trabajar en las industrias modernas de desarrollo de software, los desarrolladores pueden necesitar mucho más que solo competencia técnica. En la industria actual, las empresas prefieren contratar técnicos con la confianza de interactuar y presentar a varios miembros del equipo. La capacidad de comunicarse con eficiencia no solo debe ser buena, sino un requisito obligatorio para la mayoría de los puestos. Los ingenieros de datos de Spark deben tener confianza en sus habilidades y fluidez en los idiomas preferidos para contribuir de manera efectiva a los procesos de desarrollo. Interactuar y comunicarse con varios equipos y partes interesadas parece ser una responsabilidad diaria para la mayoría de los desarrolladores. Las habilidades interpersonales se han vuelto aún más importantes con los puestos remotos cada vez más populares. Para lo cual cada ingeniero de datos de Spark debe ser un comunicador seguro.

¿Estás interesado en trabajos remotos de ingeniero de Spark Data?

¡Conviértete en un desarrollador de Turing!

Aplica ahora

¿Cómo ser contratado como ingeniero de datos de Spark fullstack?

Las principales organizaciones tecnológicas buscan contratar a un ingeniero de datos de Spark con experiencia de trabajo en varios nichos. Para poder acceder a estos puestos es imprescindible desarrollar constantemente un conjunto de habilidades técnicas y recopilar conocimientos sobre los requisitos de varias industrias. Junto con el conocimiento de ingeniero de datos de Spark, también se espera que los desarrolladores estén bien versados ​​en el trabajo con tecnologías relacionadas y posean habilidades interpersonales eficientes. Los desarrolladores que comprenden las preferencias de los usuarios también tienden a ser una mejor perspectiva para las organizaciones.

Turing se ha convertido rápidamente en la principal plataforma para avanzar en las carreras trabajando como ingeniero de datos de Spark. Brindamos a los desarrolladores oportunidades para trabajar en proyectos que definen una era y problemas comerciales utilizando tecnologías de vanguardia. Únase a la red de más rápido crecimiento de los mejores desarrolladores de todo el mundo para ser contratado como ingeniero de datos Spark remoto a tiempo completo y a largo plazo con los mejores paquetes de pago.

¿Por qué convertirte en ingeniero de datos de Spark en Turing?

Empleos de élite en EE. UU.
Empleos de élite en EE. UU.

Oportunidades a largo plazo para trabajar para compañías estadounidenses increíbles e impulsadas por una misión con una gran compensación.

Crecimiento profesional
Crecimiento profesional

Trabaja en problemas técnicos y comerciales desafiantes utilizando tecnología de punta para acelerar el crecimiento de su carrera.

Comunidad de desarrolladores exclusiva
Comunidad de desarrolladores exclusiva

Únete a una comunidad mundial de desarrolladores de software de élite.

Una vez que te unas a Turing, nunca más tendrás que solicitar otro trabajo.
Una vez que te unas a Turing, nunca más tendrás que solicitar otro trabajo.

Los compromisos de Turing son a largo plazo y de tiempo completo. Cuando un proyecto llega a su fin, nuestro equipo se pone a trabajar identificando el próximo para ti en cuestión de semanas.

Trabaja desde la comodidad de tu casa
Trabaja desde la comodidad de tu casa

Turing te permite trabajar según tu conveniencia. Tenemos horarios de trabajo flexibles y puedes trabajar para las principales empresas estadounidenses desde la comodidad de su hogar.

Gran compensación
Gran compensación

Trabajando con las principales corporaciones estadounidenses, los desarrolladores de Turing ganan más que el pago estándar del mercado en la mayoría de las naciones.

¿Cuánto paga Turing a su ingeniero de datos Spark?

Cada ingeniero de datos de Spark en Turing puede establecer su propio precio. Turing, por su parte, recomendará un sueldo al ingeniero de datos de Spark por el que estamos seguros de encontrar una oportunidad fructífera y a largo plazo para ti. Nuestras recomendaciones salariales se basan en un análisis de las condiciones del mercado, así como la demanda de los clientes.

Preguntas Frecuentes

Somos una plataforma de empleos de largo plazo basada en Palo Alto California que permite a los desarrolladores de software más talentosos del mundo trabajar con las mejores empresas estadounidenses desde la comodidad de sus hogares. Nuestros directivos Jonathan Siddharth y Vijay Krishnan son ex-alumnos de Stanford y exitosos emprendedores de IA.

Después de cargar tu currículum, tendrás que pasar por tres pruebas: una evaluación de experiencia, una breve prueba de tus stacks tecnológicos y un desafío de programación en vivo. Una vez que pases estas pruebas, estarás listo para aplicar a una amplia gama de trabajos disponibles según tus habilidades.

No necesitas pagar ningún impuesto en los Estados Unidos. Sin embargo, es posible que debas pagar impuestos de acuerdo con las leyes fiscales de tu país. Además, tu banco podría cobrarte una pequeña comisión al depositar en tu moneda local.

En Turing, contratamos desarrolladores remotos en más de 100 tecnologías como React/Node, Python, Angular, Swift, React Native, Android, Java, Rails, Golang, PHP, Vue, entre otras. Además de ello, consideramos la experiencia laborar previa.

La comunicación es crucial para el éxito cuando se trabaja con clientes estadounidenses. Preferimos candidatos con un nivel B1 de inglés, es decir, aquellos que tienen la fluidez necesaria para comunicarse de manera oral y escrita sin problemas con nuestros clientes y hablantes nativos.

Actualmente, contamos solamente con vacantes para desarrolladores debido a la demanda de nuestros clientes. Es posible que en el futuro expandamos nuestra oferta a otros roles. Consulta frecuentemente nuestra página de carreras, puede ser que encuentres una posición que se adapte a tus habilidades y experiencia.

Es la combinación de nuestro modelo de negocio central y valores lo que nos hace diferentes de los demás. Ofrecemos proyectos a tiempo completo y a largo plazo a desarrolladores remotos, mientras que la mayoría de nuestros competidores ofrecen por lo general trabajos freelance.

No, el servicio es absolutamente gratuito para los desarrolladores de software que se registren.

Idealmente, un desarrollador remoto debe tener al menos 3 años de experiencia relevante para ser contratado por Turing, sin embargo, no cerramos las puertas a desarrolladores excepcionales. Realiza nuestras pruebas para averiguar si podemos ofrecerte alguna oportunidad emocionante.

Ver más preguntas frecuentes

Últimas entradas de Turing

Liderazgo

En pocas palabras, Turing tiene como objetivo hacer que el mundo tenga igualdad de oportunidades. Turing fue fundada por los empresarios seriales de IA Jonathan y Vijay, cuya empresa anterior de IA (vendida con éxito) fue impulsada por un talento remoto excepcional. Turing tambien es respaldada por inversionistas innovadores de alto perfil como el primer CTO de Facebook (Adam D'Angelo), ejecutivos de Google, Amazon, Twitter y Foundation Capital.

Política de Igualdad de Oportunidades

Turing es un empleador que ofrece igualdad de oportunidades. Turing prohíbe la discriminación y el acoso de cualquier tipo y ofrece igualdad de oportunidades de trabajo a los empleados y solicitantes sin tener en cuenta la raza, el color, la religión, el sexo, la orientación sexual, la identidad o expresión de género, la edad, el estado de discapacidad, el estado de veterano protegido o cualquier otra característica protegida por la ley.

Explora trabajos remotos de desarrollador

Echa un vistazo a los mejores empleos para abril 2024aquí

Trabaje a tiempo completo en las principales empresas de EE. UU.

Crea tu perfil, pasa las pruebas de Turing y recibe ofertas de trabajo dos semanas después.