Trabajos remotos de ingeniero de datos Spark
En Turing estamos buscando ingenieros de datos Spark remotos, que serán responsables de limpiar, transformar y analizar grandes cantidades de datos sin procesar de varios recursos utilizando Apache Spark para proporcionar datos listos para usar a los desarrolladores y analistas de negocios. Obtén la oportunidad de trabajar con las empresas líderes de Silicon Valley mientras aceleras tu carrera.
Descubre trabajos remotos en software con centenas de clientes de Turing
Descripción del puesto
Responsabilidades del puesto
- Crear y optimizar canalizaciones ETL de Apache Spark.
- Ofrecer soluciones escalables, rentables y flexibles a los clientes.
- Participar en el desarrollo iterativo de aplicaciones de extremo a extremo.
- Mantenerse al día con las mejores prácticas de desarrollo de software moderno y la gestión del ciclo de vida.
- Utilizar herramientas ETL para cargar datos de diferentes fuentes en la plataforma Hadoop.
- Comunicarse regularmente de manera eficiente con los clientes y las partes interesadas.
- Crear trabajos de Spark basados en Java para transformaciones y agregaciones de datos.
- Realizar pruebas unitarias para transformaciones de Spark.
- Implementar canalizaciones de procesamiento de datos con Spark.
Requisitos mínimos
- Licenciatura / Maestría en Ingeniería, Ciencias de la Computación (o experiencia equivalente).
- Al menos 3+ años de experiencia en ingeniería de datos (con algunas excepciones para desarrolladores altamente calificados).
- Experiencia en lenguajes de programación establecidos como Python, Java, Scala, etc.
- Dominio de Apache Spark y diferentes Spark Frameworks/Cloud Services como Databricks, EMR, Azure HDI.
- Experiencia con tecnologías como Storm, Apache Kafka, Hadoop, etc.
- Conocimiento profundo de la nube (AWS, Azure), así como de CI/CD y visualización de datos.
- Conocimiento de tecnologías como Spark y Hadoop HDFS, Hive, Hbase con amplia experiencia en Spark.
- Fluidez en el idioma Inglés para una comunicación efectiva.
- Experiencia práctica con tecnologías de contenerización y orquestación de contenedores usando Kubernetes, OpenShift, Docker, etc.
- Capacidad para trabajar a tiempo completo (40 horas a la semana) con una superposición de 4 horas con las zonas horarias de EE. UU.
Habilidades preferidas
- Comodidad con los conceptos de ETL, SQL (DDL, DML, procedimental).
- Experiencia práctica en herramientas de ingestión y captura de cambios como StreamSets, Informática.
- Gran experiencia en repositorios de código fuente como Git, SVN y Jenkins.
- Conocimiento práctico de NRT y tecnología asociada: Spark, MemSQL, etc.
- Comprender la arquitectura de datos, la creación de perfiles de datos y la calidad de los datos.
- Conocimiento de bases de datos de almacenamiento como Teradata, Oracle, etc.
- Familiaridad con Unix y Shell Scripting.
- Conocimiento de diversas industrias, herramientas y tecnologías de almacenamiento de datos.
- Experiencia práctica para crear y administrar máquinas virtuales y contenedores.
- Es deseable contar con conocimiento práctico de HashiCorp Vault Consul.
- Excelentes habilidades de comunicación y organización.
- Certificados profesionales en AWS, RHCE, DevOps serán una ventaja.
¿Interesado en este trabajo?
Aplica a Turing hoy mismo.
¿Por qué unirse a Turing?
1Empleos de élite en EE. UU.
2Crecimiento profesional
3Asistencia al Desarrollador
¿Cómo convertirse en un desarrollador de Turing?
Crea tu perfil
Completa tus datos básicos: nombre, ubicación, conocimientos, expectativa salarial y experiencia.
Realiza nuestras pruebasy entrevistas
Resuelve pruebas y asiste a una entrevista técnica.
Recibe ofertas de trabajo
Las mejores empresas de EE.UU. y Silicon Valley te elegirán como colaborador.
Obtén el trabajo de tus sueños
Una vez que seas parte de Turing, ya no tendrás que volver a buscar otro trabajo.
¿Cómo convertirte en un ingeniero de datos remoto de Spark?
Spark o Apache Spark es un motor de procesamiento de datos de propósito general utilizado por desarrolladores a nivel mundial. Parece ser la solución perfecta para manejar los requisitos comerciales de diversas industrias y circunstancias. El motor de procesamiento de datos central de Spark viene con bibliotecas para SQL, ML, computación gráfica y funciones de procesamiento de flujo que se suman a su lista de ventajas. Spark no solo es utilizado por desarrolladores de aplicaciones, sino que también lo utilizan globalmente los científicos de datos para configurar consultas rápidas, analizar y transformar datos a escala.
Spark también es bien conocido por ser una solución preferida asociada frecuentemente con el procesamiento de grandes conjuntos de datos, transmisión de datos de sensores, IoT, sistemas financieros y tareas de ML. A lo largo de los años, Spark ha logrado convertirse en una opción preferida para la mayoría de los desarrolladores, transformándola en una habilidad de alto valor. No solo ha logrado optimizar varios procesos, sino que también ha brindado a las organizaciones alternativas disponibles para desarrollar aplicaciones de escalado rápido para satisfacer las preferencias cambiantes de los usuarios finales. Para lo cual, las empresas de tecnología de todo el mundo siempre buscan contratar ingenieros de datos de Spark capaces de impulsar proyectos y abordar los requisitos comerciales utilizando la tecnología.
¿Cuál es el alcance de un ingeniero de datos de Spark?
Con una demanda creciente de soluciones de big data y tecnologías relacionadas, los ingenieros de datos de Spark parecen tener un futuro próspero. El uso de Spark como tecnología ha aumentado significativamente a lo largo de los años y en diferentes industrias a medida que los desarrolladores usan el marco con diferentes lenguajes. Spark ofrece soporte para varios lenguajes de programación como Scala, Python y Java, lo que permite a los desarrolladores adoptar un enfoque ágil. Una gran parte de la industria del desarrollo de software ya ha adoptado Spark como opción preferida, y muchos más se unen a esta tendencia.
La mayoría de las principales organizaciones de todo el mundo están invirtiendo mucho para crear una nube de talento Spark. Esto ha transformado a Spark en una habilidad de alto valor basada en la cual los desarrolladores pueden llevar su carrera al siguiente nivel. Cualquier desarrollador con algunos años de experiencia profesional y conocimientos en Spark y sus mejores prácticas puede construir fácilmente una carrera exitosa y bien remunerada. Los desarrolladores de Spark no son solo profesionales en demanda dentro de la comunidad tecnológica, sino en todas las industrias. Spark se usa a nivel mundial y se implementa regularmente en industrias como telecomunicaciones, redes, banca y finanzas, comercio minorista, desarrollo de software, medios y entretenimiento, consultoría, atención médica, fabricación y más.
La capacidad de encontrar el éxito en diferentes industrias y trabajar con grandes corporaciones ha hecho que la ingeniería de datos de Spark sea más lucrativa que nunca. Los desarrolladores de todo el mundo intentan asegurarse las mejores oportunidades con innumerables empresas que buscan expertos en Spark. La demanda sostenida para encontrar a los mejores especialistas en Spark entre las empresas de desarrollo de software la ha convertido en una carrera profesional próspera.
¿Cuáles son las responsabilidades y funciones de un ingeniero de datos de Spark?
Como ingeniero de datos de Spark, debes estar preparado para contribuir en diferentes aspectos de los procesos de desarrollo de software. Cuando seas contratado como ingeniero de datos de Spark algunas de tus responsabilidades diarias deben incluir tareas como el desarrollo de aplicaciones utilizando lenguajes modernos como Scala, Python y Java. También debes trabajar de cerca en el desarrollo de pruebas de Spark para agregar y transformar datos. También debes poder diseñar diferentes canalizaciones de procesamiento de datos y realizar revisiones de código entre pares para garantizar la calidad de la lógica de secuencias de comandos.
Como ingeniero de datos de Spark, debes estar preparado para realizar tareas como recopilar información sobre las preferencias de los usuarios y transformarlas en características sólidas para aplicaciones nuevas y emocionantes. Entonces, mientras trabajas como ingeniero de datos de Spark, espera hacerte cargo de tareas como:
- Desarrollar y optimizar canalizaciones ETL de Apache Spark
- Producir soluciones fáciles de actualizar, rentables y flexibles para los clientes
- Contribuir activamente a los procesos de desarrollo de aplicaciones de extremo a extremo
- Mantenerse actualizado sobre las mejores prácticas y la gestión del desarrollo de software moderno
- Utilizar herramientas ETL para acceder a datos de varias fuentes en una plataforma Hadoop
- Colaborar de manera eficiente con diferentes clientes y partes interesadas
- Crear trabajos de Spark basados en Java para transformaciones y agregaciones de datos
- Realizar pruebas de unidades para transformaciones de Spark
- Configurar canalizaciones de procesamiento de datos con Spark
¿Cómo convertirte en un ingeniero de datos de Spark?
El conocimiento del desarrollo de Spark y la ingeniería de datos es una habilidad de gran valor en la industria del software actual. El crecimiento y desarrollo de la industria tecnológica ha permitio que muchas personas desarrollen sus carreras en este rubro. Para tener éxito en tales roles, los desarrolladores deben poseer una comprensión profunda de ciertas habilidades básicas. Las empresas prefieren contratar ingenieros de datos de Spark con experiencia profesional relevante y un conocimiento profundo de Apache Spark y diferentes marcos de Spark y servicios en la nube. La capacidad de trabajar con tecnologías como Storm, Apache Kafka o Hadoop también debería ayudar a asegurar las mejores oportunidades en las principales empresas. Como desarrollador, intenta dominar diferentes tecnologías y enfoques adoptados por los ingenieros de datos de Spark para desarrollar proyectos a gran escala.
Además de la competencia técnica, la mayoría de las organizaciones prefieren contratar desarrolladores con un título en informática o campos relacionados. Además, trata siempre de mantenerte actualizado sobre los últimos desarrollos en el campo de desarrollo de Spark y procesos relacionados.
¿Estás interesado/a en trabajos remotos de ingeniero de Spark Data?
¡Conviértete en un desarrollador de Turing!
Habilidades requeridas para convertirte en un ingeniero de datos de Spark
Si deseas construir una carrera exitosa a largo plazo en el desarrollo de software como ingeniero de datos de Spark, debes poseer un cierto conjunto de conocimientos. Trata de desarrollar una comprensión profunda de las tecnologías y los lenguajes, que incluyen:
1. Apache Spark
Apache Spark es un motor de análisis unificado de uso gratuito que a menudo se utiliza para el procesamiento de datos a gran escala. Ofrece una interfaz intuitiva para realizar configuraciones utilizando paralelismo de datos implícito y tolerancia a fallas. La plataforma utiliza el almacenamiento en caché en la memoria y la ejecución optimizada de consultas para consultas rápidas sobre datos de una variedad de tamaños. Con Spark, los desarrolladores pueden crear API en varios lenguajes como Java, Scala, Python y R. También se prefiere Spark, ya que ofrece funciones de reutilización de código para diferentes procesos, como procesamiento por lotes, consultas interactivas, análisis en tiempo real, aprendizaje automático y procesamiento de gráficos. Como plataforma de desarrollo, Apache Spark es extremadamente rápido, eficiente, fácil de usar para desarrolladores y admite múltiples cargas de trabajo.
2. Python
Otra habilidad esencial requerida para trabajar como ingeniero de datos de Spark en 2022 es Python. Es probablemente el lenguaje de programación de propósito general más utilizado en la actualidad. Inicialmente desarrollado para ofrecer sangrías y legibilidad del código, Python se hizo rápidamente con un nicho y un seguimiento global. Python como lenguaje fue construido con un enfoque orientado a objetos para permitir a los programadores escribir códigos limpios y lógicos para diversas industrias y requisitos. El lenguaje se puede usar para desarrollar soluciones digitales para diferentes industrias y ve un foco de atención constante en sectores como: análisis de datos, aprendizaje automático y otros proyectos basados en datos. También es un lenguaje extremadamente versátil y ofrece soporte para tareas esenciales que pueden definir el éxito de un proyecto.
3. AWS/Microsoft Azure
En la industria de desarrollo de software actual, casi todos los productos nuevos utilizan servicios en la nube de alguna manera. Los servicios en la nube han logrado introducir varios beneficios para que los desarrolladores construyan, escalen y administren proyectos con el mínimo esfuerzo y desde cualquier ubicación. La introducción de dicha tecnología ha logrado agilizar diferentes procesos, lo que la convierte en un requisito vital para casi todas las funciones de desarrollo de software. Empresas de tecnología principalmente para ingenieros de datos de Spark con conocimientos profundos de integraciones en la nube y mejores prácticas de desarrollo. Dichos servicios también han revolucionado la forma en que se diseñan las estrategias de desarrollo. Según los beneficios de los servicios en la nube, la mayoría de las empresas buscan experiencia en el desarrollo de AWS o Azure mientras contratan ingenieros de datos de SPark.
4. Contenedorización
La contenedorización se ha convertido rápidamente en un modelo elegido con frecuencia por los desarrolladores de software. Ofrece un tipo de tecnología de virtualización que permite que las aplicaciones se ejecuten en sus espacios individuales/aislados denominados contenedores. En la industria de desarrollo de software actual, casi todos los proyectos de desarrollo de software incorporan modelos basados en contenedores para utilizar servidores con eficiencia continua. La mayoría de las empresas de tecnología intentan activamente buscar expertos con un conjunto de habilidades comprobadas para construir, configurar y mantener proyectos en contenedores. Como ingeniero de datos de Spark, una comprensión profunda de las tecnologías, Docker y Kubernetes debe tratarse como una prioridad principal para construir una carrera exitosa y estable.
5. Herramientas de control de versiones
Los procesos modernos de desarrollo de software utilizan principalmente pequeños módulos de código para mejorar la estabilidad. Los desarrolladores también prefieren trabajar con el mismo modelo, ya que les permite agregar, modificar o deshabilitar ciertas funciones sin tener que interrumpir todo el código fuente. Estos beneficios han transformado las herramientas de control de versiones en una posición de importancia. Con estas herramientas, los desarrolladores pueden realizar un seguimiento de todo el código base durante e incluso después del lanzamiento de las aplicaciones. Esto permite a los desarrolladores no solo monitorear y encontrar áreas de mejora, sino también volver a una versión estable del programa si es necesario o cuando sea necesario. Por lo anterior, la comprensión y la experiencia profesional de trabajar con sistemas de control de versiones se han convertido en habilidades esenciales para construir una carrera exitosa en la industria moderna de desarrollo de software.
6. Habilidades de comunicación
Para trabajar en las industrias modernas de desarrollo de software, los desarrolladores pueden necesitar mucho más que solo competencia técnica. En la industria actual, las empresas prefieren contratar técnicos con la confianza de interactuar y presentar a varios miembros del equipo. La capacidad de comunicarse con eficiencia no solo debe ser buena, sino un requisito obligatorio para la mayoría de los puestos. Los ingenieros de datos de Spark deben tener confianza en sus habilidades y fluidez en los idiomas preferidos para contribuir de manera efectiva a los procesos de desarrollo. Interactuar y comunicarse con varios equipos y partes interesadas parece ser una responsabilidad diaria para la mayoría de los desarrolladores. Las habilidades interpersonales se han vuelto aún más importantes con los puestos remotos cada vez más populares. Para lo cual cada ingeniero de datos de Spark debe ser un comunicador seguro.
¿Estás interesado en trabajos remotos de ingeniero de Spark Data?
¡Conviértete en un desarrollador de Turing!
¿Cómo ser contratado como ingeniero de datos de Spark fullstack?
Las principales organizaciones tecnológicas buscan contratar a un ingeniero de datos de Spark con experiencia de trabajo en varios nichos. Para poder acceder a estos puestos es imprescindible desarrollar constantemente un conjunto de habilidades técnicas y recopilar conocimientos sobre los requisitos de varias industrias. Junto con el conocimiento de ingeniero de datos de Spark, también se espera que los desarrolladores estén bien versados en el trabajo con tecnologías relacionadas y posean habilidades interpersonales eficientes. Los desarrolladores que comprenden las preferencias de los usuarios también tienden a ser una mejor perspectiva para las organizaciones.
Turing se ha convertido rápidamente en la principal plataforma para avanzar en las carreras trabajando como ingeniero de datos de Spark. Brindamos a los desarrolladores oportunidades para trabajar en proyectos que definen una era y problemas comerciales utilizando tecnologías de vanguardia. Únase a la red de más rápido crecimiento de los mejores desarrolladores de todo el mundo para ser contratado como ingeniero de datos Spark remoto a tiempo completo y a largo plazo con los mejores paquetes de pago.
¿Por qué convertirte en ingeniero de datos de Spark en Turing?
Empleos de élite en EE. UU.
Oportunidades a largo plazo para trabajar para compañías estadounidenses increíbles e impulsadas por una misión con una gran compensación.
Crecimiento profesional
Trabaja en problemas técnicos y comerciales desafiantes utilizando tecnología de punta para acelerar el crecimiento de su carrera.
Comunidad de desarrolladores exclusiva
Únete a una comunidad mundial de desarrolladores de software de élite.
Una vez que te unas a Turing, nunca más tendrás que solicitar otro trabajo.
Los compromisos de Turing son a largo plazo y de tiempo completo. Cuando un proyecto llega a su fin, nuestro equipo se pone a trabajar identificando el próximo para ti en cuestión de semanas.
Trabaja desde la comodidad de tu casa
Turing te permite trabajar según tu conveniencia. Tenemos horarios de trabajo flexibles y puedes trabajar para las principales empresas estadounidenses desde la comodidad de su hogar.
Gran compensación
Trabajando con las principales corporaciones estadounidenses, los desarrolladores de Turing ganan más que el pago estándar del mercado en la mayoría de las naciones.
¿Cuánto paga Turing a su ingeniero de datos Spark?
Cada ingeniero de datos de Spark en Turing puede establecer su propio precio. Turing, por su parte, recomendará un sueldo al ingeniero de datos de Spark por el que estamos seguros de encontrar una oportunidad fructífera y a largo plazo para ti. Nuestras recomendaciones salariales se basan en un análisis de las condiciones del mercado, así como la demanda de los clientes.
Preguntas Frecuentes
Últimas entradas de Turing
Liderazgo
Política de Igualdad de Oportunidades
Explora trabajos remotos de desarrollador
Basadas en tus conocimientos
- React/Node
- React.js
- Node.js
- AWS
- JavaScript
- Python
- TypeScript
- Python/React
- Java
- PostgreSQL
- React Native
- PHP
- PHP/Laravel
- Golang
- Ruby on Rails
- Angular
- Android
- iOS
- ASP.NET
Basadas en tu rol
+ Ver más rolesBasadas en tu trayectoria profesional
- Desarrollador de Software
- Desarrollador de Software Senior
- Ingeniero de Software
- Ingeniero de Software Senior
- Desarrollador Senior Full-stack
- Desarrollador Senior Front-end
- Ingeniero Senior de DevOps
- Desarrollador Java Senior
- Líder Técnico de Software Senior










