Busqueda de Data Developer

¿Querés unirte a una compañía de desarrollo de productos de datos? 

Entonces, sumate a nuestro equipo de Mutt Data!


Mutt Data es una empresa dedicada a innovar con soluciones de big data, data science y machine learning en serio.

Algunos ejemplos de las tecnologías que utilizamos incluyen (no exhaustivamente): Spark, Airflow, XGBoost, Prophet, GraphX y PostgreSQL entre otros.


Estamos buscando un Data Developer para desarrollar proyectos con distintos tipos de clientes. Si sos una persona que les gusta construir sistemas, proponer soluciones, aprender nuevas herramientas y diagramar estrategias y/o arquitecturas, nos gustaría conocerte!


Actualmente operamos con startups y empresas grandes de Argentina, Estados Unidos, Brasil, Colombia y Uruguay. Contamos con un equipo que, nació y es, extremadamente técnico y con gran experiencia en proyectos de datos, pero queremos seguir aprendiendo. 

Nos gustaría seguir creciendo en esta dirección con vos: si te gusta aprender nuevas herramientas, enseñar a tus colegas, aportar a soluciones complejas, ser escuchado y escuchar, adueñarte de los problema técnicos, pedir más “perdón que permiso” y trabajar de forma horizontal, este puede ser un buen lugar para vos.


Estos son algunos de los problemas que resolvemos:

Predecir demanda de consumo eléctrico a gran escala.

- Detectar anomalías en los niveles de actividad de servicios de telecomunicaciones con de millones de usuarios.

- Implementar sistemas de procesamiento de streams para TBs de información.

- Construir arquitecturas flexibles y escalables en la nube para optimizar costos y permitir el crecimiento exponencial de servicios.

- Aplicar Deep Learning para analizar datos de video en centros de atención.


Responsabilidades del rol:

Desarrollar pruebas de concepto, produccionar modelos de machine learning, construir dashboards, APIs.

Diseñar pipelines de datos de basados en prácticas modernas. Incitamos a que aportes tus conocimientos sobre la mesa en infra, código, frameworks, etc.

- Implementar procesos de extracción transformación y carga (ETL) de datos de una amplia variedad de fuentes (cloud services relacionales, NoSQL, web services, archivos planos,) según el proyecto lo requiera.


Se requiere de manera excluyente:

Experiencia de programación en lenguajes de programación (al menos 3+ años)

Conocimientos avanzados de Python.

- Conocimientos sólidos de SQL. Tanto para generar reportes como para debuggear sistemas productivos.

- Capacidad para interpretar requerimientos de clientes y llevarlos a la práctica.

- Experiencia trabajando con sistemas/frameworks de ETL.


Deseable

Buen manejo de AWS (o GCP o Azure)

- Experiencia con herramientas de Data Engineering.

- Desarrollo de pipelines con Spark, Python y SQL en Databricks

- Experiencia con Airflow.

- Instalación y administración de plataformas Hadoop Cloud u On-Premise.

- Experiencia en algún framework de Stream processing (Kafka, Kinesis, Nifi+Spark)

- Conocimiento de stack scientifico de Python (numpy, pandas, jupyter, matplotlib, scikit-learn)


Ofrecemos la posibilidad de trabajar full remote para quienes viven fuera de CABA y solo un día de oficina para los demas (ese dia te invitamos el almuerzo).


Beneficios 

Flexibilidad de horarios.

Remote first.

- Flexibilidad en la modalidad de trabajo (part-time, full-time, freelance, etc.)


¡Si te gusta trabajar de esta forma, esperamos saber de vos!

Por favor escribinos a: info@muttdata.ai

Para mas info visitar: www.muttdata.ai

Etiquetas: aws data science cloud bigdata sql etl python spark
Datos de la oferta laboral
Fecha de publicación
Lugar de trabajo
Ciudad De Buenos Aires/Remoto
Permite trabajar remoto
Si
Seniority requerido
Semi Senior
Email de contacto
info@muttdata.ai
blog comments powered by Disqus