Participe à la révolution musicale avec Winamp !
Chez Winamp, nous réinventons l'industrie de la musique en rapprochant les artistes de leurs fans grâce à des services innovants : Fanzone, distribution, gestion des droits, NFT… et ce n’est que le début.
Notre plateforme unique rassemble musique, podcasts, radio et interactions directes avec les artistes.
Nous recherchons un Développeur de Données Python passionné pour renforcer notre équipe technique.
Missions
1. Développement de pipelines de données
- Conception, construction et maintenance de pipelines de données pour une extraction, une transformation et un chargement (ETL/ELT) efficaces des données.
- Intégration de données provenant de diverses sources (par exemple, API, bases de données, fichiers plats).
- Écriture de scripts Python robustes pour les flux de travail de données automatisés.
2. Gestion de bases de données
- Création et gestion de bases de données relationnelles et non relationnelles.
- Écriture de requêtes SQL complexes pour l'extraction et la transformation des données.
- Garantie de l'intégrité des données et optimisation des performances dans les systèmes de bases de données.
3. Analyse et traitement des données
- Réalisation de tâches de prétraitement des données telles que le nettoyage, la déduplication et le formatage.
- Analyse de grands ensembles de données pour en extraire des informations significatives.
- Développement d'algorithmes pour la manipulation et l'agrégation des données.
4. Intégration et développement d'API
- Consommation et intégration d'API tierces pour collecter des données.
- Développement d'API pour exposer des données à d'autres systèmes ou applications.
5. Travail avec les technologies Big Data
- Mise en œuvre de solutions évolutives à l'aide de frameworks Big Data (par exemple, Apache Spark, Hadoop).
- Écriture de scripts Python pour le traitement distribué des données.
6. Qualité des données et tests
- Garantie de la qualité des données en créant des règles de validation et des tests automatisés.
- Débogage et résolution des problèmes liés aux données dans les systèmes et les pipelines.
7. Optimisation des performances
- Optimisation du code et des requêtes pour un traitement plus rapide des données.
- Garantie de l'évolutivité des solutions de données pour les ensembles de données croissants.
Profil
- 2+ ans d'expérience en Python avec la capacité d'écrire et de maintenir des applications de données Python orientées objet.
- Expérience dans un environnement de traitement de données par lots ou similaire avec de grands travaux de données utilisant l'automatisation.
- Expérience avec les pipelines ETL et les Data Lakes.
- Maîtrise de SQL et expérience avec les bases de données relationnelles (par exemple, PostgreSQL).
- Expérience de travail avec les API RESTful pour l'intégration de données.
- Vous êtes un véritable passionné de données (et de musique).
- Autonome, capable de travailler de manière indépendante.
- Apprentissage rapide, capable de travailler et de résoudre les problèmes de manière indépendante.
- Un esprit start-up et agile : vous êtes à l'aise avec les changements fréquents et vous vous épanouissez dans des environnements dynamiques.
- Maîtrise de l'anglais et du français.
Les petits plus
- Expérience préalable avec PostgreSQL.
- Maîtrise de Linux, Bash et compréhension de l'architecture et du fonctionnement des serveurs Linux.
- Expérience dans l'exécution de profilers, de débogueurs et de dépannage/débogage général.
- Capacité à analyser les performances des requêtes de données, des tâches et des pipelines, qu'ils soient grands ou petits, afin de trouver et de corriger les goulots d'étranglement.
- Connaissance des systèmes de contrôle de version Azure, Docker et Git (GitLab et/ou GitHub).
- Compétences DataOps.
- Compréhension de scikit-learn, TensorFlow ou PyTorch pour les tâches d'apprentissage automatique de base.
- Expérience dans la préparation de données pour les modèles d'IA/ML.