Spark Streaming est un outil puissant pour le traitement en temps réel de flux de données. Son architecture basée sur les RDDs et DStreams permet un traitement parallèle et rapide. Cet article explore l'installation et la configuration de Spark sur Hadoop, ainsi que des tests de performance et cas d'utilisation concrets pour montrer comment optimiser Spark Streaming.
🔢 Versions utilisées
Cet article utilise la version 3.5.0 de Spark sur Hadoop YARN pour la gestion des ressources, et la version 3.3.6 de Spark pour l'installation sur le cluster Hadoop.
Architecture et composants de Spark Streaming
Spark Streaming est un module clé de l'architecture Apache Spark permettant le traitement en temps réel des flux de données. Il s'appuie sur des composants internes robustes tels que les RDDs (Resilient Distributed Datasets) et les DStreams (Discretized Streams) pour paralléliser efficacement le traitement des données entrantes.
RDDs : la base du traitement distribué
Les RDDs forment le socle de Spark. Un RDD est une collection d'objets distribués pouvant être manipulés en parallèle. Ils sont immuables (non modifiables une fois créés) et résilients (tolérants aux pannes). Grâce aux RDDs, Spark peut découper un flux de données en partitions traitées en parallèle sur plusieurs nœuds du cluster, tout en assurant une reprise sur erreur.
DStreams : la brique temps réel
Spark Streaming introduit la notion de DStream (Discretized Stream). Un DStream est une séquence de RDDs représentant un flux continu de données découpé en intervalles de temps, appelés "batches". Typiquement chaque batch couvre une durée de quelques secondes. Spark Streaming reçoit les données en entrée, construit les RDDs correspondants à chaque batch puis leur applique les transformations définies.
Opérations sur les DStreams
- Transformations : map, filter, reduce... pour modifier les données
- Fenêtrage : regroupement des données sur une fenêtre temporelle glissante
- Output : écriture du résultat dans des systèmes externes (HDFS, bases de données...)
Tolérance aux pannes et haute disponibilité
Spark Streaming tire parti de la résilience des RDDs pour offrir une tolérance aux pannes. Si un nœud tombe en panne, les RDDs concernés sont automatiquement recalculés à partir des données répliquées. Le traitement reprend ainsi de manière transparente.
En utilisant Spark 3.5.0 sur un cluster Hadoop en mode YARN, on peut aisément déployer une application Spark Streaming scalable et hautement disponible.
En résumé, l'architecture de Spark Streaming, basée sur les RDDs et DStreams, en fait un framework robuste et performant pour le traitement temps réel distribué à large échelle, capable de s'intégrer avec l'écosystème Hadoop.
Installation et configuration de Spark sur Hadoop
Ce chapitre va vous guider pas à pas dans l'installation et la configuration de Spark version 3.3.6 sur un cluster Hadoop YARN. Vous apprendrez comment lancer les démons nécessaires et tester le framework avec Spark-Shell à partir d'un fichier texte.
Prérequis
Avant de commencer, assurez-vous d'avoir un cluster Hadoop fonctionnel avec HDFS et YARN correctement configurés. Spark va s'exécuter sur le cluster YARN et utiliser HDFS comme système de fichiers.
Téléchargement et installation de Spark
Suivez ces étapes pour télécharger et installer Spark 3.3.6 sur votre cluster :
- Téléchargez la version 3.3.6 de Spark depuis le site officiel d'Apache Spark.
- Décompressez l'archive téléchargée dans un répertoire de votre choix, par exemple
/opt/spark
. - Définissez la variable d'environnement
SPARK_HOME
pour pointer vers ce répertoire d'installation.export SPARK_HOME=/opt/spark
Ajoutez les binaires de Spark au PATH :
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
Configuration de Spark
Modifiez le fichier $SPARK_HOME/conf/spark-defaults.conf
pour configurer Spark avec les paramètres suivants :
spark.master yarn
spark.submit.deployMode cluster
spark.yarn.am.memory 1024m
spark.executor.memory 2048m
Cela indique à Spark de s'exécuter sur YARN en mode cluster, avec une mémoire de 1 Go pour le ApplicationMaster et 2 Go par exécuteur.
Lancement des démons
Démarrez les démons ResourceManager et NodeManager de YARN ainsi que le NameNode et DataNode de HDFS sur les machines appropriées de votre cluster :
start-yarn.sh
start-dfs.sh
Vérifiez que tous les démons sont bien actifs avec la commande jps
.
Test avec Spark-Shell
Vous pouvez maintenant tester votre installation Spark avec l'outil interactif Spark-Shell :
Créez un fichier texte
file1.txt
contenant quelques lignes de mots.- Copiez ce fichier vers HDFS :
hdfs dfs -put file1.txt /user/spark/input
Lancez Spark-Shell :
spark-shell
Exécutez un word count basique :
val lines = sc.textFile("/user/spark/input/file1.txt") val words = lines.flatMap(_.split("s+")) val counts = words.map(w => (w, 1)).reduceByKey(_ + _) counts.saveAsTextFile("/user/spark/output/file1.count")
Quittez Spark-Shell et vérifiez le résultat du word count dans HDFS :
hdfs dfs -cat /user/spark/output/file1.count/*
Voilà ! Votre installation de Spark sur le cluster Hadoop YARN est fonctionnelle. Vous êtes maintenant prêt à développer et exécuter des applications Spark en utilisant toute la puissance de votre cluster.
Tests de performance et cas d'utilisation réels
Apache Spark Streaming et Apache Kafka sont deux technologies clés pour le traitement de flux de données en temps réel. Ce chapitre va examiner des tests de performance effectués avec Spark-Shell pour analyser les mots les plus fréquents dans un fichier texte, en utilisant les RDDs et transformations de Spark en mode batch. Nous explorerons ensuite comment ces applications peuvent être utilisées dans divers cas industriels pour le traitement temps réel.
Un modèle incontournable pour le Big Data, Spark Streaming permet d'appliquer les mêmes opérations que Spark en mode batch, mais sur des flux continus de données. Les données sont découpées en micro-batchs qui sont traités de manière très rapide pour obtenir des résultats en quasi temps réel. Nous allons tester cette approche en utilisant Spark-Shell :
Test de fréquence des mots avec Spark-Shell
Créons un fichier texte simple appelé file1.txt
contenant quelques phrases :
Hello Spark Wordcount!
Hello Hadoop Also :)
Chargeons ce fichier dans HDFS puis lançons Spark-Shell pour exécuter le code Scala suivant :
val lines = sc.textFile("file1.txt")
val words = lines.flatMap(_.split("s+"))
val wc = words.map(w => (w, 1)).reduceByKey(_ + _)
wc.saveAsTextFile("file1.count")
Ce code va :
Charger le fichier texte dans un RDD
- Découper chaque ligne en mots individuels avec
flatMap
etsplit
- Produire des tuples (mot, 1) avec
map
- Agréger et compter les occurrences de chaque mot avec
reduceByKey
- Sauvegarder les résultats dans un répertoire HDFS
En récupérant le contenu du répertoire file1.count
, on obtient bien le décompte des mots :
Mot | Occurrence |
---|---|
Hello | 2 |
Spark | 1 |
Wordcount! | 1 |
Hadoop | 1 |
Also | 1 |
:) | 1 |
Cas d'usage industriels
Ce type de traitement de flux textuels peut être appliqué à de nombreux domaines :
- Analyse de sentiments sur les réseaux sociaux (Twitter, Facebook...)
- Détection de tendances ou de sujets "tendance" en temps réel
- Monitoring de logs applicatifs ou systèmes pour détecter des erreurs
- Analyse en continu du trafic réseau pour la cybersécurité
L'avantage de Spark Streaming est de pouvoir réutiliser les mêmes opérations sur les graphes et APIs que Spark Batch. Les applications peuvent ainsi facilement basculer entre les deux modes.
Cependant, pour obtenir une très faible latence, d'autres frameworks comme Kafka Streams ou Flink sont généralement préférés. Ils permettent un traitement par événement plutôt que par micro-batch.
En résumé, les tests de Spark-Shell permettent d'expérimenter simplement le traitement de flux de données avec Spark Streaming. Cette approche est applicable à une grande variété de cas d'usage nécessitant d'analyser des données textuelles ou non structurées en quasi temps réel. Le choix final de la technologie dépendra des contraintes de latence et du type de traitement souhaité.
Perspectives d'optimisation de Spark Streaming
Spark Streaming offre de nombreuses possibilités d'optimisation pour le traitement en temps réel de flux de données. Des améliorations futures pourraient inclure une meilleure intégration avec d'autres outils de l'écosystème Hadoop, des algorithmes de traitement de flux plus avancés, et une gestion plus fine des ressources. Avec l'explosion des données en temps réel, Spark Streaming est amené à jouer un rôle clé dans de nombreux domaines.