Apache Pig
Pig[3] est une plateforme haut niveau pour la création de programme MapReduce utilisé avec Hadoop. Le langage de cette plateforme est appelé le Pig Latin[3]. Pig Latin s'abstrait du langage de programmation Java MapReduce et se place à un niveau d'abstraction supérieur, similaire à celle de SQL pour systèmes SGBDR. Pig Latin peut être étendue en utilisant UDF (User Defined Functions) que l'utilisateur peut écrire en Java, en Python, en JavaScript, en Ruby ou en Groovy[4] et ensuite être utilisé directement au sein du langage.
Pour les articles homonymes, voir Pig.
Développé par | Apache Software Foundation |
---|---|
Première version | 11 septembre 2008 [1] |
Dernière version | 0.17.0 ()[2] |
Dépôt | svn.apache.org/repos/asf/pig |
État du projet | en developpement |
Écrit en | Java |
Système d'exploitation | Microsoft Windows, macOS et Linux |
Environnement | Machine virtuelle Java |
Licence | Licence Apache |
Site web | https://pig.apache.org/ |
Pig était initialement [5] développé chez Yahoo Research dans les années 2006 pour les chercheurs qui souhaitaient avoir une solution ad-hoc pour créer et exécuter des jobs map-reduce sur d'importants jeux de données. En 2007[6], il a été transmis à l'Apache Software Foundation[7].
Exemple
Voici un exemple d'un programme "Word Count" en Pig Latin:
input_lines = LOAD '/tmp/my-copy-of-all-pages-on-internet' AS (line:chararray);
-- Extract words from each line and put them into a pig bag
-- datatype, then flatten the bag to get one word on each row
words = FOREACH input_lines GENERATE FLATTEN(TOKENIZE(line)) AS word;
-- filter out any words that are just white spaces
filtered_words = FILTER words BY word MATCHES '\\w+';
-- create a group for each word
word_groups = GROUP filtered_words BY word;
-- count the entries in each group
word_count = FOREACH word_groups GENERATE COUNT(filtered_words) AS count, group AS word;
-- order the records by count
ordered_word_count = ORDER word_count BY count DESC;
STORE ordered_word_count INTO '/tmp/number-of-words-on-internet';
Le programme ci-dessus va générer des tâches exécutables parallèles qui peuvent être distribués sur plusieurs machines dans un cluster Hadoop pour compter le nombre de mots dans un ensemble de données telles que les pages Web sur Internet.
Pig vs SQL
Par rapport au SQL, Pig:
- Utilise l'évaluation paresseuse,
- utilise des extract, transform, load (ETL),
- est capable de stocker des données à tout moment pendant un pipeline,
- déclare le plan d'exécution,
- exécute le workflow subdivisé selon un graphe, au lieu d'une exécution purement séquentielle.
En revanche, les SGBD sont sensiblement plus rapide que le système de MapReduce une fois que les données sont chargées, ce chargement de données étant beaucoup plus rapide dans un système de MapReduce. Et les systèmes de bases de données relationnels offrent directement prêtes à l'emploi des fonctionnalités de stockage en colonnes, de traitement de données compressées, d'indexation pour une localisation plus rapide des données et de tolérance aux fautes au niveau transactionnel[8].
Pig Latin est un langage procédural et s'inscrit tout naturellement dans le paradigme du pipeline tandis que SQL est plutôt déclaratif. En SQL, les utilisateurs peuvent spécifier que les données de deux tables doivent être jointes, mais pas quelle implémentation de jointure est à utiliser et «... pour de nombreuses applications le moteur de requêtes n'a pas une connaissance suffisante des données ou une expertise suffisante pour spécifier un algorithme de jointure approprié. »[9]. Pig Latin permet aux utilisateurs de spécifier une implémentation ou des aspects de l'implémentation à utiliser dans l'exécution d'un script de plusieurs façons[10]. En effet, la programmation Pig Latin est similaire à la spécification d'un plan d'exécution de la requête, qui rend plus facile pour les programmeurs de contrôler explicitement le flux de leur tâche de traitement de données[11].
SQL est orienté autour de requêtes qui produisent un résultat unique. Il gère également les arbres, mais n'a aucun mécanisme intégré pour diviser un flux de traitement de données et appliquer les différents opérateurs à chaque sous-flux. Pig Latin décrit un Graphe orienté acyclique (DAG) plutôt qu'un pipeline[10].
Pig Latin est capable d'inclure du code utilisateur à n'importe quel point dans le pipeline. Avec SQL, les données doivent d'abord être importées dans la base de données, avant que l'on puisse lancer un processus de nettoyage et de transformation de celles-ci.
Voir aussi
- Apache Hive
- Sawzall — outil similaire de Google
- Hadoop
- Catégorie:Écosystème Hadoop
Références
- https://pig.apache.org/releases.html
- « https://pig.apache.org/releases.html »
- « Hadoop: Apache Pig » (consulté le )
- « Pig user defined functions » (consulté le )
- « Yahoo Blog:Pig – The Road to an Efficient High-level language for Hadoop » (consulté le )
- « Pig into Incubation at the Apache Software Foundation » [archive du ] (consulté le )
- « The Apache Software Foundation » (consulté le )
- « Communications of the ACM: MapReduce and Parallel DBMSs: Friends or Foes? » [archive du ] [PDF] (consulté le )
- (en) alan Gates, « Comparing Pig Latin and SQL for Constructing Data Processing Pipelines », (consulté le )
- « Yahoo Pig Development Team: Comparing Pig Latin and SQL for Constructing Data Processing Pipelines » (consulté le )
- « ACM SigMod 08: Pig Latin: A Not-So-Foreign Language for Data Processing » [PDF] (consulté le )
- (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Pig (programming tool) » (voir la liste des auteurs).
Liens externes
- Portail des logiciels libres
- Portail des données
- Portail des bases de données