Les 5 meilleurs livres sur Hadoop

Les 5 meilleurs livres sur Hadoop

Cet article vous présente une sélection de 5 des meilleurs livres sur Hadoop.


1. Hadoop – Devenez opérationnel dans le monde du Big Data (Juvénal Chokogoue)

Hadoop - Devenez opérationnel dans le monde du Big Data (Juvénal Chokogoue)

Disponible sur Amazon Disponible à la Fnac

Depuis plusieurs années, la France montre au travers du projet de Nouvelle France Industrielle (NFI) son ambition de se positionner stratégiquement sur le Big Data. Par ce projet, l’État reconnaît officiellement qu’au-delà de tout l’engouement médiatique autour du Big Data, la transition vers l’ère Numérique est bien réelle et que les opportunités du Big Data sont bel et bien existantes.

Ce livre a pour objectif d’équiper le lecteur de toutes les compétences dont il a besoin pour saisir les opportunités offertes par le Big Data. Il s’adresse à toute personne qui souhaite prendre le virage du Numérique et travailler dans le Big Data : étudiants, consultants, analystes, chargés d’étude ou de recrutement Data, commerciaux de ESN, responsables de projet, développeurs, managers ou encore dirigeants d’entreprise.

Pour tirer profit au maximum de la lecture de ce livre, des compétences de base dans le domaine des bases de données, de la programmation et du SQL sont un prérequis indispensable.

En substance, le livre explique les nouvelles approches de traitement des données à large échelle, Hadoop (son architecture, son fonctionnement, ses évolutions), le stockage distribué des données, l’exécution du SQL sur Hadoop, les approches de traitement des données en streaming et en temps réel, les caractéristiques de l’ère Numérique ainsi que le leadership nécessaire pour saisir les opportunités de l’ère Numérique en général et du Big Data en particulier.

Vous découvrirez ainsi notamment :

  • Deux cas d’utilisation d’Hadoop dans les projets Big Data innovants d EDF et d’Air France
  • Les évolutions Big Data en cours dans le CAC40 et l’Europe – Les modèles architecturaux utilisés pour gérer le Big Data
  • Les modèles de calcul distribués utilisés pour traiter le Big Data, notamment le MapReduce – Le fonctionnement détaillé d’Hadoop
  • Les principes du stockage distribué utilisé pour stocker les données en Big Data, notamment le HDFS – Les quatre grandes faiblesses d’Hadoop et ses futures évolutions
  • La sécurité dans Hadoop et les révélations d’Edward Snowden – L’écriture et l’exécution des requêtes SQL dans Hadoop
  • Les approches de traitements des données streaming et temps réel – Les sept critères indispensables pour choisir sa distribution Hadoop
  • Les trois caractéristiques majeures de l’ère Numérique
  • Les cinq clés à utiliser pour détecter et saisir les opportunités du Big Data – Les trois pièges à éviter pour réussir dans le Big Data
  • Un plan simple en trois étapes pour anticiper et saisir les nouvelles opportunités du Numérique
  • Les quatre clés indispensables pour réussir vos projets Big Data – Les trois raisons de ne plus attendre pour apprendre Hadoop
  • Les six métiers du Big Data vers lesquels s’orienter
  • Les trois certifications disponibles pour crédibiliser ses compétences en Big Data
  • Une présentation de trois masters spécialisés dans le Big Data
  • Les deux moyens les plus utiles pour développer ses compétences en Big Data lorsqu’on a peu de moyens.

Pour faciliter la compréhension de l’ouvrage, chaque chapitre s’achève par un rappel des points clés et un questionnaire qui permettent au lecteur de consolider ses acquis.

À propos de l’auteur

Actuellement Consultant Insights & Data chez CAPGEMINI, le leader mondial des activités de services et de technologie, Juvénal Chokogoue est Consultant spécialisé dans l’aide à la décision. Ses missions consistent à valoriser les données des organisations et à fournir la visibilité nécessaire aux décideurs pour une prise de décision efficace.

Titulaire de six certifications sur le Big Data, Hadoop et le traitement massif des données, il partage toute son expertise technique et toute sa passion pour le monde du Big Data à travers les pages de son livre.


2. Maîtrisez l’utilisation des technologies Hadoop – Initiation à l’écosystème Hadoop (Juvénal Chokogoue)

Maîtrisez l’utilisation des technologies Hadoop – Initiation à l’écosystème Hadoop Juvénal Chokogoue

Disponible sur Amazon Disponible à la Fnac

Cet ouvrage est un manuel d’apprentissage technique qui a été rédigé pour toute personne souhaitant développer des compétences sur une ou plusieurs technologie(s) de l’écosystème Hadoop.

Il permet d’utiliser de façon professionnelle 18 technologies clés de l’écosystème Hadoop : Spark, Hive, Pig, Impala, ElasticSearch, HBase, Lucene, HAWQ, MapReduce, Mahout, HAMA, Tez, Phoenix, YARN, ZooKeeper, Storm, Oozie et Sqoop.

L’ouvrage permet d’initier les débutants pour les emmener vers une utilisation professionnelle de ces technologies. Pour faciliter la compréhension de l’ouvrage, chaque chapitre s’achève par un rappel des points clés et un guide d’étude qui permettent au lecteur de consolider ses acquis. Des compléments web sont également disponibles en téléchargement sur le site www.editions-eyrolles.com/dl/0067478.

Au fil de la lecture de cet ouvrage, vous allez comprendre les approches conceptuelles de chacune de ces technologies pour rendre vos compétences indépendantes de l’évolution d’Hadoop. Vous serez finalement capable d’identifier les portées fonctionnelle, stratégique et managériale de chacune de ces technologies.

À qui cet ouvrage s’adresse-t-il ? Aux consultants BI/big data, data scientists, chargés d’études et chefs de projets data Aux étudiants désireux de s’orienter vers le big data Plus généralement, à tout professionnel souhaitant prendre le virage du big data ou souhaitant valoriser les données de son entreprise

À propos de l’auteur

Actuellement Consultant Insights & Data chez CAPGEMINI, le leader mondial des activités de services et de technologie, Juvénal Chokogoue est Consultant spécialisé dans l’aide à la décision. Ses missions consistent à valoriser les données des organisations et à fournir la visibilité nécessaire aux décideurs pour une prise de décision efficace.

Titulaire de six certifications sur le Big Data, Hadoop et le traitement massif des données, il partage toute son expertise technique et toute sa passion pour le monde du Big Data à travers les pages de son livre.


3. Big Data – Concepts et mise en œuvre de Hadoop (Laurent Jolia-Ferrier)

Big Data – Concepts et mise en oeuvre de Hadoop Laurent Jolia Ferrier

Disponible sur Amazon Disponible à la Fnac

Ce livre sur Hadoop (versions 1 et 2), vise deux types de publics. Il s’adresse d’une part aux décideurs, qu’ils soient techniciens (responsable informatique, spécialiste de Business Intelligence…) ou pas (responsable de la stratégie, directeur général…), et vise à démystifier le Big Data et Hadoop.

Dans les chapitres concernés, les termes techniques sont limités au strict minimum et l’accent est mis, à chaque fois que cela est pertinent, sur l’utilisation et l’impact potentiel du Big Data et de Hadoop : Vue globale de Hadoop, Principaux apports de la version 2, Mettre en œuvre un cluster Hadoop, Hadoop : quand l’utiliser ?…

Il s’adresse également aux informaticiens, étudiants ou en activité, qui recherchent une première introduction en français, simple (sans être simpliste) et relativement exhaustive, au Big Data et à Hadoop. Les lecteurs concernés seront particulièrement intéressés par les chapitres suivants : Installer Hadoop sur une station de travail, HDFS, MapReduce, Les apports de la version 2, Aspects matériels, L’éco-système de Hadoop, Développer des programmes Hadoop, Mettre en œuvre un cluster Hadoop…

Des éléments complémentaires sont en téléchargement sur le site www.editions-eni.fr.

Les chapitres du livre :

  1. Avant-propos
  2. Introduction
  3. Installer Hadoop sur une station de travail
  4. Une vue globale de Hadoop
  5. HDFS
  6. MapReduce
  7. Les apports de la version 2 de Hadoop
  8. Aspects matériels
  9. L’écosystème de Hadoop
  10. Développer des programmes Hadoop
  11. Mettre en œuvre un cluster Hadoop
  12. Quand utiliser Hadoop ?
  13. Conclusion

À propos de l’auteur

Laurent Jolia-Ferrier est consultant indépendant depuis de nombreuses années. Il intervient auprès de clients dans le secteur public comme dans le secteur privé, en France et à l’étranger.

Il accompagne ses clients dans leur réflexion sur l’impact du Big Data sur leur stratégie et forme des développeurs Hadoop. Il est certifié Cloudera Hadoop Developer.


4. Big Data et Machine Learning – Les concepts et les outils de la data science (Pirmin Lemberger, Marc Batty, Médéric Morel, Jean-Luc Raffaëlli)

Big Data et Machine Learning – Les concepts et les outils de la data science Pirmin Lemberger Marc Batty Médéric Morel Jean Luc Raffaëlli

Disponible sur Amazon Disponible à la Fnac

Cet ouvrage s’adresse à tous ceux qui cherchent à tirer parti de l’énorme potentiel des « technologies Big Data », qu’ils soient data scientists, DSI, chefs de projets ou spécialistes métier.

Le Big Data s’est imposé comme une innovation majeure pour toutes les entreprises qui cherchent à construire un avantage concurrentiel grâce à l’exploitation de leurs données clients, fournisseurs, produits, processus, machines, etc.

Mais quelle solution technique choisir ? Quelles compétences métier développer au sein de la DSI ? Ce livre est un guide pour comprendre les enjeux d’un projet Big Data, en appréhender les concepts sous-jacents (en particulier le Machine Learning) et acquérir les compétences nécessaires à la mise en place d’un data lab.

Il combine la présentation :

  • de notions théoriques (traitement statistique des données, calcul distribué…) ;
  • des outils les plus répandus (écosystème Hadoop, Storm…) ;
  • d’exemples d’applications ;
  • d’une organisation typique d’un projet de data science.

Les ajouts de cette troisième édition concernent principalement la vision d’architecture d’entreprise, nécessaire pour intégrer les innovations du Big Data au sein des organisations, et le Deep Learning pour le NLP (Natural Language Processing, qui est l’un des domaines de l’intelligence artificielle qui a le plus progressé récemment).

À propos de l’auteur

Aucune information disponible.


5. Hadoop par la pratique (Jonathan R. Owens, Jon Lentz, Brian Femiano)

Hadoop par la pratique Jonathan R. Owens Jon Lentz Brian Femiano

Disponible sur Amazon Disponible à la Fnac

Hadoop par la pratique s’articule autour d’explications approfondies et d’exemples de code. Chaque chapitre décrit un problème technique puis propose une solution découpée en étapes faciles à suivre.

Au programme : ETL, compression, sérialisation et importation/exportation de données ; analyse simple et élaborée d’agrégats ; analyse graphique ; apprentissage automatique ; dépannage et débogage ; persistance évolutive ; administration et configuration de cluster.

Vous trouverez dans cet ouvrage : un contenu direct et facile à suivre ; une sélection des tâches et des problèmes les plus importants ; des instructions parfaitement organisées pour résoudre efficacement les problèmes ; des explications claires sur les actions réalisées ; une application des solutions à d’autres situations.

La lecture de cet ouvrage vous permettra de développer facilement des applications massivement parallèles et d’exploiter toute la puissance d’Hadoop.

À propos de l’auteur

Jonathan R. Owens, ingénieur logiciel dans les secteurs privé et public, possède une solide expérience en Java et C++. Il utilise Hadoop et d’autres systèmes distribués pour agréger, analyser et gérer plus de quarante milliards de transactions par jour.

Jon Lentz est ingénieur logiciel au sein de l’équipe chargée des traitements chez comScore, Inc. Il préfère écrire tout son code en Pig.

Brian Femiano, programmeur professionnel depuis six ans, a passé ces deux dernières années à développer des systèmes d’analyse avancée et des fonctionnalités Big Data en utilisant Apache Hadoop. Il travaille aujourd’hui chez Potomac Fusion. Il est également chargé des formations sur Apache Hadoop et sur les technologies de cloud connexes.

error: Contenu protégé