Un cours pratique pour apprendre les grandes technologies de l'information tout en développant des projets professionnels.

Description
Le cours Big Data, le plus attendu sur la planète, couvre toutes les grandes technologies de données de l'écosystème Hadoop et les intègre dans des projets de vie réelle, ce qui vous permet non seulement d'apprendre les nuances de l'hadoop et de ses technologies associées, mais aussi de voir comment elles résolvent les problèmes du monde réel et comment elles sont utilisées par les entreprises dans le monde entier.

Ce cours vous aidera à faire un saut quantique et vous aidera à construire des solutions Hadoop qui résoudront des problèmes du monde réel, mais nous devons vous avertir que ce cours n'est pas pour les personnes au cur fragile et testera vos capacités et vos connaissances tout en vous aidant à construire un savoir-faire de pointe dans l'espace technologique le plus actuel.

AddValue to Existing Data - Apprenez comment les technologies telles que Mapreduce s'appliquent aux problèmes de clustering : le projet se concentre sur la suppression des doublons ou des valeurs équivalentes d'un très grand ensemble de données avec Mapreduce.

HadoopAnalytics et NoSQL - Parse un flux twitter avec Python, extrait les mots-clés avec apache pig et map to hdfs, pull from hdfs et push to mongodb avec pig, visualise les données avec node js... Apprenez tout cela dans ce projet cool.
Kafka Streaming avec Yarn et Zookeeper - Configurez un flux twitter avec Python, configurez un flux Kafka avec du code java pour les producteurs et les consommateurs, empaquetez et déployez du code java avec apache samza.
Real-Time Stream Processing avec Apache Kafka et Apache Storm - Ce projet se concentre sur le streaming Twitter mais utilise Kafka et apache storm et vous apprendrez à les utiliser efficacement.
Grandes applications de données pour l'industrie des soins de santé avec Apache Sqoop et Apache Solr - Configurez le schéma relationnel pour un dictionnaire de données sur les soins de santé utilisé par le ministère américain des Anciens combattants, démontrez la technologie et le cadre conceptuel sous-jacents, démontrez les problèmes avec certaines requêtes jointes qui échouent sur MySQL, mappez la technologie à une pile Hadoop/Hive avec Scoop et HCatalog, montrez comment cette pile peut exécuter la requête avec succès.
Collecte et analyse de logs avec le système de fichiers distribués Hadoop utilisant Apache Flume et Apache HCatalog - Utilisez Apache Flume et Apache HCatalog pour mapper le flux de logs en temps réel vers hdfs et suivre ce fichier comme flux d'événements Flume, mapper les données de hdfs vers Python avec Pig, utiliser les modules Python pour les requêtes analytiques.
Science des données avec Hadoop Predictive Analytics - Créer des données structurées avec Mapreduce, Cartographier les données de hdfs à Python avec Pig, exécuter la régression logistique Python Machine Learning, utiliser les modules Python pour les matrices de régression et superviser la formation.
Analyse visuelle avec Apache Spark on Yarn - Créer des données structurées avec Mapreduce, Cartographier les données de hdfs en Python avec Spark, convertir Spark dataframes et RDDâs en Python datastructures de données, Effectuer des visualisations Python.
Vue à 360 degrés du client, Big Data Analytics pour le commerce électronique - Démonstration de l'utilisation de l'outil EComerce âDatameerâ pour effectuer de nombreuses requêtes analytiques des parties 6, 7 et 8. Effectuer des requêtes dans le contexte de l'analyse Senitment et du flux Twiteer.
Mettre tout cela ensemble avec Amazon Elastic Map Reduce - Rub clustering code sur AWS Mapreduce clustering clustering. sdk AWS Java sdk spin up a Dedicated task cluster avec les mêmes attributs.

Ce cours est livré avec un code source complet et des machines virtuelles entièrement opérationnelles qui vous aideront à construire les projets rapidement sans perdre trop de temps à l'installation du système.

CLIQUEZ ICI pour accéder à ce cours