Mes cours
Aujourd’hui, près de 73% des entreprises déclarent faire face à des difficultés pour recruter des professionnels de la Data, et cette situation semble bien partie pour durer. C’est donc le bon moment pour développer ses compétences en analyse de données !

Machine Learning
En clair, le machine learning est une technologie qui permet aux machines d’apprendre sans avoir été préalablement programmées spécifiquement à cet effet. Pour cela, les machines ont besoin d’être « nourries » de données pertinentes. Ces données peuvent être de différents types (chiffres, mots, images ou statistiques), pourvu qu'elles puissent être stockées numériquement.

Deep Learning
Le Deep Learning ou apprentissage profond : c’est une technique de machine learning reposant sur le modèle des réseaux neurones: des dizaines voire des centaines de couches de neurones sont empilées pour apporter une plus grande complexité à l’établissement des règles.

Création de site Web
Pour les particuliers et les entreprises.

PYSPARK
c'est une API Python pour Spark. De plus, PySpark joue le rôle d'interface avec les datasets distribués résilients (RDD) d'Apache Spark et le langage de programmation Python.

SQL
SQL est un langage informatique normalisé servant à exploiter des bases de données relationnelles.

PYTHON
Python est un langage de programmation interprété, multiparadigme et multiplateformes. Il favorise la programmation impérative structurée, fonctionnelle et orientée objet.

POWER BI
Microsoft Power BI est une solution d'analyse de données de Microsoft. Il permet de créer des visualisations de données personnalisées et interactives avec une interface suffisamment simple pour que les utilisateurs finaux créent leurs propres rapports et tableaux de bord.

EXCEL
Microsoft Excel est un logiciel tableur de la suite bureautique Microsoft Office développé et distribué par l'éditeur Microsoft.

WEB SCRAPING
Le web scraping consiste à extraire automatiquement le contenu de sites web, pour obtenir des données structurées et facilement exploitables. Concrètement : un logiciel récupère les informations requises à partir du code source des pages web pertinentes, puis les restitue dans une base de données organisée de type tableur.