DIAPO .pdf
File information
Original filename: DIAPO.pdf
Title: Présentation d'un nouveau produit
Author: isra tchoin
This PDF 1.4 document has been generated by Impress / LibreOffice 5.1, and has been sent on pdf-archive.com on 09/04/2018 at 19:56, from IP address 93.19.x.x.
The current document download page has been viewed 412 times.
File size: 1.6 MB (13 pages).
Privacy: public file
Share on social networks
Link to this file download page
Document preview
VISION - REGARD
BARTHET Virgile, BEN BRAHIM Isra, PETIT Marc-Alain, BOURDON Theo, DOUADY Paris, RAKOTO Cedric
PLAN
I. Introduction
II. Description des algorithmes étudiés
1. Preprocessing
2. Modèle prédictif
3. Visualisation
III. Résultats obtenus dans le challenge
IV. Discussion et conclusion
Quel est le but de ce projet ?
Reconnaître divers obstacles pouvant se
dresser sur la route d’une voiture autonome
comme des animaux ou d’autres véhicules
Adapter la réponse de la voiture à l’entité
reconnue
Description des algorithmes étudiés
Preprocessing
Sélectionner, trier et nettoyer les données
Facilement utilisables par le classifieur
Améliorer ses performances et sa vitesse d’apprentissage
3 étapes
Choisir les données,
supprimer les labels superflus
dans la base de données
Nettoyer la base de données
et réduire la taille du dataset
Transformer les données
en les normalisant
PSEUDO-CODE
# Pour nettoyer le dataset des entrées incomplètes
def nettoyer_bdd(dataset):
#on fait une copie de la liste pour éviter de modifier la liste de base
cleaned_list = list(dataset)
for i in range(len(cleaned_list)):
#si il y a moins de 256 features alors le dataset est incomplet
if(len(cleaned_list[i]) != 256):
#donc on retire de notre liste l'entrée incriminée
cleaned_list.pop(i)
#puis on renvoie la liste nettoyée
return cleaned_list
# Permet de normaliser les valeurs du dataset
# mini/maxi = valeur minimale/maximale qu'on souhaite obtenir pour chaque valeur
def normaliser_bdd(dataset, mini, maxi):
if(mini == maxi or maxi < mini):
raise ValueError("valeurs mini maxi fausses")
normalized_list = list(dataset)
#pour chaque entrée
for i in range(len(normalized_list)):
for j in range(len(normalized_list[i])):
#formule de la normalisation
normalized_list[i][j] = (normalized_list[i][j] - mini) / (maxi - mini)
return normalized_list
Début algorithme ACP:
Standardiser les données
Déterminer les valeurs et les vecteurs
propres ( méthode np.linealg.eig() )
Se servir de la variance, obtenue à l’étape
précédente pour trouver les composantes
principales
Trouver un nombre de composant le plus
bas possible mais avec la variance la plus
élevée possible, ce seront les composantes qui convoient le plus d’information
Fin algorithme ACP
Description des algorithmes étudiés
Modèle prédictif
1/Former un modèle de prédiction avec Scikit-Learn
2/Tuner les hyper-paramètres du modèle afin de battre la
méthode automatique de AUTO-SKLEARN en
trouvant des méthodes qui correspondent aux données
choisies.
Description des algorithmes étudiés
Visualisation
Matrice de confusion
→ illustrer au mieux les taux de vrais/ faux positifs ainsi
que les vrais/ faux négatifs
Matrice de corrélation
→illustrer les features qui sont corrélées entre elles
Scatter Plot
→ voir au mieux les variances entre les résultats obtenus
Modéliser les données avant et après le preprocessing
afin d’en illustrer les modifications.
Matrice de confusion pour un
modèle simple
Matrice de corrélation
Link to this page
Permanent link
Use the permanent link to the download page to share your document on Facebook, Twitter, LinkedIn, or directly with a contact by e-Mail, Messenger, Whatsapp, Line..
Short link
Use the short link to share your document on Twitter or by text message (SMS)
HTML Code
Copy the following HTML code to share your document on a Website or Blog