Articles

Tutoriel Python

Parrainez des activités de développement Open Source et des contenus gratuits pour tous.

Merci.

– K Hong

OpenCV 3 avec Python
Image – OpenCV BGR: Matplotlib RGB
Opérations d’image de base – accès aux pixels
IPython – Traitement du signal avec NumPy
Traitement du signal avec NumPy I-FFT et DFT pour les signaux sinusoïdaux, carrés, unitpulse et aléatoires
Traitement du signal avec NumPy II – Transformée de Fourier d’image : FFT &DFT
Transformée de Fourier inverse d’une Image avec filtre passe-bas : cv2.idft()
Histogramme d’image
Capture vidéo et commutation d’espaces de couleurs – RVB / HSV
Seuillage adaptatif – Seuillage d’image basé sur le clustering d’Otsu
Détection de bord – Noyaux Sobel et Laplaciens
Détection de Bord Canny
Cercles de transformation de Hough
Algorithme de bassin versant: Segmentation basée sur des marqueurs I
Algorithme de bassin versant: Segmentation basée sur des marqueurs II
Réduction du bruit d’image: Algorithme de débruitage de Moyens non locaux
Détection d’objets d’image : Détection de visage à l’aide de Classificateurs en cascade Haar
Segmentation d’image – Algorithme d’extraction de premier plan basé sur des coupes de graphes
Reconstruction d’image – Inpainting (Interpolation) – Méthodes de Marche rapide
Vidéo: Suivi d’objets à décalage moyen
Apprentissage automatique: Clustering -K-Means Clustering I
Apprentissage automatique: Clustering-K-Means Clustering II
Apprentissage automatique: Algorithme de Classification-k- les plus proches voisins (k-NN)

Apprentissage automatique avec scikit-learn

installation de scikit-learn
scikit-learn : Caractéristiques et extraction de caractéristiques – ensemble de données iris
scikit-learn: Aperçu rapide de l’Apprentissage automatique
scikit-learn: Prétraitement des données I – Données manquantes / catégorielles
scikit-learn: Prétraitement des données II – Partitionnement d’un ensemble de données / Mise à l’échelle des caractéristiques / Sélection des Caractéristiques / Régularisation
scikit-learn: Prétraitement des données III – Réduction de la dimensionnalité vis Sélection séquentielle des caractéristiques / Évaluation de l’importance des caractéristiques via des forêts aléatoires
Compression des données via Réduction de la Dimensionnalité I – Analyse en composantes principales (PCA)
br> scikit – apprendre : Compression des Données via Réduction de la Dimensionnalité II – Analyse Discriminante Linéaire (LDA)
scikit-learn : Compression des Données via Réduction de la Dimensionnalité III – Mappages non linéaires via analyse du composant principal du noyau (KPCA)

scikit-learn: Régression logistique, Surajustement & régularisation
scikit-learn : Apprentissage supervisé & Apprentissage non supervisé – par exemple Réduction de la dimensionnalité PCA non supervisée avec l’ensemble de données iris
scikit-learn: Unsupervised_Learning – KMeans clustering avec l’ensemble de données iris
scikit-learn : Données linéairement séparables – Modèle Linéaire & Noyau de fonction de base radiale (Gaussien) (noyau RBF)
scikit-learn: Apprentissage de l’Arbre de Décision I – Entropie, Gini et Gain d’Informations
scikit-learn: Apprentissage de l’Arbre de Décision II – Construction de l’Arbre de Décision
scikit-learn: Classification Aléatoire des Forêts de Décision
scikit-learn: Support des Machines Vectorielles (SVM)
scikit-learn: Support Machines Vectorielles (SVM) II
Flask avec Apprentissage Automatique Intégré I: Sérialisation avec configuration pickle et DB
Flask avec Apprentissage Automatique intégré II : Application Flask de Base
Flask avec Apprentissage Automatique Intégré III: Classificateur intégré
Flask avec Apprentissage Automatique Intégré IV: Déployer
Flask avec Apprentissage Automatique Intégré V: Mise à jour du classificateur
scikit-learn : Échantillon d’un filtre de commentaire de spam utilisant SVM – classifiant un bon ou un mauvais

Algorithmes et concepts d’apprentissage automatique

Algorithme de descente de gradient par lots
Réseau neuronal monocouche – Modèle Perceptron sur l’ensemble de données Iris à l’aide de la fonction d’activation par étapes Heaviside
Descente de gradient par lots par rapport à la descente de gradient stochastique
Réseau neuronal monocouche – Neurone linéaire adaptatif utilisant la fonction d’activation linéaire (identité) avec la méthode de descente de gradient par lots
Réseau neuronal monocouche : Neurone linéaire adaptatif utilisant une fonction d’activation linéaire (identité) avec descente de gradient stochastique (SGD)
Régression logistique
Dimension et éclatement de VC (Vapnik-Chervonenkis)
Compromis Biais-variance
Estimation du maximum de vraisemblance (MLE)
Réseaux de neurones avec rétropropagation pour XOR en utilisant une couche cachée
minHash
poids tf-idf
Traitement du langage naturel (PNL): Analyse des sentiments I (IMDb &sac de mots)
Traitement du langage naturel (PNL): Analyse des sentiments II (tokenisation, stemming et mots stop)
Traitement du langage naturel (PNL): Analyse des sentiments III (formation & validation croisée)
Traitement du langage naturel (PNL): Analyse des sentiments IV (hors noyau)
Hachage sensible à la localité (LSH) en utilisant la Distance Cosinus (Similarité Cosinus)

Réseaux de neurones artificiels (ANN)

Les sources sont disponibles dans les fichiers de notebook Github-Jupyter
1. Introduction
2. Propagation vers l’avant
3. Descente de pente
4. Rétropropagation des erreurs
5. Vérification du gradient
6. Formation via BFGS
7. Surajustement &Régularisation
8. Apprentissage Profond I : Reconnaissance d’image (téléchargement d’image)
9. Apprentissage profond II: Reconnaissance d’image (Classification d’image)
10 – Apprentissage profond III: Apprentissage profond III: Theano, TensorFlow et Keras

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *