Python-Tutorial
Sponsern Sie Open-Source-Entwicklungsaktivitäten und kostenlose Inhalte für alle.
Vielen Dank.
– K>
OpenCV 3 mit Python
Bild – OpenCV BGR: Matplotlib RGB
Grundlegende Bildoperationen – Pixelzugriff
IPython – Signalverarbeitung mit NumPy
Signalverarbeitung mit NumPy I – FFT und DFT für Sinus-, Rechteck-, Unitpulse- und Zufallssignale
Signalverarbeitung mit NumPy II – Bild-Fourier-Transformation : FFT & DFT
Inverse Fourier-Transformation eines Bildes mit Tiefpassfilter: cv2.idft()
Bildhistogramm
Videoaufnahme und Umschalten von Farbräumen – RGB / HSV
Adaptive Thresholding – Otsus Clustering-basierte Bildschwelle
Kantenerkennung – Sobel- und Laplace-Kernel
Canny-Kantenerkennung
Hough-Transformation – Kreise
Wasserscheidealgorithmus: Markerbasierte Segmentierung I
Wasserscheidealgorithmus: Markerbasierte Segmentierung II
Bildrauschenreduzierung: Nicht lokaler Algorithmus zur Rauschunterdrückung
Bildobjekterkennung : Gesichtserkennung mit Haar-Kaskadenklassifikatoren
Bildsegmentierung – Vordergrundextraktion Grabcut-Algorithmus basierend auf Diagrammschnitten
Bildrekonstruktion – Inpainting (Interpolation) – Schnelle Marschmethoden
Video: Mean Shift Objektverfolgung
Maschinelles Lernen: Clustering – K-bedeutet Clustering I
Maschinelles Lernen: Clustering – K-Bedeutet Clustering II
Maschinelles Lernen: Klassifikation – k-Algorithmus der nächsten Nachbarn (k-NN)
Maschinelles Lernen mit scikit-learn
scikit-lernen Installation
scikit-lernen : Merkmale und Merkmalsextraktion – Iris-Datensatz
scikit-learn: Schnellvorschau für maschinelles Lernen
scikit-learn: Datenvorverarbeitung I – Fehlende / kategoriale Daten
scikit-learn: Datenvorverarbeitung II – Partitionierung eines Datensatzes / Merkmalsskalierung / Merkmalsauswahl / Regularisierung
scikit-learn: Datenvorverarbeitung III – Dimensionsreduktion / Sequentielle Merkmalsauswahl / Bewertung der Bedeutung von Merkmalen über zufällige Wälder
Datenkomprimierung über Dimensionsreduktion I – Hauptkomponentenanalyse (PCA)
scikit-learn: Datenvorverarbeitung : Datenkompression über Dimensionsreduktion II – Lineare Diskriminanzanalyse (LDA)
scikit-learn : Datenkompression über Dimensionsreduktion III – Nichtlineare Zuordnungen über Kernel Principal Component (KPCA) Analyse
scikit-learn: Logistische Regression, Überanpassung & Regularisierung
scikit-learn: Überwachtes Lernen & Unbeaufsichtigtes Lernen – z.B. Unsupervised PCA dimensionality reduction mit iris dataset
scikit-learn : Unsupervised_Learning – KMeans clustering mit iris dataset
scikit-learn : Linear trennbare Daten – Lineares Modell & (Gaußscher) radialer Basisfunktionskern (RBF-Kernel)
scikit-learn: Entscheidungsbaum Lernen I – Entropie, Gini und Informationsgewinn
scikit-learn: Entscheidungsbaum Lernen II – Konstruieren des Entscheidungsbaums
scikit-learn: Klassifizierung zufälliger Entscheidungswälder
scikit-learn: Support Vector Machines (SVM)
scikit-learn: Support Vector Machines (SVM)
scikit-learn: Machines (SVM) II
Flask mit Embedded Machine Learning I : Serialisierung mit Pickle und DB setup
Flask mit Embedded Machine Learning II : Grundlegende Flask-App
Flask mit eingebettetem maschinellem Lernen III: Klassifikator einbetten
Flask mit eingebettetem maschinellem Lernen IV: Bereitstellen
Flask mit eingebettetem maschinellem Lernen V: Aktualisieren des Klassifikators
scikit-learn : Beispiel eines Spam-Kommentarfilters mit SVM – Klassifizierung eines guten oder eines schlechten
Algorithmen und Konzepte für maschinelles Lernen
Batch Gradient descent algorithm
Single Layer Neural Network – Perceptron-Modell auf dem Iris-Datensatz mit Heaviside Step Activation function
Batch Gradient Descent versus stochastic Gradient descent
Single Layer Neural Network – Adaptives lineares Neuron mit linearer (Identitäts-) Aktivierungsfunktion mit Batch Gradient Descent method
Single Layer Neural Network : Adaptives lineares Neuron mit linearer (Identitäts-) Aktivierungsfunktion mit stochastischem Gradientenabstieg (SGD)
Logistische Regression
VC (Vapnik-Chervonenkis) Dimension und Shatter
Bias-Varianz-Kompromiss
Maximum-Likelihood-Schätzung (MLE)
Neuronale Netze mit Backpropagation für XOR unter Verwendung einer versteckten Schicht
MinHash
tf-idf-Gewicht
Natural Language Processing (NLP): Stimmungsanalyse I (IMDb & bag-of-words)
Verarbeitung natürlicher Sprache (NLP): Stimmungsanalyse II (Tokenisierung, Stemming und Stoppwörter)
Verarbeitung natürlicher Sprache (NLP): Sentimentanalyse III (Training & Kreuzvalidierung)
Verarbeitung natürlicher Sprache (NLP): Sentimentanalyse IV (Out-of-Core)
Lokalitätssensitives Hashing (LSH) unter Verwendung der Cosinusdistanz (Cosinusähnlichkeit)
Künstliche Neuronale Netze (ANN)
Quellen finden Sie unter Github – Jupyter Notebook-Dateien
1. Einführung
2. Vorwärtsausbreitung
3. Gradient Descent
4. Backpropagation von Fehlern
5. Überprüfen gradient
6. Ausbildung über BFGS
7. Überanpassung & Regularisierung
8. Tiefes Lernen I : Bilderkennung (Bild hochladen)
9. Deep Learning II : Bilderkennung (Bildklassifizierung)
10 – Deep Learning III : Deep Learning III : Theano, TensorFlow und Keras