Articles

Python tutorial

Sponsorizza attività di sviluppo Open Source e contenuti gratuiti per tutti.

Grazie.

– K Hong

OpenCV 3 con Python
Image-OpenCV BGR : Matplotlib RGB
Basic image operations-pixel access
iPython – Signal Processing with NumPy
Signal Processing with NumPy I – FFT and DFT for sine, square waves, unitpulse, and random signal
Signal Processing with NumPy II-Image Fourier Transform : FFT& DFT
Trasformata di Fourier inversa di un’immagine con filtro passa basso: cv2.idft()
Istogramma dell’Immagine
l’Acquisizione di Video e di Commutazione spazi colore RGB / HSV
Soglia di adattamento – Otsu clustering basato su immagine soglia
Edge Detection – Sobel e Laplaciano Kernel
Canny Edge Detection
Hough Transform – Cerchi
Spartiacque Algoritmo : Marcatore a base di Segmentazione I
Spartiacque Algoritmo : Marcatore a base di Segmentazione II
Immagine di riduzione del rumore : Non locale Significa denoising algoritmo
Immagine oggetto di rilevazione : Il rilevamento del viso utilizzando Haar Cascata Classificatori
la segmentazione di Immagini – estrazione in primo Piano Grabcut algoritmo basato sul grafico tagli
la Ricostruzione di Immagini – Inpainting (Interpolazione) – Fast Marching Metodi
Video : Mean shift oggetto di monitoraggio
Macchina di Apprendimento : il Clustering K-means clustering I
Macchina di Apprendimento : il Clustering K-means clustering II
Macchina di Apprendimento : Classificazione – k-nearest neighbors (k-NN) algoritmo

Macchina di Apprendimento con scikit-imparare

scikit-imparare l’installazione
scikit-imparare : Caratteristiche e funzionalità di estrazione – iris dataset
scikit-imparare : Macchina di Apprendimento Rapida Anteprima di
scikit apprendere : l’elaborazione dei Dati I – Mancanti / dati Categoriali
scikit apprendere : l’elaborazione dei Dati II – Partizionamento di un set di dati / Funzione di scaling / Funzione di Selezione / Regolarizzazione
scikit apprendere : l’elaborazione dei Dati III – riduzione di Dimensionalità vis Sequenziale funzione di selezione / Valutazione caratteristica importanza attraverso foreste casuali
la Compressione dei Dati tramite la Riduzione della Dimensionalità I – analisi delle componenti Principali (PCA)
scikit-imparare : La Compressione dei dati tramite la Riduzione della Dimensionalità II – Analisi Discriminante Lineare (LDA)
scikit-imparare : la Compressione dei Dati tramite la Riduzione della Dimensionalità III – non lineare mapping tramite kernel componente principale (KPCA) analisi
scikit apprendere : la Regressione Logistica, l’overfitting & regolarizzazione

scikit-imparare : Apprendimento Supervisionato & Unsupervised Learning – ad esempio Incustoditi PCA riduzione di dimensionalità con iris dataset
scikit-imparare : Unsupervised_Learning – KMeans clustering con iris dataset
scikit-imparare : Linearmente Separabili Dati – Modello Lineare & (Gaussiana) radial basis function kernel (kernel RBF)
scikit-imparare : Albero di Decisione di Apprendimento I – Entropia, Gini, e l’Information Gain
scikit-imparare : Albero di Decisione di Apprendimento II – Costruire l’Albero di Decisione
scikit-imparare : Decisione Casuale Foreste Classificazione
scikit-imparare : Support Vector Machines (SVM)
scikit-imparare : Support Vector Machines (SVM) II
Pallone con Macchine Embedded Learning io : Serializzazione con sottaceto e DB installazione
Pallone con Incorporato della Macchina di Apprendimento II : Flask App di base
Flask con apprendimento automatico incorporato III: Incorporamento Classificatore
Flask con apprendimento automatico incorporato IV: Distribuire
Flask con apprendimento automatico incorporato V: Aggiornamento del classificatore
scikit-learn : Esempio di un filtro di commento spam utilizzando SVM-classificazione di uno buono o uno cattivo

Algoritmi e concetti di apprendimento automatico

Algoritmo di discesa del gradiente batch
Rete neurale monostrato – Modello Perceptron sul set di dati Iris utilizzando la funzione di attivazione a step Heaviside
Discesa del gradiente batch rispetto alla discesa del gradiente stocastico
Rete neurale monostrato – Neurone lineare adattivo : Adaptive Lineare Neurone utilizzando lineari (identità) funzione di attivazione con stocastico gradiente di discesa (SGD)
di Regressione Logistica
VC (Vapnik-Chervonenkis) Dimensione e Frantumi
Bias-varianza compromesso
la Stima di Massima Verosimiglianza (MLE)
Reti Neurali con retropropagazione per XOR utilizzando uno strato nascosto
minHash
tf-idf peso
l’Elaborazione del Linguaggio Naturale (NLP): L’Analisi del Sentiment I (IMDb & borsa di parole)
Elaborazione del Linguaggio Naturale (NLP): Analisi del Sentiment II (tokenizzazione, derivanti, e smettere di parole)
Elaborazione del Linguaggio Naturale (NLP): Sentiment Analysis III (training &cross validation)
Natural Language Processing (NLP): Sentiment Analysis IV (out-of-core)
Locality-Sensitive Hashing (LSH) using Cosine Distance (Cosine Similarity)

Artificial Neural Networks (ANN)

Sources are available at Github – Jupyter notebook files
1. Introduzione
2. Propagazione in avanti
3. Pendenza Discesa
4. Backpropagation di errori
5. Controllo gradiente
6. Formazione tramite BFGS
7. Overfitting & Regolarizzazione
8. Apprendimento profondo I : Riconoscimento delle immagini (caricamento delle immagini)
9. Deep Learning II: Riconoscimento delle immagini (classificazione delle immagini)
10-Deep Learning III: Deep Learning III: Theano, TensorFlow e Keras

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *