Articles

Python tutorial

Sponsoruj działania programistyczne Open Source i bezpłatne treści dla każdego.

Dziękuję.

– k Hong

OpenCV 3 z Pythonem
Image – OpenCV BGR : Matplotlib RGB
Basic image operations – pixel access
iPython-Signal Processing with NumPy
Signal Processing with NumPy I-FFT and DFT for sine, square waves, unitpulse, and random signal
Signal Processing with NumPy II-Image Fourier Transform : FFT &DFT
odwrotna transformata Fouriera obrazu z filtrem dolnoprzepustowym: cv2.idft()
Histogram obrazu
Przechwytywanie wideo i przełączanie przestrzeni kolorów – RGB / HSV
Adaptive Thresholding – Otsu ’ s clustering-based image thresholding
wykrywanie krawędzi – Jądra Sobela i Laplaciana
Canny wykrywanie krawędzi
transformacja Hough – Circles
algorytm Watershed : segmentacja oparta na znacznikach i
algorytm Watershed : segmentacja oparta na znacznikach II
Redukcja szumów obrazu: Nielokalny algorytm odszumiania środków
wykrywanie obiektów obrazu : Wykrywanie twarzy za pomocą klasyfikatorów kaskadowych Haar
segmentacja obrazu – ekstrakcja pierwszoplanowa algorytm Grabcut oparty na cięciach Wykresów
rekonstrukcja Obrazu – Malowanie (Interpolacja) – szybkie metody Marszu
wideo : śledzenie obiektów z przesunięciem średnim
Uczenie maszynowe : Clustering – K-Means clustering I
Uczenie maszynowe : Clustering – K-Means clustering II
Uczenie maszynowe : classification – K-nearest neighbours (k-NN) algorytm

Uczenie maszynowe za pomocą scikit-learn

scikit-dowiedz się instalacja
scikit-dowiedz się : Funkcje i wyodrębnianie cech – iris dataset
scikit-learn : Machine Learning Szybki podgląd
scikit-learn : wstępne przetwarzanie danych I – brakujące / kategoryczne dane
scikit-learn : wstępne przetwarzanie danych II – partycjonowanie zbioru danych / skalowanie funkcji / Wybór funkcji / Regularyzacja
scikit-learn : wstępne przetwarzanie danych III – redukcja wymiarowości Vis sekwencyjny wybór funkcji / Ocena znaczenia funkcji za pomocą losowych lasów
kompresja danych za pomocą redukcji wymiarowości I – analiza głównych komponentów (PCA)
> scikit-dowiedz się : Kompresja danych poprzez redukcję wymiarowości II – liniowa Analiza Rozróżniająca (LDA)
scikit-learn : kompresja danych poprzez redukcję wymiarowości III – nieliniowe mapowania poprzez analizę głównego komponentu jądra (KPCA)
scikit-learn : regresja logistyczna, Overfitting & regularyzacja
scikit-learn : uczenie nadzorowane & bez nadzoru uczenie się – np. bez nadzoru zmniejszenie wymiarowości PCA za pomocą zestawu danych Iris
scikit-learn : bez nadzoru _learning – kmeans klastrowanie za pomocą zestawu danych Iris

scikit-learn : Liniowo Rozdzielalne dane – model liniowy & (Gaussian) jądro funkcji promieniowej podstawy (jądro RBF)
scikit-learn : Nauka drzewa decyzyjnego I – Entropia, Gini i zysk informacji
scikit-learn : Nauka drzewa decyzyjnego II – konstruowanie drzewa decyzyjnego
scikit-learn : Klasyfikacja losowych lasów decyzyjnych
scikit-learn : Maszyny wektorowe wsparcia (SVM)
scikit-learn : Vector Machines (SVM) II
flask with embedded machine learning i : serializing with pickle and db setup
flask with embedded Machine Learning II : Basic Flask App
Flask with Embedded Machine Learning III: embedding Classifier
Flask with Embedded Machine Learning IV: Deploy
Flask with Embedded Machine Learning V: aktualizacja klasyfikatora
scikit-learn : Sample of a spam comment filter using SVM-classificing a good one or a bad one

machine learning algorithms and concepts

Batch Gradient descent algorithm
Single Layer Neural Network-Model Perceptron on the Iris dataset using Heaviside step activation function
batch gradient descent versus Stochastic gradient descent
Single Layer Neural Network – Adaptive Linear Neuron using linear (identity) activation function with batch Gradient descent method
Single Layer Neural Network-Adaptive Linear Neuron using linear (identity) activation function with batch Gradient descent method
Single Layer Neural Network : Adaptive Linear Neuron using linear (identity) activation function with Stochastic gradient descent (SGD)
Regression Logistic
VC (Vapnik-Chervonenkis) Dimension and Shatter
bias-variance tradeoff
maximum Likelihood Estimation (mle)
Sieci neuronowe z backpropagation for XOR using one hidden layer
minHash
TF-idf weight
Natural Language Processing (NLP): Sentiment Analysis I (IMDb & bag-of-Words)
przetwarzanie języka naturalnego (NLP): Analiza sentencji II (tokenizacja, stemming i zatrzymanie słów)
przetwarzanie języka naturalnego (NLP): Analiza nastrojów III (szkolenie & weryfikacja krzyżowa)
przetwarzanie języka naturalnego (NLP): Analiza nastrojów IV (out-of-core)
Locality-Sensitive Hashing (LSH) using Cosinus Distance (Cosinus Similarity)

Sztuczne sieci neuronowe (ANN)

źródła są dostępne na Github – Jupyter notebook files
1. Wstęp
2. Propagacja do przodu
3. Gradient Descent
4. Backpropagacja błędów
5. Sprawdzanie gradientu
6. Szkolenie przez BFGS
7. Overfitting & Regulacja
8. Deep Learning I : Rozpoznawanie obrazów (przesyłanie obrazów)
9. Deep Learning II: Image Recognition (klasyfikacja obrazów)
10 – Deep Learning III: Deep Learning III: Theano, TensorFlow i Keras

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *