tutorial de Python
Patrocina actividades de desarrollo de código abierto y contenidos gratuitos para todos.
Gracias.
– K Hong
OpenCV 3 con Python 
 Image-OpenCV BGR: Matplotlib RGB 
Operaciones básicas de imagen – acceso a píxeles 
IPython-Procesamiento de señales con NumPy 
Procesamiento de señales con NumPy I-FFT y DFT para ondas sinusoidales, cuadradas, unitpulse y señal aleatoria 
Procesamiento de señales con NumPy II – Transformada de Fourier de imagen : FFT & DFT 
Transformada inversa de Fourier de una imagen con filtro de paso bajo: cv2.idft () 
 Histograma de imagen 
Captura de vídeo y Conmutación de espacios de color – RGB / HSV 
Umbral adaptativo-Umbral de imagen basado en clústeres de Otsu 
 Detección de bordes – Núcleos Sobel y Laplacianos 
 Detección de bordes Canny 
 Transformación Hough – Círculos 
 Algoritmo de cuenca: Segmentación basada en marcadores I 
 Algoritmo de cuenca: Segmentación basada en marcadores II 
Reducción de ruido de imagen: Algoritmo de eliminación de medios no locales 
 Detección de objetos de imagen : Detección de rostros mediante Clasificadores en cascada Haar Segmentación de imágenes – Extracción de primer plano Algoritmo de grabado basado en cortes de gráficos Reconstrucción de imágenes – Pintura de entrada (Interpolación) – Métodos de marcha rápida Vídeo : Seguimiento de objetos por desplazamiento medio Aprendizaje automático : Clustering – K-Means clustering I 
Aprendizaje automático : Clustering – K-Means clustering II 
Aprendizaje automático : Clasificación – k-algoritmo de vecinos más cercanos (k-NN) 
Aprendizaje automático con scikit-learn
scikit-aprender instalación 
scikit-aprender : Características y extracción de características-conjunto de datos iris 
scikit-learn: Aprendizaje automático Vista previa rápida 
scikit-learn: Preprocesamiento de datos I-Datos faltantes / categóricos 
 scikit-learn :Preprocesamiento de datos II-Particionamiento de un conjunto de datos / Escalado de características / Selección / Regularización de características 
scikit-learn: Preprocesamiento de datos III-Reducción de la dimensionalidad vis Selección secuencial de características / Evaluación de la importancia de las características a través de bosques aleatorios 
Compresión de datos a través de Reducción de la Dimensionalidad I-Análisis de componentes principales (PCA) 
 scikit-learn : Compresión de Datos a través de Reducción de Dimensionalidad II – Análisis Discriminante Lineal (LDA) 
scikit-learn : Compresión de Datos a través de Reducción de Dimensionalidad III – Asignaciones no lineales a través de análisis de componentes principales del núcleo (KPCA) 
scikit-learn : Regresión logística, Sobreajuste & regularización 
scikit-learn : Aprendizaje supervisado & Aprendizaje no supervisado – por ejemplo, Reducción de dimensionalidad de PCA sin supervisión con conjunto de datos iris 
scikit-learn : No supervisado_learning – KMeans clustering con conjunto de datos iris 
scikit-learn : Modelo lineal de datos separable linealmente & núcleo de función de base radial (Gaussiano) (núcleo RBF) 
scikit – learn : Aprendizaje del Árbol de Decisiones I-Entropía, Gini y Ganancia de información 
scikit – learn : Aprendizaje del Árbol de Decisiones II-Construcción del Árbol de Decisiones 
scikit – learn : Clasificación de Bosques de Decisiones Aleatorias 
scikit-learn : Máquinas Vectoriales de Soporte (SVM) 
scikit-learn : Máquinas Vectoriales de soporte (SVM) II 
Matraz con Aprendizaje automático integrado I : Serialización con encurtido y configuración de base de datos 
Matraz con Aprendizaje automático integrado II : Aplicación Básica de Matraz 
Matraz con Aprendizaje Automático Integrado III :Clasificador de Incrustación 
Matraz con Aprendizaje Automático integrado IV: Implementar 
Matraz con Aprendizaje Automático integrado V: Actualización del clasificador 
 scikit-learn : Muestra de un filtro de comentarios no deseados que utiliza SVM: clasificación de uno bueno o malo 
Algoritmos y conceptos de aprendizaje automático
 Algoritmo de descenso de gradiente por lotes 
 Red neuronal de una sola capa: Modelo de Perceptrón en el conjunto de datos del Iris mediante función de activación por pasos de Heaviside 
 Descenso de gradiente por lotes versus descenso de gradiente estocástico 
Red Neuronal de una sola capa: Neurona lineal adaptativa mediante función de activación lineal (identidad) con método de descenso de gradiente por lotes 
Red neuronal de una sola capa: Neurona lineal adaptativa mediante función de activación lineal (identidad) con método de descenso de gradiente por lotes 
 Red Neuronal de una sola capa : Neurona lineal adaptativa con función de activación lineal (identidad) con descenso de gradiente estocástico (SGD) 
Regresión logística 
VC (Vapnik-Chervonenkis) Dimensión y ruptura 
Compensación de sesgo-varianza 
Estimación de Máxima Verosimilitud (MLE) 
Redes Neuronales con backpropagación para XOR utilizando una capa oculta 
MinHash 
peso tf-idf 
Procesamiento del lenguaje Natural (PNL): Análisis de Sentimiento I (IMDb & bolsa de palabras) 
Procesamiento del lenguaje Natural (PNL): Análisis de sentimientos II (tokenización, derivación y detención de palabras) 
Procesamiento del Lenguaje Natural (PNL): Análisis de Sentimientos III (entrenamiento & validación cruzada) 
Procesamiento del lenguaje natural (PNL): Análisis de sentimientos IV (fuera del núcleo) 
Hash Sensible a la localidad (LSH) utilizando Distancia de Coseno (Similitud de Coseno) 
Redes Neuronales Artificiales (ANN)
 Las fuentes están disponibles en archivos de cuaderno Github-Jupyter 
1. Introducción 
 2. Propagación hacia adelante 
 3. Descenso de gradiente 
 4. Retropropagación de Errores 
5. Comprobación de gradiente 
 6. Formación a través de BFGS 
 7. Sobreajuste &Regularización 
 8. Aprendizaje Profundo I : Reconocimiento de imágenes (Carga de imágenes) 
 9. Aprendizaje profundo II: Reconocimiento de imágenes (Clasificación de imágenes) 
 10-Aprendizaje profundo III : Aprendizaje profundo III: Theano, TensorFlow y Keras