Articles

tutorial de Python

Patrocina actividades de desarrollo de código abierto y contenidos gratuitos para todos.

Gracias.

– K Hong

OpenCV 3 con Python
Image-OpenCV BGR: Matplotlib RGB
Operaciones básicas de imagen – acceso a píxeles
IPython-Procesamiento de señales con NumPy
Procesamiento de señales con NumPy I-FFT y DFT para ondas sinusoidales, cuadradas, unitpulse y señal aleatoria
Procesamiento de señales con NumPy II – Transformada de Fourier de imagen : FFT & DFT
Transformada inversa de Fourier de una imagen con filtro de paso bajo: cv2.idft ()
Histograma de imagen
Captura de vídeo y Conmutación de espacios de color – RGB / HSV
Umbral adaptativo-Umbral de imagen basado en clústeres de Otsu
Detección de bordes – Núcleos Sobel y Laplacianos
Detección de bordes Canny
Transformación Hough – Círculos
Algoritmo de cuenca: Segmentación basada en marcadores I
Algoritmo de cuenca: Segmentación basada en marcadores II
Reducción de ruido de imagen: Algoritmo de eliminación de medios no locales
Detección de objetos de imagen : Detección de rostros mediante Clasificadores en cascada Haar Segmentación de imágenes – Extracción de primer plano Algoritmo de grabado basado en cortes de gráficos Reconstrucción de imágenes – Pintura de entrada (Interpolación) – Métodos de marcha rápida Vídeo : Seguimiento de objetos por desplazamiento medio Aprendizaje automático : Clustering – K-Means clustering I
Aprendizaje automático : Clustering – K-Means clustering II
Aprendizaje automático : Clasificación – k-algoritmo de vecinos más cercanos (k-NN)

Aprendizaje automático con scikit-learn

scikit-aprender instalación
scikit-aprender : Características y extracción de características-conjunto de datos iris
scikit-learn: Aprendizaje automático Vista previa rápida
scikit-learn: Preprocesamiento de datos I-Datos faltantes / categóricos
scikit-learn :Preprocesamiento de datos II-Particionamiento de un conjunto de datos / Escalado de características / Selección / Regularización de características
scikit-learn: Preprocesamiento de datos III-Reducción de la dimensionalidad vis Selección secuencial de características / Evaluación de la importancia de las características a través de bosques aleatorios
Compresión de datos a través de Reducción de la Dimensionalidad I-Análisis de componentes principales (PCA)
scikit-learn : Compresión de Datos a través de Reducción de Dimensionalidad II – Análisis Discriminante Lineal (LDA)
scikit-learn : Compresión de Datos a través de Reducción de Dimensionalidad III – Asignaciones no lineales a través de análisis de componentes principales del núcleo (KPCA)
scikit-learn : Regresión logística, Sobreajuste & regularización
scikit-learn : Aprendizaje supervisado & Aprendizaje no supervisado – por ejemplo, Reducción de dimensionalidad de PCA sin supervisión con conjunto de datos iris
scikit-learn : No supervisado_learning – KMeans clustering con conjunto de datos iris
scikit-learn : Modelo lineal de datos separable linealmente & núcleo de función de base radial (Gaussiano) (núcleo RBF)
scikit – learn : Aprendizaje del Árbol de Decisiones I-Entropía, Gini y Ganancia de información
scikit – learn : Aprendizaje del Árbol de Decisiones II-Construcción del Árbol de Decisiones
scikit – learn : Clasificación de Bosques de Decisiones Aleatorias
scikit-learn : Máquinas Vectoriales de Soporte (SVM)
scikit-learn : Máquinas Vectoriales de soporte (SVM) II
Matraz con Aprendizaje automático integrado I : Serialización con encurtido y configuración de base de datos
Matraz con Aprendizaje automático integrado II : Aplicación Básica de Matraz
Matraz con Aprendizaje Automático Integrado III :Clasificador de Incrustación
Matraz con Aprendizaje Automático integrado IV: Implementar
Matraz con Aprendizaje Automático integrado V: Actualización del clasificador
scikit-learn : Muestra de un filtro de comentarios no deseados que utiliza SVM: clasificación de uno bueno o malo

Algoritmos y conceptos de aprendizaje automático

Algoritmo de descenso de gradiente por lotes
Red neuronal de una sola capa: Modelo de Perceptrón en el conjunto de datos del Iris mediante función de activación por pasos de Heaviside
Descenso de gradiente por lotes versus descenso de gradiente estocástico
Red Neuronal de una sola capa: Neurona lineal adaptativa mediante función de activación lineal (identidad) con método de descenso de gradiente por lotes
Red neuronal de una sola capa: Neurona lineal adaptativa mediante función de activación lineal (identidad) con método de descenso de gradiente por lotes
Red Neuronal de una sola capa : Neurona lineal adaptativa con función de activación lineal (identidad) con descenso de gradiente estocástico (SGD)
Regresión logística
VC (Vapnik-Chervonenkis) Dimensión y ruptura
Compensación de sesgo-varianza
Estimación de Máxima Verosimilitud (MLE)
Redes Neuronales con backpropagación para XOR utilizando una capa oculta
MinHash
peso tf-idf
Procesamiento del lenguaje Natural (PNL): Análisis de Sentimiento I (IMDb & bolsa de palabras)
Procesamiento del lenguaje Natural (PNL): Análisis de sentimientos II (tokenización, derivación y detención de palabras)
Procesamiento del Lenguaje Natural (PNL): Análisis de Sentimientos III (entrenamiento & validación cruzada)
Procesamiento del lenguaje natural (PNL): Análisis de sentimientos IV (fuera del núcleo)
Hash Sensible a la localidad (LSH) utilizando Distancia de Coseno (Similitud de Coseno)

Redes Neuronales Artificiales (ANN)

Las fuentes están disponibles en archivos de cuaderno Github-Jupyter
1. Introducción
2. Propagación hacia adelante
3. Descenso de gradiente
4. Retropropagación de Errores
5. Comprobación de gradiente
6. Formación a través de BFGS
7. Sobreajuste &Regularización
8. Aprendizaje Profundo I : Reconocimiento de imágenes (Carga de imágenes)
9. Aprendizaje profundo II: Reconocimiento de imágenes (Clasificación de imágenes)
10-Aprendizaje profundo III : Aprendizaje profundo III: Theano, TensorFlow y Keras

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *