Patrocina actividades de desarrollo de código abierto y contenidos gratuitos para todos.
Gracias.
– K Hong
Procesamiento de imagen y vídeo OpenCV 3 con Python
OpenCV 3 con Python
Imagen-OpenCV BGR : Matplotlib RGB
Operaciones básicas de imagen – acceso a píxeles
IPython-Procesamiento de señales con NumPy
Procesamiento de señales con NumPy I-FFT y DFT para ondas sinusoidales, cuadradas, unitarias y aleatorias
Procesamiento de señales con NumPy II – Imagen Transformada de Fourier: FFT & DFT
Transformada inversa de Fourier de una imagen con filtro de paso bajo: cv2.idft()
Histograma de imagen
Captura de vídeo y Espacios de color de conmutación – RGB / HSV
Umbral adaptativo – Umbral de imagen basado en clústeres de Otsu
Detección de bordes-Núcleos Sobel y Laplacianos
Detección de bordes Canny
Transformación Hough – Círculos
Algoritmo de cuenca : Segmentación basada en marcadores I
Algoritmo de Cuenca : Segmentación basada en marcadores II
Reducción de ruido de imagen : Algoritmo de eliminación de ruido de medios no locales
Detección de objetos de imagen : Detección de rostros mediante Clasificadores en cascada Haar
Segmentación de imágenes – Extracción de primer plano Algoritmo Grabcut basado en cortes de gráficos
Reconstrucción de imágenes – Pintura de entrada (Interpolación) – Métodos de marcha rápida
Vídeo : Seguimiento de objetos por desplazamiento medio
Aprendizaje automático : Agrupación en clústeres – K-Means I
Aprendizaje automático : Agrupación en clústeres – K-Means II
Aprendizaje automático : Clasificación – k-algoritmo de vecinos más cercanos (k-NN)
Aprendizaje automático con scikit-learn
Instalación de scikit-learn
scikit-learn : Características y extracción de características – conjunto de datos iris
scikit-aprender : Vista previa rápida de Aprendizaje automático
scikit-aprender : Preprocesamiento de datos I – Datos faltantes / categóricos
scikit-aprender : Preprocesamiento de datos II – Particionar un conjunto de datos / Escalado de características / Selección / Regularización de Características
scikit-aprender : Preprocesamiento de datos III – Reducción de dimensionalidad vis Selección secuencial de características / Evaluación de importancia de características a través de bosques aleatorios
Compresión de datos a través de Reducción de Dimensionalidad I – Principal análisis de componentes (PCA)
scikit-learn : Compresión de Datos a través de Reducción de Dimensionalidad II – Análisis Discriminante Lineal (LDA)
scikit-learn : Compresión de Datos a través de Reducción de Dimensionalidad III – Asignaciones no lineales a través de análisis de componentes principales del núcleo (KPCA)
scikit-learn : Regresión logística, Sobreajuste & regularización
scikit-learn : Aprendizaje supervisado & Aprendizaje no supervisado – por ejemplo, Reducción de dimensionalidad de PCA no supervisada con 5718>scikit-learn : Unsupervised_Learning – KMeans clustering con conjunto de datos iris
scikit-learn : Datos separables linealmente : Modelo Lineal & núcleo de función de base radial (gaussiano) (núcleo RBF)
scikit – aprender : Aprendizaje del Árbol de Decisiones I-Entropía, Gini y Ganancia de información
scikit – aprender : Aprendizaje del Árbol de Decisiones II-Construir el Árbol de Decisiones
scikit – aprender : Clasificación de Bosques de Decisiones Aleatorias
scikit-aprender : Máquinas Vectoriales de Soporte (SVM)
scikit-aprender : Máquinas Vectoriales de Soporte (SVM) II
Matraz con Aprendizaje automático integrado I: Serialización con encurtido y configuración de base de datos
Matraz con Aprendizaje automático integrado II : Aplicación Básica de Matraz
Matraz con Aprendizaje Automático Integrado III: Clasificador de Incrustación
Matraz con Aprendizaje Automático integrado IV: Despliegue
Matraz con Aprendizaje automático integrado V: Actualización del clasificador
scikit-learn : Muestra de un filtro de comentarios no deseados que utiliza SVM: clasificación de uno bueno o malo
Algoritmos y conceptos de aprendizaje automático
Algoritmo de descenso de gradiente por lotes
Red Neuronal de una sola capa: Modelo de Perceptrón en el conjunto de datos del Iris mediante función de activación por pasos de Heaviside
Descenso de gradiente por lotes versus descenso de gradiente estocástico
Red Neuronal de una sola capa: Neurona lineal adaptativa mediante función de activación lineal (identidad) con método de descenso de gradiente por lotes
Red neuronal de una sola capa : Neurona lineal adaptativa utilizando la función de activación lineal (identidad) con descenso de gradiente estocástico (SGD)
Regresión logística
Dimensión y ruptura de VC (Vapnik-Chervonenkis)
Compensación de sesgo-varianza
Estimación de Máxima Verosimilitud (MLE)
Redes neuronales con backpropagación para XOR utilizando una capa oculta
MinHash
Peso tf-idf
Procesamiento de lenguaje Natural (PNL): Análisis de sentimientos I (IMDb & bolsa de palabras)
Procesamiento del Lenguaje Natural (PNL): Análisis de sentimientos II (tokenización, derivación y detención de palabras)
Procesamiento del Lenguaje Natural (PNL): Análisis de Sentimientos III (entrenamiento & validación cruzada)
Procesamiento del Lenguaje Natural (PNL): Análisis de sentimientos IV (fuera del núcleo)
Hash sensible a la localidad (LSH) mediante Distancia de Coseno (Similitud de Coseno)
Redes Neuronales Artificiales (ANN)
Las fuentes están disponibles en archivos notebook de Github-Jupyter
1. Introducción
2. Propagación hacia adelante
3. Descenso de gradiente
4. Retropropagación de Errores
5. Comprobación de gradiente
6. Formación a través de BFG
7. Sobreajuste & Regularización
8. Aprendizaje Profundo I : Reconocimiento de imágenes (Carga de imágenes)
9. Aprendizaje profundo II: Reconocimiento de imágenes (Clasificación de imágenes)
10-Aprendizaje profundo III: Aprendizaje profundo III: Theano, TensorFlow y Keras