Python-Multithread

Sponsern Sie Open-Source-Entwicklungsaktivitäten und kostenlose Inhalte für alle.

Danke.

– K Hong

OpenCV 3 Bild- und Videoverarbeitung mit Python

OpenCV 3 mit Python
Image – OpenCV BGR : Matplotlib RGB
Grundlegende Bildoperationen – Pixelzugriff
IPython – Signalverarbeitung mit NumPy
Signalverarbeitung mit NumPy I – FFT und DFT für Sinus-, Rechteck-, Unitpuls- und Zufallssignale
Signalverarbeitung mit NumPy II – Bild-Fourier-Transformation: FFT & DFT
Inverse Fourier-Transformation eines Bildes mit Tiefpassfilter: cv2.idft ()
Bildhistogramm
Videoaufnahme und Umschalten von Farbräumen – RGB / HSV
Adaptive Thresholding – Otsus Clustering-basierte Bildschwelle
Kantenerkennung – Sobel- und Laplace-Kernel
Canny Edge Detection
Hough-Transformation – Kreise
Wasserscheidealgorithmus: Markerbasierte Segmentierung I
Wasserscheidealgorithmus: Markerbasierte Segmentierung II
bildrauschen reduktion: Nicht-lokalen Bedeutet rauschunterdrückung algorithmus
Bild objekt erkennung : Gesichtserkennung mit Haar-Kaskadenklassifikatoren
Bildsegmentierung – Vordergrundextraktion Grabcut-Algorithmus basierend auf Diagrammschnitten
Bildrekonstruktion – Inpainting (Interpolation) – Schnelle Marschmethoden
Video: Mittlere Verschiebung Objektverfolgung
Maschinelles Lernen: Clustering – K-Bedeutet Clustering I
Maschinelles Lernen: Clustering – K-Bedeutet Clustering II
Maschinelles Lernen: Klassifikation – k-Algorithmus der nächsten Nachbarn (k-NN)

Maschinelles Lernen mit scikit-learn

scikit-learn Installation
scikit-learn : Merkmale und Merkmalsextraktion – Iris-Datensatz
scikit-learn: Schnellvorschau für maschinelles Lernen
scikit-learn: Datenvorverarbeitung I – Fehlende / kategoriale Daten
scikit-learn: Datenvorverarbeitung II – Partitionierung eines Datensatzes / Merkmalsskalierung / Merkmalsauswahl / Regularisierung
scikit-learn: Datenvorverarbeitung III – Dimensionsreduktion / Sequentielle Merkmalsauswahl / Bewertung der Bedeutung von Merkmalen über zufällige Wälder
Datenkomprimierung über Dimensionsreduktion I – Hauptkomponente analyse (PCA)
scikit-lernen : Datenkompression mittels Dimensionalitätsreduktion II – Lineare Diskriminanzanalyse (LDA)
scikit-learn : Datenkompression mittels Dimensionalitätsreduktion III – Nichtlineare Mappings mittels Kernel Principal Component (KPCA) Analyse
scikit-learn: Logistische Regression, Overfitting & Regularisierung
scikit-learn : Überwachtes Lernen & Unüberwachtes Lernen – z.B. Unüberwachte PCA-Dimensionalitätsreduktion mit Iris-Datensatz

scikit-learn: Unsupervised_Learning – KMeans Clustering mit Iris-Datensatz
scikit-learn : Linear trennbare Daten – Lineares Modell & (Gaußscher) radialer Basisfunktionskern (RBF-Kernel)
scikit-learn: Entscheidungsbaumlernen I – Entropie, Gini und Informationsgewinn
scikit-learn: Entscheidungsbaumlernen II – Konstruktion des Entscheidungsbaums
scikit-learn: Klassifizierung zufälliger Entscheidungswälder
scikit-learn: Support Vector Machines (SVM)
scikit-learn: Support Vector Machines (SVM) Flask mit Embedded Machine Learning I: Serialisierung mit Pickle und DB setup
Flask mit Embedded Machine Learning II : Basic Flask App
Flask mit eingebettetem maschinellen Lernen III: Einbetten des Klassifikators
Flask mit eingebettetem maschinellen Lernen IV: Bereitstellen
Flask mit eingebettetem maschinellen Lernen V: Aktualisieren des Klassifikators
scikit-learn : Beispiel eines Spam-Kommentarfilters unter Verwendung von SVM – Klassifizierung eines guten oder eines schlechten

Algorithmen und Konzepte für maschinelles Lernen

Batch Gradient descent algorithm
Single Layer Neural Network – Perceptron-Modell auf dem Iris-Datensatz mit Heaviside Step activation function
Batch Gradient descent versus stochastic gradient descent
Single Layer Neural Network – Adaptives lineares Neuron mit linearer (Identitäts-) Aktivierungsfunktion mit Batch Gradient descent method
Single Layer Neural Network : Adaptives lineares Neuron mit linearer (Identitäts-) Aktivierungsfunktion mit stochastischem Gradientenabstieg (SGD)
Logistische Regression
VC (Vapnik-Chervonenkis) Dimension und Shatter
Bias-Varianz-Kompromiss
Maximum-Likelihood-Schätzung (MLE)
Neuronale Netze mit Backpropagation für XOR unter Verwendung einer versteckten Schicht
MinHash
tf-idf-Gewicht
Verarbeitung natürlicher Sprache NLP): Stimmungsanalyse I (IMDb & Wortsack)
Verarbeitung natürlicher Sprache (NLP): Stimmungsanalyse II (Tokenisierung, Stemming und Stoppwörter)
Verarbeitung natürlicher Sprache (NLP): Stimmungsanalyse III (Training & Kreuzvalidierung)
Verarbeitung natürlicher Sprache (NLP): Stimmungsanalyse IV (Out-of-Core)
Lokalitätssensitives Hashing (LSH) unter Verwendung der Cosinusdistanz (Cosinusähnlichkeit)

Künstliche neuronale Netze (ANN)

Quellen sind verfügbar unter Github – Jupyter Notebook files
1. Einleitung
2. Vorwärtsausbreitung
3. Gefälle Abstieg
4. Rückpropagation von Fehlern
5. Überprüfen des Gradienten
6. Ausbildung über BFGS
7. Überanpassung & Regularisierung
8. Tiefes Lernen I : Bilderkennung (Hochladen von Bildern)
9. Deep Learning II : Bilderkennung (Bildklassifizierung)
10 – Deep Learning III : Deep Learning III : Theano, TensorFlow und Keras



+