Python Multithread

Sponsoruj działania rozwojowe Open Source i bezpłatne treści dla każdego.

Dziękuję.

– K Hong

OpenCV 3 przetwarzanie obrazu i wideo w Pythonie

OpenCV 3 w Pythonie
Obraz – OpenCV BGR : Matplotlib RGB
podstawowe operacje na obrazie – dostęp do pikseli
iPython – przetwarzanie sygnału z NumPy
przetwarzanie sygnału z NumPy i – FFT i DFT dla sinusoidalnych, kwadratowych fal, impulsów jednostkowych i sygnału losowego
przetwarzanie sygnału z NumPy II-transformata Fouriera obrazu : FFT & DFT
odwrotna transformata Fouriera obrazu z filtrem dolnoprzepustowym: cv2.idft()
Histogram obrazu
Przechwytywanie wideo i przełączanie przestrzeni kolorów – RGB / HSV
Adaptive Thresholding – klastrowanie obrazu oparte na Otsu
wykrywanie krawędzi-Jądra Sobela i Laplaciana
wykrywanie krawędzi Canny
transformacja Hougha – okręgi
algorytm Watershed : segmentacja oparta na znacznikach I
algorytm Watershed : segmentacja oparta na znacznikach II
redukcja szumów obrazu : nielokalny algorytm odszumiania
wykrywanie obiektów obrazu : Wykrywanie twarzy przy użyciu klasyfikatorów kaskadowych Haar
segmentacja obrazu – ekstrakcja pierwszoplanowa algorytm Grabcut oparty na cięciach Wykresów
rekonstrukcja Obrazu – Malowanie (Interpolacja) – metody szybkiego marszu
wideo : śledzenie obiektów z przesunięciem średnim
Uczenie maszynowe : Clustering – K-Means clustering I
Uczenie maszynowe : Clustering – K-Means clustering II
Uczenie maszynowe : classification – K-nearest neighbors (K-NN) algorytm

Uczenie maszynowe za pomocą scikit-learn

scikit-learn instalacja
scikit-learn : Funkcje i wyodrębnianie funkcji – iris dataset
scikit-learn : Machine Learning Szybki podgląd
scikit-learn : wstępne przetwarzanie danych I – brakujące / kategoryczne dane
scikit-learn : wstępne przetwarzanie danych II – partycjonowanie zbioru danych / skalowanie funkcji / Wybór funkcji / Regularyzacja
scikit-learn : wstępne przetwarzanie danych III – redukcja wymiarowości Vis sekwencyjny wybór funkcji / Ocena znaczenia funkcji za pomocą losowych lasów
kompresja danych za pomocą redukcja wymiarowości i – analiza głównych elementów (PCA)
scikit-learn : Kompresja danych poprzez redukcję wymiarowości II – liniowa Analiza dyskryminacyjna (LDA)
scikit-learn : kompresja danych poprzez redukcję wymiarowości III – nieliniowe mapowania poprzez analizę głównego komponentu jądra (KPCA)
scikit-learn : regresja logistyczna, Overfitting & regularyzacja
scikit-learn : uczenie nadzorowane & uczenie bez nadzoru – np. 5718>scikit-learn : Unspervised_learning – kmeans klastrowanie z Iris dataset

scikit-learn : Liniowo Rozdzielalne dane – model liniowy & (Gaussian) jądro funkcji promieniowej podstawy (jądro RBF)
scikit-learn : Nauka drzewa decyzyjnego I – Entropia, Gini i zysk informacji
scikit-learn : Nauka drzewa decyzyjnego II – konstruowanie drzewa decyzyjnego
scikit-learn : Klasyfikacja lasów losowych decyzji
scikit-learn : Maszyny wektorowe pomocnicze (SVM)
scikit-learn : Wektor pomocniczy maszyny (SVM) II
Flask with embedded Machine Learning i : serializing with pickle and DB setup
flask with embedded machine learning II : Basic Flask App
Flask with Embedded Machine Learning III: embedding Classifier
Flask with Embedded Machine Learning IV: Deploy
Flask with Embedded Machine Learning V: aktualizacja klasyfikatora
scikit-learn : Próbka filtra komentarzy spamowych przy użyciu SVM-klasyfikowanie dobrego lub złego algorytmu uczenia maszynowego

algorytm i koncepcje uczenia maszynowego

algorytm opadania gradientu wsadowego
jednowarstwowa sieć neuronowa-Model perceptronu w zbiorze danych Iris z wykorzystaniem funkcji aktywacji Krokowej Heaviside
opadanie gradientu wsadowego kontra opadanie gradientu stochastycznego
jednowarstwowa sieć neuronowa – adaptacyjny Neuron liniowy wykorzystujący funkcję aktywacji liniowej (tożsamościowej) z metodą opadania gradientu wsadowego
jednowarstwowa sieć neuronowa-Adaptive Linear Neuron using linear (identity) activation function with batch gradient descent method
jednowarstwowa sieć neuronowa : Adaptive Linear Neuron using linear (identity) activation function with Stochastic gradient descent (SGD)
regresja logistyczna
VC (Vapnik-Chervonenkis) Dimension and Shatter
bias-variance tradeoff
maximum Likelihood Estimation (MLE)
Sieci neuronowe z backpropagation dla XOR przy użyciu jednej ukrytej warstwy
minHash
TF-idf weight
Natural przetwarzanie języka (NLP): analiza tonacji i (IMDb & worek słów)
przetwarzanie języka naturalnego (NLP): Analiza tonacji II (tokenizacja, stemming i słowa Stop)
przetwarzanie języka naturalnego (NLP): Analiza nastrojów III (szkolenie & weryfikacja krzyżowa)
przetwarzanie języka naturalnego (NLP): Analiza nastrojów IV (out-of-core)
mieszanie wrażliwe na lokalizację (LSH) z wykorzystaniem odległości cosinusów (podobieństwo cosinusów)

Sztuczne sieci neuronowe (ANN)

źródła są dostępne na Github-Jupyter notebook files
1. Wprowadzenie
2. Propagacja Do Przodu
3. Spadek Gradientu
4. Backpropagacja błędów
5. Sprawdzanie gradientu
6. Szkolenie przez BFGS
7. Overfitting & Regularyzacja
8. Deep Learning I : Rozpoznawanie obrazów (przesyłanie obrazów)
9. Deep Learning II: rozpoznawanie obrazów (klasyfikacja obrazów)
10 – Deep Learning III: Deep Learning III: Theano, TensorFlow i Keras



+