Przejdź do treści

Divide et impera

  • Kontakt
  • O nas
  • O nas
  • Kontakt

Algorytmy

Algorytmy

Gradient Boost część 1 – regresja

Dokładnie omówienie działania algorytmu Gradient Boost w zadaniach regresji, wraz z implementacją w Python.

11 listopada 2020
Algorytmy | Modelowanie

Feature selection – kompletny poradnik doboru zmiennych do modelu

Jeżeli szukasz odpowiedzi na pytanie: jakie zmienne wybrać do modelu? To jest to artykuł dla Ciebie.

3 listopada 2020
Algorytmy

Bagging i Boosting – czyli uczenie zespołowe

Jaka jest różnica pomiędzy Baggingiem a Boostingiem, co wybrać? Wszystkiego dowiesz się w tym artykule.

13 października 2020 1
Algorytmy

Obciążenie a wariancja – złoty środek w uczeniu modelu (bias-variance tradeoff)

W tym artykule opowiemy sobie o jednym z głównych problemów nadzorowanego uczenia maszynowego, którym jest znalezienie kompromisu pomiędzy redukcją obciążenia a redukcją wariancji w modelowaniu (ang. bias-variance tradeoff).

9 września 2020
Algorytmy

K-means – pełne wyjaśnienie + implementacja [Python]

W artykule omówiłem podstawowy algorytm uczenia nienadzorowanego, który wykorzystuje się do grupowania danych, a mianowicie K-means.

20 sierpnia 2020
Algorytmy

Regresja logistyczna cz. 3

Ostatnia część serii artykułów poświęcona algorytmowi regresji logistycznej, w której estymujemy ten model w python oraz R

29 lipca 2020
Algorytmy

Uczenie maszynowe – o co tutaj chodzi? cz. 2

W jaki sposób maszyny uczą się? W tym artykule dowiecie się o trzech głównych technikach uczenia maszynowego: uczeniu nadzorowanym, uczeniu nienadzorowanym oraz uczeniu przez wzmacnianie.

22 lipca 2020 1
Algorytmy

Regresja logistyczna cz.2

Druga część artykułu o regresji logistycznej, w której dokładnie opisuje estymację MNW oraz miary oceny jakości dopasowania modelu

15 lipca 2020 1
Algorytmy

Regresja logistyczna cz.1

Pierwsza część artykułu w którym przedstawiam teoretyczne podstawy algorytmu regresji logistycznej

15 lipca 2020 2
Algorytmy

Uczenie maszynowe – o co tutaj chodzi? cz. 1

Czym jest uczenie maszynowe? Czy inteligentne maszyny już prześcignęły człowieka?

15 lipca 2020 1
Divide et impera
  • Algorytmy
  • Modelowanie
  • Statystyka
  • Off top
  • Kontakt
  • O nas
  • Kontakt
  • O nas

Wyszukiwanie

Archiwa

  • listopad 2020
  • październik 2020
  • wrzesień 2020
  • sierpień 2020
  • lipiec 2020
  • czerwiec 2020

Tagi

AI algorytmy AR ARMA Autoregressive bagging boosting ciekawostki data science ekonometria ensemble learning ilorazy szans implementacja k-means klasyfikacja krzywa ROC lasso metoda największej wiarygodności min max model logistyczny model logitowy modelowanie szeregów czasowych normalizacja odds ratio Prawo Benforda python r random forest regresja regresja logistyczna ridge Rozkład Benforda scikit standaryzacja statmodels statystyka szeregi czasowe sztuczna inteligencja uczenie maszynowe uczenie nadzorowane uczenie nienadzorowane uczenie przez wzmacnianie uczenie zespołowe unitaryzacja xgboost

© 2023 Divide et impera

© 2023 Divide et impera

Dumnie wspierany przez WordPress | Motyw: Blogito by BlogOnYourOwn.com.