Przejdź do treści

Divide et impera

  • Kontakt
  • O nas
  • O nas
  • Kontakt

Divide et impera

Blog utworzony z myślą o dzieleniu się wiedzą, ciekawostkami oraz nowościami ze świata Data Science

Ostatnie wpisy

Algorytmy

Gradient Boost część 1 – regresja

Dokładnie omówienie działania algorytmu Gradient Boost w zadaniach regresji, wraz z implementacją w Python.

11 listopada 2020
Algorytmy | Modelowanie

Feature selection – kompletny poradnik doboru zmiennych do modelu

Jeżeli szukasz odpowiedzi na pytanie: jakie zmienne wybrać do modelu? To jest to artykuł dla Ciebie.

3 listopada 2020
Ciekawostki | Statystyka

Najbardziej tajemniczy rozkład statystyczny – dowód na to, że żyjemy w symulacji?

Co ma wspólnego mają ze sobą liczba lajków pod postami gwiazd Tik-Toka, roczne zarobki Polaków oraz powierzchnia wszystkich państw na świecie? Otóż łączy je pewna zadziwiająca reguła…

14 października 2020
Algorytmy

Bagging i Boosting – czyli uczenie zespołowe

Jaka jest różnica pomiędzy Baggingiem a Boostingiem, co wybrać? Wszystkiego dowiesz się w tym artykule.

13 października 2020 1
Modelowanie

Wprowadzenie do modelowania szeregów czasowych

Najprostsze jednakże niezbędne aspekty modelowania szeregów czasowych

24 września 2020
Algorytmy

Obciążenie a wariancja – złoty środek w uczeniu modelu (bias-variance tradeoff)

W tym artykule opowiemy sobie o jednym z głównych problemów nadzorowanego uczenia maszynowego, którym jest znalezienie kompromisu pomiędzy redukcją obciążenia a redukcją wariancji w modelowaniu (ang. bias-variance tradeoff).

9 września 2020
Algorytmy

K-means – pełne wyjaśnienie + implementacja [Python]

W artykule omówiłem podstawowy algorytm uczenia nienadzorowanego, który wykorzystuje się do grupowania danych, a mianowicie K-means.

20 sierpnia 2020
Statystyka

O standaryzacji słów kilka

Jeżeli szukasz odpowiedzi na pytanie kiedy powinieneś zastosować standaryzację danych to zapraszam do przeczytania tego artykułu

30 lipca 2020 1
Algorytmy

Regresja logistyczna cz. 3

Ostatnia część serii artykułów poświęcona algorytmowi regresji logistycznej, w której estymujemy ten model w python oraz R

29 lipca 2020
Algorytmy

Uczenie maszynowe – o co tutaj chodzi? cz. 2

W jaki sposób maszyny uczą się? W tym artykule dowiecie się o trzech głównych technikach uczenia maszynowego: uczeniu nadzorowanym, uczeniu nienadzorowanym oraz uczeniu przez wzmacnianie.

22 lipca 2020 1

Nawigacja po wpisach

Starsze wpisy
Divide et impera
  • Algorytmy
  • Modelowanie
  • Statystyka
  • Off top
  • Kontakt
  • O nas
  • Kontakt
  • O nas

Wyszukiwanie

Archiwa

  • listopad 2020
  • październik 2020
  • wrzesień 2020
  • sierpień 2020
  • lipiec 2020
  • czerwiec 2020

Tagi

AI algorytmy AR ARMA Autoregressive bagging boosting ciekawostki data science ekonometria ensemble learning ilorazy szans implementacja k-means klasyfikacja krzywa ROC lasso metoda największej wiarygodności min max model logistyczny model logitowy modelowanie szeregów czasowych normalizacja odds ratio Prawo Benforda python r random forest regresja regresja logistyczna ridge Rozkład Benforda scikit standaryzacja statmodels statystyka szeregi czasowe sztuczna inteligencja uczenie maszynowe uczenie nadzorowane uczenie nienadzorowane uczenie przez wzmacnianie uczenie zespołowe unitaryzacja xgboost

© 2023 Divide et impera

© 2023 Divide et impera

Dumnie wspierany przez WordPress | Motyw: Blogito by BlogOnYourOwn.com.