Oto lista 6 bezpłatnych i płatnych alternatyw dla R mlr. Główni konkurenci obejmują H2O.ai, ML.NET. Oprócz tego, użytkownicy porównują także R mlr z R Caret, python auto-sklearn, R MLstudio. Ponadto można spojrzeć na inne podobne opcje tutaj: About.
Oto lista 6 bezpłatnych i płatnych alternatyw dla R mlr. Główni konkurenci obejmują H2O.ai, ML.NET. Oprócz tego, użytkownicy porównują także R mlr z R Caret, python auto-sklearn, R MLstudio. Ponadto można spojrzeć na inne podobne opcje tutaj: About.
Uczenie maszynowe w języku R: mlr, struktura eksperymentów uczenia maszynowego w języku R.
Uczenie maszynowe w języku R: mlr, struktura eksperymentów uczenia maszynowego w języku R.
R mlr Platformy
Windows
Linux
Mac
R mlr Przegląd
MLR zapewnia to, abyś mógł skoncentrować się na swoich eksperymentach! Ramy zapewniają nadzorowane metody, takie jak klasyfikacja, regresja i analiza przeżycia, wraz z odpowiadającymi im metodami oceny i optymalizacji, a także metody nienadzorowane, takie jak grupowanie. Jest napisany w taki sposób, że możesz go rozszerzyć samodzielnie lub odejść od zaimplementowanych metod wygody i własnych złożonych eksperymentów. Pakiet jest ładnie połączony z pakietem OpenML R, który ma na celu wspieranie współpracy uczenia maszynowego online i pozwala na łatwe udostępnianie zestawów danych, a także zadań uczenia maszynowego, algorytmów i eksperymentów. Przejrzysty interfejs S3 do metod klasyfikacji R, regresji, grupowania i analizy przeżycia Możliwość dopasowania, przewidywania, oceny i ponownego próbkowania modeli Łatwy mechanizm przedłużania dzięki dziedziczeniu S3 Streszczenie opisu uczniów i zadań według właściwości System parametrów dla uczących się do kodowania typów danych i ograniczeń Wiele metod wygody i ogólnych bloków konstrukcyjnych dla eksperymentów uczenia maszynowego Metody ponownego próbkowania, takie jak ładowanie, walidacja krzyżowa i podpróbkowanie Rozbudowane wizualizacje np. Krzywych ROC, prognoz i prognoz częściowych Benchmarking uczniów dla wielu zestawów danych Łatwe dostrajanie hiperparametrów przy użyciu różnych strategii optymalizacji, w tym potężnych konfiguratorów, takich jak iterowane wyścigi F (irace) lub sekwencyjna optymalizacja oparta na modelu Zmienny wybór z filtrami i opakowaniami Zagnieżdżone ponowne próbkowanie modeli z tuningiem i wyborem funkcji Uczenie wrażliwe na koszty, dostrajanie progów i korekta nierównowagi Mechanizm owijania w celu rozszerzenia funkcjonalności ucznia w złożony i niestandardowy sposób Łącz różne etapy przetwarzania w złożony łańcuch eksploracji danych, który można wspólnie zoptymalizować Łącznik OpenML dla serwera Open Machine Learning Punkty rozszerzenia do zintegrowania własnych rzeczy Równoległość jest wbudowana Testów jednostkowych