w3c
Zaawansowana analiza danych w PySpark. Metody przetwarzania informacji na szeroką skalę z wykorzystaniem Pythona i systemu Spark
Autor: Opracowanie Zbiorowe
30784235
Sugerowana cena detaliczna w zł: 69
54,28 zł
Czas wysyłki zamówienia 2-4 dni roboczych
Chcesz przekazać prezent dla dzieci z domów dziecka? Nie płacisz za wysyłkę!
Wybierz tę opcję na etapie wyboru sposobu dostawy.
Koszt wysyłki od 9,90 zł (Orlen Paczka)
Darmowa wysyłka przy zamówieniach o wartości min. 199 zł brutto
Wysyłka od 2 do 4 dni roboczych
Bezpieczne przelewy | BLIK | Karta
Potrzeby w zakresie analizy dużych zbiorów danych i wyciągania z nich użytecznych informacji stale rosną. Spośród dostępnych narzędzi przeznaczonych do tych zastosowań szczególnie przydatny jest PySpark - interfejs API systemu Spark dla języka Python. Apache Spark świetnie się nadaje do analizy dużych zbiorów danych, a PySpark skutecznie ułatwia integrację Sparka ze specjalistycznymi narzędziami PyData. By jednak można było w pełni skorzystać z tych możliwości, konieczne jest zrozumienie interakcji między algorytmami, zbiorami danych i wzorcami używanymi w analizie danych.
Oto praktyczny przewodnik po wersji 3.0 systemu Spark, metodach statystycznych i rzeczywistych zbiorach danych. Omówiono w nim zasady rozwiązywania problemów analitycznych za pomocą interfejsu PySpark, z wykorzystaniem dobrych praktyk programowania w systemie Spark. Po lekturze można bezproblemowo zagłębić się we wzorce analityczne oparte na popularnych technikach przetwarzania danych, takich jak klasyfikacja, grupowanie, filtrowanie i wykrywanie anomalii, stosowane w genomice, bezpieczeństwie systemów IT i finansach. Dodatkowym plusem są opisy wykorzystania przetwarzania obrazów i języka naturalnego. Zaletą jest też szereg rzeczywistych przykładów dużych zbiorów danych i ich zaawansowanej analizy.
Oto praktyczny przewodnik po wersji 3.0 systemu Spark, metodach statystycznych i rzeczywistych zbiorach danych. Omówiono w nim zasady rozwiązywania problemów analitycznych za pomocą interfejsu PySpark, z wykorzystaniem dobrych praktyk programowania w systemie Spark. Po lekturze można bezproblemowo zagłębić się we wzorce analityczne oparte na popularnych technikach przetwarzania danych, takich jak klasyfikacja, grupowanie, filtrowanie i wykrywanie anomalii, stosowane w genomice, bezpieczeństwie systemów IT i finansach. Dodatkowym plusem są opisy wykorzystania przetwarzania obrazów i języka naturalnego. Zaletą jest też szereg rzeczywistych przykładów dużych zbiorów danych i ich zaawansowanej analizy.
30784235
Opis
- Autor
- Opracowanie Zbiorowe
- Sugerowana cena detaliczna w zł
- 69
- ISBN
- 978-83-832-2069-7
- Wydawnictwo
- Helion
- Data wydania
- 2023-03-07
- Rok wydania
- 2023
- Wysokość
- 235
- Szerokość
- 165
- Wydanie
- 1
- Waga
- 326
- Grubość
- 10.000000
- Wiek
- +
- Rodzaj oprawy
- Miękka
- Liczba stron
- 192
- Cena regularna
- 69
Specyficzne kody
- EAN13
- 9788383220697
Komentarze (0)