Miejska Biblioteka Publiczna

w Józefowie

book
book

Data science i uczenie maszynowe

Autor: Szeliga, Marcin




XXI wiek to czas sztucznej inteligencji. Nie tylko tej specjalistycznej, która kieruje samochodami, tłumaczy języki naturalne czy szuka leku na raka, ale również uniwersalnej, rozwiązującej zadania z różnych dziedzin. Ten przełom zawdzięczamy splotowi trzech zdarzeń: rozwojowi technologii przechowywania i przetwarzania danych, nowej metodzie naukowej (data science), oraz uczeniu maszynowemu, w szczególności znacznemu postępowi w zakresie

głębokiego uczenia maszynowego.Książka przedstawia uczenie maszynowe w ujęciu praktycznym. Przeprowadzając opisane w niej eksperymenty data science poznamy zastosowanie reguł statystycznych i algorytmów uczenia maszynowego do rozwiązywania konkretnych problemów. Takie podejście oznacza, że studenci informatyki oraz specjaliści — analitycy, informatycy i bazodanowcy — zdobędą nie tylko teoretyczną wiedzę, ale również umiejętność jej praktycznego wykorzystania w codziennej pracy.Książka podzielona jest na cztery części:• Pierwszy rozdział wyjaśnia termin Data science i pokazuje zastosowanie tej metody w eksperymentach naukowych.• Rozdziały od drugiego do czwartego poświęcone są danym: technikom oceny ich jakości, wstępnego przygotowania oraz wzbogacenia danych na potrzeby ich dalszej analizy.• Rozdziały od piątego do dziewiątego opisują poszczególne typy modeli predykcyjnych: klasyfikatory, regresory, modele grupujące, rekomendujące i prognozujące.• Ostatnie dwa rozdziały książki przedstawiają metody oceny i poprawy jakości modeli oraz udostępniania ich użytkownikom jako usług WWW.

Zobacz pełny opis
Odpowiedzialność:Marcin Szeliga.
Hasła:Big data
Data mining
R (język programowania)
Statystyka
Uczenie się maszyn
Podręcznik
Adres wydawniczy:Warszawa : Wydawnictwo Naukowe PWN, 2017.
Opis fizyczny:XXVI, [2], 371, [1] strona : ilustracje, wykresy ; 24 cm.
Uwagi:Bibliografia, netografia na stronach 353-359.
Forma gatunek:Książki. Publikacje dydaktyczne. Publikacje fachowe.
Dziedzina:Informatyka i technologie informacyjne
Matematyka
Powstanie dzieła:2017 r.
Odbiorcy:Informatycy.
Skocz do:Dodaj recenzje, komentarz
Spis treści:

  1. Wstęp
  2. O czym jest ta książka?
  3. Data science
  4. Uczenie maszynowe
  5. Dla kogo jest ta książka?
  6. Narzędzia
  7. Usługa Azure ML
  8. Język R
  9. Microsoft R Open
  10. Przykładowe dane
  11. Konwencje i oznaczenia
  12. 1. Uczenie maszynowe jako element eksperymentów data science
  13. 1.1. Eksploracja danych jako technika wspomagania decyzji
  14. 1.2. Modelowanie
  15. 1.3. Wiedza i proces uczenia
  16. 1.4. Hipotezy
  17. 1.5. Założenia eksperymentu data science
  18. 1.6. Dwa typy analiz
  19. 1.7. Data science jako metoda naukowa
  20. 1.8. Przykładowy eksperyment – optymalizacja kampanii marketingowej
  21. 1.8.1. Zrozumienie problemu i określenie celów eksperymentu
  22. 1.8.2. Zrozumienie danych
  23. 1.8.3. Wstępne przetwarzanie danych
  24. 1.8.4. Modelowanie
  25. 1.8.5. Ocena
  26. 1.8.6. Wdrożenie
  27. Podsumowanie
  28. * 2. Ocena przydatności danych
  29. 2.1. Dane źródłowe
  30. 2.2. Zmienne
  31. 2.2.1. Rozkład częstości zmiennych
  32. 2.2.2. Graficzna prezentacja danych
  33. 2.2.3. Korelacje (związki między zmiennymi)
  34. 2.3. Reprezentatywność danych
  35. 2.4. Duplikaty
  36. 2.5. Szeregi czasowe
  37. Podsumowanie
  38. * 3. Wstępne przetwarzanie danych
  39. 3.1. Uzupełnianie brakujących danych
  40. 3.2. Poprawianie błędnych danych
  41. 3.3. Zmienne numeryczne
  42. 3.3.1. Instalowanie dodatkowych bibliotek R w Azure ML
  43. 3.3.2. Wartości nietypowe (odstające)
  44. 3.3.3. Normalizacja
  45. 3.3.4. Dyskretyzacja
  46. 3.4. Zmienne kategoryczne
  47. 3.4.1. Problem jakości danych tekstowych
  48. 3.4.2. Uogólnienie (generalizacja)
  49. 3.4.3. Numerowanie stanów
  50. 3.4.4. Zmienne porządkowe
  51. 3.5. Szeregi czasowe
  52. 3.6. Wyrażenia języka naturalnego
  53. 3.7. Redukcja wymiarów
  54. 3.7.1. Usuwanie zmiennych na podstawie ich zdolności predykcyjnych
  55. 3.7.2. Analiza głównych składowych (PCA)
  56. Podsumowanie
  57. * 4. Wzbogacanie danych
  58. 4.1. Równoważenie danych
  59. 4.1.1. Usunięcie części przykładów większościowych
  60. 4.1.2. Nadpróbkowanie
  61. 4.2. Zmienne wyliczeniowe
  62. 4.3. Zastąpienie zmiennych wspólnym rozkładem prawdopodobieństwa
  63. 4.4. Wydzielenie danych testowych
  64. 4.4.1. Szeregi czasowe
  65. 4.4.2. Modele rekomendujące
  66. 4.4.3. Modele wykrywania oszustw
  67. 4.5. Wzorzec eksperymentu data science
  68. Podsumowanie
  69. * 5. Klasyfikacja
  70. 5.1. Klasyfikacja poprzez indukcję drzew decyzyjnych
  71. 5.1.1. Drzewa decyzyjne – definicja
  72. 5.1.2. Pojedyncze drzewa decyzyjne
  73. 5.1.3. Kombinacje drzew decyzyjnych
  74. XVSPIS TREŚCI5.2. Klasyfikacja z użyciem maszyny wektorów nośnych
  75. 5.2.1. Przetwarzanie języka naturalnego przy użyciu maszyny wektorów nośnych
  76. 5.2.2. Modele maszyny wektorów nośnych i lokalnie głębokiej maszyny wektorów nośnych
  77. 5.3. Klasyfikacja probabilistyczna
  78. 5.3.1. Sieć Bayesa
  79. 5.3.2. Maszyna punktów Bayesa
  80. 5.4. Inne klasyfikatory dostępne w Studiu Azure ML
  81. 5.4.1. Inne klasyfikatory – omówienie
  82. 5.4.2. Modele eksploracji danych w języku R
  83. 5.5. Klasyfikatory binarne a klasyfikacja wieloklasowa
  84. 5.6. Wykrywanie oszustw jako przykład klasyfikacji binarnej
  85. 5.6.1. Oznaczenie obserwacji
  86. 5.6.2. Zrównoważenie danych i wydzielenie danych testowych
  87. 5.6.3. Wzbogacenie danych
  88. Podsumowanie
  89. 6. Regresja
  90. 6.1. Model regresji wielorakiej
  91. 6.1.1 Wieloraka regresja liniowa
  92. 6.1.2. Estymacja bayesowska modelu regresji liniowej
  93. 6.2. Zmienne kategoryczne w modelach regresji
  94. 6.2.1. Regresja Poissona
  95. 6.2.2. Regresja porządkowa
  96. 6.3. Regresja kwantylowa
  97. 6.4. Regresja poprzez indukcję drzew decyzyjnych
  98. 6.5. Sztuczne sieci neuronowe
  99. 6.5.1. Perceptron
  100. 6.5.2. Sieci neuronowe a regresja
  101. 6.5.3. Metody minimalizacji błędu
  102. 6.5.4. Wsteczna propagacja błędów
  103. 6.5.5. Regresja z użyciem sieci neuronowej
  104. 6.5.6. Głębokie sieci neuronowe
  105. Podsumowanie
  106. * 7. Grupowanie (analiza skupień)
  107. 7.1. Na czym polega grupowanie
  108. 7.2. Algorytmy grupowania
  109. 7.2.1. Grupowanie hierarchiczne
  110. 7.2.2. Grupowanie iteracyjno-optymalizacyjne
  111. 7.3. Grupowanie w celu znajdowania podobnych obiektów
  112. 7.4. Grupowanie w celu kompresji
  113. 7.5. Wykrywanie anomalii
  114. Podsumowanie
  115. * 8. Rekomendowanie
  116. 8.1. Systemy rekomendujące
  117. 8.2. Odkrywanie asocjacji
  118. 8.3. Model Matchbox Recommender
  119. 8.3.1. Rekomendowanie przez filtrowanie kolektywne
  120. 8.3.2. Rekomendowanie przez filtrowanie cech przedmiotów i użytkowników (hybrydowe)
  121. Podsumowanie
  122. * 9. Prognozowanie
  123. 9.1. Szeregi czasowe
  124. 9.2. Naiwne metody prognozowania
  125. 9.3. Modele średniej ważonej
  126. 9.4. Modele ARIMA
  127. 9.5. Modele nieliniowe
  128. 9.6. Prognozowanie w Studiu Azure ML
  129. Podsumowanie
  130. * 10. Ocena i poprawa jakości modeli
  131. 10.1. Reguła powrotu do średniej
  132. 10.2. Kryteria oceny modeli eksploracji danych
  133. 10.2.1. Łatwość interpretacji
  134. 10.2.2. Trafność
  135. 10.2.3. Wiarygodność
  136. 10.2.4. Wydajność i skalowalność
  137. 10.2.5. Przydatność
  138. 10.3. Ocena jakości modeli klasyfikacyjnych
  139. 10.3.1. ModułEvaluate Model
  140. 10.3.2. Macierz pomyłek
  141. 10.3.3. Krzywa ROC
  142. 10.3.4. Wykres precyzja w funkcji czułości i wykres zysku
  143. 10.3.5. Trafność klasyfikacji
  144. 10.3.6. Klasyfikatory wieloklasowe
  145. 10.4. Ocena jakości modeli regresyjnych
  146. 10.4.1. Miary oceny modeli
  147. 10.4.2. Walidacja krzyżowa
  148. 10.5. Ocena jakości modeli grupujących
  149. 10.6. Ocena jakości modeli rekomendujących
  150. 10.7. Ocena jakości modeli prognozujących
  151. 10.8. Porównanie jakości modeli
  152. 10.9. Poprawa jakości modeli
  153. 10.9.1. Automatyczna poprawa jakości modeli uczenia nadzorowanego
  154. 10.9.2. Znalezienie optymalnej liczby klastrów
  155. 10.10. Cykl życia eksperymentu data science
  156. Podsumowanie
  157. * 11. Publikacja modeli eksploracji danych jako usług WWW
  158. 11.1. Wzorcowy eksperyment data science
  159. 11.2. Predykcyjne usługi WWW
  160. 11.2.1. Zapytania predykcyjne ad-hoc
  161. 11.2.2. Wsadowe zapytania predykcyjne
  162. Podsumowanie
  163. Bibliografia
  164. Dodatek A
  165. Dodatek B *

Zobacz spis treści



Sprawdź dostępność, zarezerwuj (zamów):

(kliknij w nazwę placówki - więcej informacji)

Biblioteka Gł.
ul. Skłodowskiej - Curie 5/7

Sygnatura: CZYTELNIA: 004
Numer inw.: 65872
Dostępność: można wypożyczyć na 30 dni

schowek

Dodaj komentarz do pozycji:

Swoją opinię można wyrazić po uprzednim zalogowaniu.