Darmowa dostawa od 150,00 zł
Deep learning z TensorFlow 2 i Keras dla zaawansowanych. Sieci GAN i VAE, deep RL, uczenie nienadzorowane, wykrywanie i segmentacja obiektów i nie tylko. Wydanie II
Promocja Okazja

Deep learning z TensorFlow 2 i Keras dla zaawansowanych. Sieci GAN i VAE, deep RL, uczenie nienadzorowane, wykrywanie i segmentacja obiektów i nie tylko. Wydanie II

  • Rok wydania: 2022 Oprawa: miękka ISBN: 9788328388833 Ilość stron: 432 Format: 17,5 x 23,5 cm
Rozmiar

80,10 zł

brutto / 1szt.
Najniższa cena z 30 dni przed obniżką: 89,00 zł / szt.-10%
Cena regularna: 89,00 zł / szt.-10%
Cena katalogowa:
Możesz kupić za pkt.
z
Produkt dostępny w bardzo dużej ilości
Skontaktuj się z obsługą sklepu, aby oszacować czas przygotowania tego produktu do wysyłki.
Produkt dostępny w bardzo dużej ilości
Wysyłka
14 dni na łatwy zwrot
Sprawdź, w którym sklepie obejrzysz i kupisz od ręki
Deep learning z TensorFlow 2 i Keras dla zaawansowanych. Sieci GAN i VAE, deep RL, uczenie nienadzorowane, wykrywanie i segmentacja obiektów i nie tylko. Wydanie II
Deep learning z TensorFlow 2 i Keras dla zaawansowanych. Sieci GAN i VAE, deep RL, uczenie nienadzorowane, wykrywanie i segmentacja obiektów i nie tylko. Wydanie II
Bezpieczne zakupy
Odroczone płatności. Kup teraz, zapłać później, jeżeli nie zwrócisz
Kup teraz, zapłać później - 4 kroki
Przy wyborze formy płatności, wybierz PayPo.PayPo - kup teraz, zapłać za 30 dni
PayPo opłaci twój rachunek w sklepie.
Na stronie PayPo sprawdź swoje dane i podaj pesel.
Po otrzymaniu zakupów decydujesz co ci pasuje, a co nie. Możesz zwrócić część albo całość zamówienia - wtedy zmniejszy się też kwota do zapłaty PayPo.
W ciągu 30 dni od zakupu płacisz PayPo za swoje zakupy bez żadnych dodatkowych kosztów. Jeśli chcesz, rozkładasz swoją płatność na raty.
Po zakupie otrzymasz pkt.

Oto propozycja dla specjalistów zajmujących się programowaniem sztucznej inteligencji i studentów kształcących się w tej dziedzinie. Autor przybliża tajniki tworzenia sieci neuronowych stosowanych w uczeniu głębokim i pokazuje, w jaki sposób używać w tym celu bibliotek Keras i TensorFlow. Objaśnia zagadnienia dotyczące programowania AI zarówno w teorii, jak i praktyce. Liczne przykłady, czytelna oprawa graficzna i logiczne wywody sprawiają, że to skuteczne narzędzie dla każdego, kto chce się nauczyć budowania sieci neuronowych typu MLP, CNN i RNN.

Książka wprowadza w teoretyczne fundamenty uczenia głębokiego - znalazły się w niej wyjaśnienia podstawowych pojęć związanych z tą dziedziną i różnice pomiędzy poszczególnymi typami sieci neuronowych. Opisano tutaj również metody programowania algorytmów używanych w uczeniu głębokim i sposoby ich wdrażania. Dzięki lekturze lepiej zrozumiesz sieci neuronowe, nauczysz się ich tworzenia i zastosowania w różnych projektach z zakresu AI.

Polecamy tę książkę każdemu, kto:

  • chce zrozumieć, jak działają sieci neuronowe i w jaki sposób się je tworzy
  • specjalizuje się w uczeniu głębokim lub zamierza lepiej poznać tę dziedzinę
  • posługuje się sieciami neuronowymi w programowaniu
  • chce się nauczyć stosować biblioteki Keras i TensorFlow w uczeniu głębokim

O autorze:

Rowel Atienza — profesor w Instytucie Elektrycznym i Inżynierii Elektronicznej Uniwersytetu Filipińskiego w Diliman, kierownik katedry sztucznej inteligencji w Instytucie Dado i Marii Banatao. Ma praktyczne doświadczenie w programowaniu robotów, tworzeniu algorytmów sztucznej inteligencji i widzeniu komputerowym. Autor licznych artykułów i wystąpień na konferencjach dotyczących AI, specjalista w zakresie sieci neuronowych i uczenia głębokiego.

Spis treści:

O autorze

O recenzencie

Przedmowa

Rozdział 1. Wprowadzenie do uczenia głębokiego z Keras

  • 1.1. Dlaczego Keras jest idealną biblioteką do uczenia głębokiego?
    • Instalowanie biblioteki Keras i TensorFlow
  • 1.2. Sieci MLP, CNN i RNN
    • Różnice między MLP, CNN i RNN
  • 1.3. Perceptron wielowarstwowy (MLP)
    • Zbiór danych MNIST
    • Model klasyfikatora cyfr MNIST
    • Budowanie modelu przy użyciu MLP i Keras
    • Regularyzacja
    • Funkcja aktywacji i funkcja straty
    • Optymalizacja
    • Ocena wydajności
    • Podsumowanie modelu MLP
  • 1.4. Splotowa (konwolucyjna) sieć neuronowa
    • Splot
    • Operacje łączenia
    • Ocena wydajności i podsumowanie modelu
  • 1.5. Rekurencyjna sieć neuronowa
  • 1.6. Wnioski
  • 1.7. Odwołania

Rozdział 2. Głębokie sieci neuronowe

  • 2.1. Funkcyjne API Keras
    • Tworzenie modelu o dwóch wejściach i jednym wyjściu
  • 2.2. Głęboka sieć resztkowa (ResNet)
  • 2.3. ResNet v2
  • 2.4. Gęsto połączona sieć splotowa (DenseNet)
    • Budowa stuwarstwowej sieci DenseNet-BC dla CIFAR10
  • 2.5. Podsumowanie
  • 2.6. Bibliografia

Rozdział 3. Sieci autokodujące

  • 3.1. Zasada działania sieci autokodującej
  • 3.2. Budowanie sieci autokodującej za pomocą Keras
  • 3.3. Autokodujące sieci odszumiające (DAE)
  • 3.4. Automatyczne kolorowanie z użyciem autokodera
  • 3.5. Podsumowanie
  • 3.6. Bibliografia

Rozdział 4. Generujące sieci współzawodniczące

  • 4.1. GAN - informacje wprowadzające
    • Podstawy GAN
  • 4.2. Implementacja DCGAN w Keras
  • 4.3. Warunkowe sieci GAN
  • 4.4. Podsumowanie
  • 4.5. Bibliografia

Rozdział 5. Ulepszone sieci GAN

  • 5.1. Sieć GAN Wassersteina
    • Funkcje odległości
    • Funkcja odległości w GAN
    • Wykorzystanie funkcji straty Wassersteina
    • Implementacja WGAN przy użyciu Keras
  • 5.2. GAN z metodą najmniejszych kwadratów (LSGAN)
  • 5.3. Pomocniczy klasyfikator GAN (ACGAN)
  • 5.4. Podsumowanie
  • 5.5. Bibliografia

Rozdział 6. Rozplątane reprezentacje w GAN

  • 6.1. Rozplątane reprezentacje
  • 6.2. Sieć InfoGAN
    • Implementacja InfoGAN w Keras
    • Ocena rezultatów działania generatora sieci InfoGAN
  • 6.3. Sieci StackedGAN
    • Implementacja sieci StackedGAN w Keras
    • Ocena rezultatów działania generatora StackedGAN
  • 6.4. Podsumowanie
  • 6.5. Bibliografia

Rozdział 7. Międzydomenowe GAN

  • 7.1. Podstawy sieci CycleGAN
    • Model sieci CycleGAN
    • Implementacja CycleGAN przy użyciu Keras
    • Wyjścia generatora CycleGAN
    • CycleGAN na zbiorach danych MNIST i SVHN
  • 7.2. Podsumowanie
  • 7.3. Bibliografia

Rozdział 8. Wariacyjne sieci autokodujące (VAE)

  • 8.1. Podstawy sieci VAE
    • Wnioskowanie wariacyjne
    • Podstawowe równanie
    • Optymalizacja
    • Sztuczka z reparametryzacją
    • Testowanie dekodera
    • VAE w Keras
    • Korzystanie z CNN w sieciach autokodujących
  • 8.2. Warunkowe VAE (CVAE)
  • 8.3. B-VAE - VAE z rozplątanymi niejawnymi reprezentacjami
  • 8.4. Podsumowanie
  • 8.5. Bibliografia

Rozdział 9. Uczenie głębokie ze wzmocnieniem

  • 9.1. Podstawy uczenia ze wzmocnieniem (RL)
  • 9.2. Wartość Q
  • 9.3. Przykład Q-uczenia
    • Q-uczenie w języku Python
  • 9.4. Otoczenie niedeterministyczne
  • 9.5. Uczenie z wykorzystaniem różnic czasowych
    • Q-uczenie w Open AI Gym
  • 9.6. Głęboka sieć Q (DQN)
    • Implementacja DQN w Keras
    • Q-uczenie podwójnej sieci DQN (DDQN)
  • 9.7. Podsumowanie
  • 9.8. Bibliografia

Rozdział 10. Strategie w metodach gradientowych

  • 10.1. Twierdzenie o gradiencie strategii
  • 10.2. Metoda strategii gradientowych Monte Carlo (WZMOCNIENIE)
  • 10.3. Metoda WZMOCNIENIE z wartością bazową
  • 10.4. Metoda Aktor-Krytyk
  • 10.5. Metoda Aktor-Krytyk z przewagą (A2C)
  • 10.6. Metody strategii gradientowych przy użyciu Keras
  • 10.7. Ocena wydajności metod strategii gradientowej
  • 10.8. Podsumowanie
  • 10.9. Bibliografia

Rozdział 11. Wykrywanie obiektów

  • 11.1. Wykrywanie obiektów
  • 11.2. Pole zakotwiczenia
  • 11.3. Referencyjne pola zakotwiczenia
  • 11.4. Funkcje strat
  • 11.5. Architektura modelu SSD
  • 11.6. Architektura modelu SSD w Keras
  • 11.7. Obiekty SSD w Keras
  • 11.8. Model SSD w Keras
  • 11.9. Model generatora danych w Keras
  • 11.10. Przykładowy zbiór danych
  • 11.11. Szkolenie modelu SSD
  • 11.12. Algorytm niemaksymalnego tłumienia (NMS)
  • 11.13. Walidacja modelu SSD
  • 11.14. Podsumowanie
  • 11.15. Bibliografia

Rozdział 12. Segmentacja semantyczna

  • 12.1. Segmentacja
  • 12.2. Sieć do segmentacji semantycznej
  • 12.3. Sieć do segmentacji semantycznej w Keras
  • 12.4. Przykładowy zbiór danych
  • 12.5. Walidacja segmentacji semantycznej
  • 12.6. Podsumowanie
  • 12.7. Bibliografia

Rozdział 13. Uczenie nienadzorowane z wykorzystaniem informacji wzajemnej

  • 13.1. Informacja wzajemna
  • 13.2. Informacja wzajemna i entropia
  • 13.3. Uczenie nienadzorowane przez maksymalizację informacji wzajemnej o dyskretnych zmiennych losowych
  • 13.4. Sieć koderów do grupowania nienadzorowanego
  • 13.5. Implementacja nienadzorowanego grupowania w Keras
  • 13.6. Walidacja na zbiorze cyfr MNIST
  • 13.7. Uczenie nienadzorowane poprzez maksymalizację informacji wzajemnej ciągłych zmiennych losowych
  • 13.8. Szacowanie informacji wzajemnej dwuwymiarowego rozkładu Gaussa
  • 13.9. Grupowanie nienadzorowane z wykorzystaniem ciągłych zmiennych losowych w Keras
  • 13.10. Podsumowanie
  • 13.11. Bibliografia
 
Marka
Autor
Rowel Atienza
ISBN
9788328388833
Potrzebujesz pomocy? Masz pytania?Zadaj pytanie a my odpowiemy niezwłocznie, najciekawsze pytania i odpowiedzi publikując dla innych.
Zapytaj o produkt
Jeżeli powyższy opis jest dla Ciebie niewystarczający, prześlij nam swoje pytanie odnośnie tego produktu. Postaramy się odpowiedzieć tak szybko jak tylko będzie to możliwe. Dane są przetwarzane zgodnie z polityką prywatności. Przesyłając je, akceptujesz jej postanowienia.
Napisz swoją opinię
Twoja ocena:
5/5
Dodaj własne zdjęcie produktu:
pixel