Deep learning

40000,00 

Код курса: DLDATA
Тривалість: 45 годин / 15 занять

Дивіться розклад


Телефонуйте зараз щоб дізнатися більше:

Телефон
+38 098 805 4511

Артикул: DLDATA Категорія: Позначки: , ,

Про курс

Основна ідея цього курсу полягає в тому, аби опанувати глибоке навчання за допомогою сучасних технологій для розв’язання задач обробки природної мови та комп’ютерного зору. Тому цей курс складається з наступних тематичних частин:

  • Обробка природної мови (NLP) (2–7 модулі)
  • Комп’ютерний зір (8–14 модулі)
  • Оптимізація нейронних мереж і використання на виробництві (15–16 модулі)

Основним робочим інструментом є PyTorch.

Курс може бути корисним ML-спеціалістам, які тільки починають і цікавляться комп’ютерним зором та обробкою природної мови. Рекомендовано (але не обов’язково) проходити курси з Data Science/Machine Learning Fundamentals та Python for Data Science або їхні аналоги.

Після курсу Ви зможете:

  • Використовувати нейронні мережі для вирішення реальних задач обробки природної мови та комп’ютерного зору
  • Користуватися фреймворком PyTorch, бібліотеками Hugging Face та OpenCV

Детальніше про Deep Learning


Програма курсу:

1. Вступ до глибокого навчання (DL)

  • DL для задач обробки природної мови (NLP) та комп’ютерного зору (CV). Інші прикладні галузі
  • Що таке нейронна мережа (NN)?
  • Компоненти NN. Перцептрон
  • Як навчається NN? Градієнтний спуск
  • Функція втрат. Пряме і зворотне розповсюдження

2. Основи PyTorch

  • Створення простої нейронної мережі у PyTorch
  • Функції активації. Приховані шари vs вихідні шари
  • Методи регулярізації: рання зупинка, Dropout
  • Залишкові з’єднання

3. Ембединги

  • Представлення тексту у вигляді векторів
  • Класичні алгоритми ембедингів: Word2vec, GloVe, fastText

4. Текст як послідовність

  • Моделі RNN, LSTM, GRU

5. Seq2Seq-моделі

  • Bi-directional LSTM
  • Архітектура encoder-decoder

6. Transformers

  • Attention, self-attention, encoder, decoder
  • BERT vs GPT-2

7. NLP з Transformers

  • Класифікація текстів
  • Відповіді на запитання
  • Семантичний пошук

8. Генеративні моделі

  • Перефразування, сумаризація тексту
  • Великі мовні моделі (LLMs)

9. Згорткові нейронні мережі (CNN)

  • Класифікація зображень
  • Аугментація та попередня обробка зображень

10. Трансферне навчання

  • Огляд моделей: LeNet, AlexNet, VGGNet, Inception, ResNet, EfficientNet

11. Детекція об’єктів

  • Методи: R-CNN, YOLO, SSD

12. Сегментація зображень

  • UNet, Mask R-CNN, YOLACT

13. Генерація зображень

  • Автокодери, GAN
  • Передача нейронного стилю

14. Diffusion-моделі

  • Text-to-image, інверсія, інференс

15. Оптимізація NN

  • Налаштування гіперпараметрів
  • Прискорення тренування: накопичення градієнта, змішана точність
  • Контрольні точки, градієнтний кліпінг

16. Розгортання моделей

  • FastAPI для сервінгу
  • Моніторинг моделей у продакшн-середовищі

Ім’я
Номер, за яким з Вами можна зв'язатись
Ваша адреса електронної пошти

📩  info@sso.net.ua
☎️  38 098 805 45 11

✉️📅☎️🔝