Репозиторий курса Разработка Нейросетевых Систем
Для допуска к экзамену необходимо подготовить отчет по каждому модулю. Отчеты по разделам содержат ваши результаты лабораторных работ и ДЗ. Фиксируйте этапы вашей работы, ваши вариации гиперпараметров и моделей, выводы к чему это приводит. На защиту приносите сразу текущую версию отчета.
Отчеты отправлять на почту [email protected]
Записи лекций Youtube
- Лекция №1. Введение в DL
- Лекция №2. Сверточная нейросеть
- Лекция №3. Регуляризация и аугментация
- Лекция №4. Перенос обучения
- Лекция №5. Автоэнкодеры
- Лекция №6. Рекуррентные нейросети
- Лекция №7. Сегментация, Object Detection, LiDAR
- Лекция №8. Трансформеры
- Рубежный контроль №1 (первые 3 лекции)
- Рубежный контроль №2 (5-7 лекции)
Выражаем благодарность Ишкову Денису за подготовку лабораторных работ
- Лабораторная работа №1. Введение в DL
- Лабораторная работа №2. Сверточная нейросеть
- Лабораторная работа №3. Регуляризация и аугментация
- Лабораторная работа №4. Перенос обучения
- Лабораторная работа №5. Автоэнкодеры
- Лабораторная работа №6. Рекуррентные нейросети
- Лабораторная работа №7. Спутниковые снимки
- Лабораторная работа №8. Классификация LiDAR
- Домашнее задание №1. Web-приложение
- Домашнее задание №2. Телеграм-бот. Согласовать тему с преподавателем
- Опишите алгоритм обучения с учителем.
- Устройство нейрона, формула вычисления значения. Объясните принцип его работы.
- Многослойный персептрон, архитектура, достоинства и недостатки.
- Виды активационных функций, назначение.
- Количество нейронов, связей, параметров в полносвязной нейронной сети.
- Эпоха, батч, итерация обучения.
- Дайте определение функции потерь.
- Кросс-энтропия, как функция потерь.
- Метод наименьших квадратов, как функция потерь.
- Алгоритм обратного распространения ошибки.
- Алгоритм оптимизации AdaGrad.
- Алгоритм оптимизации RMSProp.
- Алгоритм оптимизации с моментом.
- Алгоритм оптимизации Adam.
- Алгоритм оптимизации стохастического градиентного спуска.
- Преимущества и недостатки стохастического и пакетного градиентного спуска.
- Что такое гиперпараметры? Приведите примеры, оптимальные значения гиперпараметров.
- Оценка точности классификации F1-score, формула расчета и составляющие
- Что такое ONNX, Pytorch?
- Опишите структуру набора данных.
- Что такое свертка, как она применяется в нейронных сетях?
- Свойства свертки.
- Количество нейронов, связей и параметров в сверточном слое.
- Что такое stride, padding? Варианты.
- Дайте определение пулинга. Примеры
- Способы сокращения размерности карты признаков.
- Аугментация данных
- Переобучение и недообучение нейронной сети.
- Дайте определение регуляризации, dropout.
- Штраф за сложность модели
- Сглаживание меток
- Перенос обучения, дообучение. Принцип, преимущества.
- Зачем требуется заморозка весов? Применение
- Шумоподавляющий автоэнкодер.
- В чем заключается векторное представление (embedding)? Примеры применения.
- Сверточный автоэнкодер, применение.
- Коэффициент детерминации и средняя абсолютная ошибка
- Преимущества и недостатки современных генеративных моделей
- Архитектура GAN, обучение.
- Архитектура VAE, преимущества.
- Диффузионные модели: принципы, score-функция
- Архитектура Stable Diffusion
- Понятие временного ряда (ВР). Примеры ВР. Цель анализа ВР.
- Опишите задачи регрессии и классификации.
- Авторегрессионная модель. Преимущества и недостатки.
- Понятие рекуррентных нейронных сетей. Структурная схема RNN.
- Особенности обучения рекуррентных нейросетей. Проблема затухающих и взрывных градиентов.
- LSTM сети. Преимущества LSTM по сравнению с RNN.
- Количество обучаемых параметров ячейки LSTM в PyTorch
- Возможные модификации LSTM. Их преимущества и недостатки.
- GRU (Gated recurrent unit) сети.
- Применение рекуррентных и LSTM сетей для анализа текста
- Архитектура seq2seq.
- Метрики dice и IoU
- Архитектура PointNet
- Что такое плотное облако точек? Форматы и особенности обработки
- Архитектура U-Net
- Отличие задач сегментации, классификации и обнаружения объектов
- Архитектура трансформер
- Механизм внимания. Внутреннее и внешнее внимание
- Архитектуры BERT и GPT