Основы нейронных сетей тест с ответами Синергия

Раздел
Программирование
Тип
Просмотров
387
Покупок
13
Антиплагиат
Не указан
Размещена
5 Окт 2022 в 12:25
ВУЗ
Синергия
Курс
Не указан
Стоимость
199 ₽
Демо-файлы   
1
docx
osnovy-neyronnyh-setey osnovy-neyronnyh-setey
19.4 Кбайт 19.4 Кбайт
Файлы работы   
1
Каждая работа проверяется на плагиат, на момент публикации уникальность составляет не менее 40% по системе проверки eTXT.
docx
ответы
17.1 Кбайт 199 ₽
Описание

ОТВЕТЫ НА ПРЕДСТАВЛЕННЫЕ ВОПРОСЫ (Основы нейронных сетей СИНЕРГИЯ) выделены значком +

1. Нейронные сети бывают следующих видов:

Полносвязные и рекуррентные

Рекуррентные, сверточные и трансформеры

Рекуррентные, сверточные, полносвязные и трансформеры

2. Задача классификации – это задача

*Обучения с учителем

*Обучения без учителя

*Обучения с подкреплением

3. Обучение нейронной сети – это применение алгоритма оптимизации для решения задачи

Минимизации средней нормы градиента эмпирического риска по весам модели Минимизации эмпирического риска

Минимизации средней нормы матриц весов модели

4. Отметьте верные высказывания о функциях активации:

Тип ответа: Одиночный выбор

*Функция активации сигмоида лежит в диапазоне [0,1] и может быть интерпретирована как вероятность, а потому часто используется для решения задач бинарной классификации. Функция ReLU - кусочно-линейная

*Функция Leacky ReLU - всюду дифференцируема. Популярная функция активации гиперболический тангенс может быть использована, как решающая функция для задачи регрессии. Производная сигмоидальной функции не выражается аналитически через значение самой функции в данной точке

* Все функции активации взаимозаменяемы вследствие того, что имеют одну и ту же область значений и область определения

5. Идея Momentum состоит в:

*Вычислении градиента в точке, к которой алгоритм должен сойтись на текущем шаге, согласно посчитанному моментному члену, а не в той точке, откуда алгоритм производит шаг *Использовании идеи физической инерции посредством добавления моментных членов, "скоростей"

*приближенном, а значит - более быстром("моментальном") вычислении градиентов в текущей

6. Нейронные сети, наиболее часто применяющиеся в CV – это

*Полносвязные

*Сверточные

*Рекуррентные

7. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:

*Выбора семейства F

*Оценки качества выбранной функции f из семейства F

*Поиска наилучшей функции из семейства F

8. Производная сигмоиды выражается через саму сигмоиду аналитически, как

sigm’ = sigm(1 - sigm)

sigm’ = 5sigm^(5)

sigm’ = 100sigm/sin(sigm)

9. Метод подбора адаптированного learning rate на основе оценки исторических градиентов:

Nesterov Momentum

RMSProp

Adagrad

10. При прямом проходе через Feed Forward Neural Network:

Происходит обновление весов модели на основе градиентов, посчитанных на предыдущей итерации

Происходит выстраивание архитектуры модели посредством подбора числа слоев и их размеров

Сигнал передается посредством последовательного матричного умножения и применения нелинейных функций активации

11. Архитектура полносвязной нейронные сети основана на идее

обобщения низкоуровневых признаков и генерирования на их основе более высокоуровневых Построения разделяющей гиперплоскости

Минимизации лосс-функции без использования градиентных методов

12. Начальная инициализация весов нейросети:

*Должна быть константной для того, чтобы результаты обучения нейросети на одной и той же трейнинговой выборке были воспроизводимыми

*Должна быть случайной для того, чтобы модель могла обучиться, не зануляя градиенты на определенном шаге, причем такой, что дисперсия сигнала не будет изменяться при проходе через слои нейросети.

*Может быть любой

13. Лучший способ борьбы с переобучением:

Изменение архитектуры модели

Регуляризации

Увеличение количества данных

14. Наиболее популярный на текущий момент метод оптимизации, основанный на идее использования двух моментных членов, предложенный в 2015 году:

ADAM

Adagrad

Adadelta

15. Обучение с учителем характеризуется

*Целью обучить агента принимать оптимальные решения в среде

* Отсутствием размеченной выборки

*Наличием размеченной выборки

16. Градиентные методы оптимизации

*Представляют собой итерационные алгоритмы

*Аналитически ищут решение задачи оптимизации

*Вопреки названию, не используют градиент

17. Условия Каруша-Куна-Таккера применимы для решения:

*Любой задачи оптимизации

*Задачи выпуклой оптимизации

*Задачи оптимизации произвольной функции на выпуклом множестве Q

Оглавление

18. Все описанные в лекции алгоритмы обладают общим свойством. Каким?

*Для всех требуется вычисление матрицы Гессе оптимизируемой функции

*Для всех требуется вычисление градиентов оптимизированной функции

*Для всех требуется подсчет значения оптимизируемой функции в данной точке

19. Функции активации в нейронных сетях:

*Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе

*Линейны и нужны для проверки работоспособности модели

*Активируют нейросеть в разных режимах работы

20. Переобучение – это эффект, возникающий при

*Излишней сложности модели по отношению к сложности обучающей выборки, из-за чего происходит “заучивание” данных

*Слишком долгом обучении модели, из-за чего она теряет свою предсказательную способность вследствие увеличения энтропии весов

*Усталости специалиста по машинному обучению от того, что его модели слишком долго учатся

21. Алгоритм Backpropagation:

*Состоит в случайном подборе весов модели до тех пор, пока не будет достигнут оптимальный набор параметров, минимизирующий ошибку

*Используется только для оптимизации полносвязных нейросетей

*Последовательном вычислении градиентов по весам модели, начиная с последнего слоя, по предактивациям соответствующего слоя и градиентам по весам следующего

22. Функции активации в нейронных сетях:

*Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе

*Линейны и нужны для проверки работоспособности модели

*Активируют нейросеть в разных режимах работы

Вам подходит эта работа?
Похожие работы
Основы программирования
Тест Тест
18 Мая в 22:51
6 +6
0 покупок
Основы программирования
Контрольная работа Контрольная
18 Мая в 22:39
8 +8
0 покупок
Основы программирования
Тест Тест
18 Мая в 20:59
6 +6
0 покупок
Основы программирования
Тест Тест
18 Мая в 20:50
5 +5
0 покупок
Основы программирования
Тест Тест
18 Мая в 20:49
5 +5
0 покупок
Другие работы автора
Дискретная математика
Контрольная работа Контрольная
8 Мая в 10:52
10 +2
0 покупок
Высшая математика
Контрольная работа Контрольная
8 Мая в 10:47
18
0 покупок
Высшая математика
Контрольная работа Контрольная
13 Апр в 19:49
34
2 покупки
Дискретная математика
Контрольная работа Контрольная
12 Апр в 09:48
37
2 покупки
Высшая математика
Контрольная работа Контрольная
12 Апр в 09:40
63 +1
0 покупок
Дискретная математика
Контрольная работа Контрольная
24 Мар в 21:50
32
1 покупка
Высшая математика
Контрольная работа Контрольная
23 Мар в 09:52
25
1 покупка
Высшая математика
Контрольная работа Контрольная
20 Мар в 13:29
42
0 покупок
Высшая математика
Контрольная работа Контрольная
27 Фев в 13:44
87 +2
4 покупки
Дискретная математика
Контрольная работа Контрольная
26 Фев в 15:11
50 +1
1 покупка
Дискретная математика
Контрольная работа Контрольная
25 Фев в 22:09
85 +1
6 покупок
Инвестиции и проекты
Контрольная работа Контрольная
8 Фев в 17:23
50
1 покупка
Математическая логика
Контрольная работа Контрольная
20 Ноя 2023 в 11:25
131
1 покупка
Основы программирования
Контрольная работа Контрольная
16 Ноя 2023 в 14:26
158
1 покупка
Дискретная математика
Контрольная работа Контрольная
14 Ноя 2023 в 11:21
145
1 покупка
Таможенное дело
Контрольная работа Контрольная
12 Ноя 2023 в 14:42
54
0 покупок
ТВиМС - Теория вероятностей и математическая статистика
Контрольная работа Контрольная
11 Ноя 2023 в 09:08
79
2 покупки
Математическая логика
Контрольная работа Контрольная
8 Ноя 2023 в 16:46
126
3 покупки
Информационные системы
Контрольная работа Контрольная
1 Ноя 2023 в 13:32
66
0 покупок
Темы журнала
Показать ещё
Прямой эфир