Основы нейронных сетей / Нейронные сети. Синергия. Ответы на ИТОГОВЫЙ ТЕСТ. На 100 баллов!

Раздел
Программирование
Тип
Просмотров
265
Покупок
5
Антиплагиат
Не указан
Размещена
7 Мар 2023 в 15:41
ВУЗ
Синергия
Курс
Не указан
Стоимость
300 ₽
Файлы работы   
1
Каждая работа проверяется на плагиат, на момент публикации уникальность составляет не менее 40% по системе проверки eTXT.
pdf
Ответы
279.6 Кбайт 300 ₽
Описание

Ответы представлены на ИТОГОВЫЙ ТЕСТ (в тесте 20 вопросов на 20 минут)

Результат - 100 баллов

Перед покупкой сверьте список вопросов и убедитесь, что вам нужны ответы именно на эти вопросы!

С вопросами вы можете ознакомиться ДО покупки.

Для быстрого поиска вопроса используйте Ctrl+F.

При возникновении вопросов или необходимости пройти тест по другому предмету пишите в личные сообщения https://studwork.ru/mail/259571

Другие мои работы можно найти по ссылке https://studwork.ru/shop?user=259571

Ответы вы сможете скачать сразу после покупки.

Нейронные сети.ои(sa)

Темы:

Введение в нейронные сети

Полносвязные нейронные сети

Элементы теории оптимизации

Обучение нейронных сетей

Сверточные нейронные сети

Рекуррентные нейронные сети. 1 Часть

Рекуррентные нейронные сети. 2 Часть

Tips and Tricks

Pwtorch

Векторные представления слов

Нейронные сети-трансформеры

Оглавление

Активационной функцией называется:

· функция, вычисляющая выходной сигнал нейрона

· функция, суммирующая входные сигналы нейрона

· функция, корректирующая весовые значения

· функция, распределяющая входные сигналы по нейронам

Алгоритм Backpropagation:

· Состоит в случайном подборе весов модели до тех пор, пока не будет достигнут оптимальный набор параметров, минимизирующий ошибку

· Используется только для оптимизации полносвязных нейросетей

· Последовательном вычислении градиентов по весам модели, начиная с последнего слоя, по предактивациям соответствующего слоя и градиентам по весам следующего

Архитектура полносвязной нейронные сети основана на идее

· обобщения низкоуровневых признаков и генерирования на их основе более высокоуровневых

· Построения разделяющей гиперплоскости

· Минимизации лосс-функции без использования градиентных методов

Все описанные в лекции алгоритмы обладают общим свойством. Каким?

· Для всех требуется вычисление матрицы Гессе оптимизируемой функции

· Для всех требуется вычисление градиентов оптимизированной функции

· Для всех требуется подсчет значения оптимизируемой функции в данной точке

Градиентные методы оптимизации

· Представляют собой итерационные алгоритмы

· Аналитически ищут решение задачи оптимизации

· Вопреки названию, не используют градиенты

Задача классификации – это задача

· Обучения с учителем

· Обучения без учителя

· Обучения с подкреплением

Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:

· Выбора семейства F

· Оценки качества выбранной функции f из семейства F

· Поиска наилучшей функции из семейства F

Идея Momentum состоит в:

· Вычислении градиента в точке, к которой алгоритм должен сойтись на текущем шаге, согласно посчитанному моментному члену, а не в той точке, откуда алгоритм производит шаг

· Использовании идеи физической инерции посредством добавления моментных членов, "скоростей"

· приближенном, а значит - более быстром("моментальном") вычислении градиентов в текущей точке

Как происходит обучение нейронной сети?

· эксперты настаивают нейронную сеть

· сеть запускается на обучающем множестве, и незадействованные нейроны выкидываются

· сеть запускается на обучающем множестве, и подстраиваются весовые значения

· сеть запускается на обучающем множестве, и добавляются или убираются соединения между нейронами

Лучший способ борьбы с переобучением:

· Изменение архитектуры модели

· Регуляризации

· Увеличение количества данных

Матричное умножение XW вычисляет:

· выходной нейронный сигнал

· выход суммирующего блока

· выходной нейронный сигнал

· вход суммирующего блока

Метод подбора адаптированного learning rate на основе оценки исторических градиентов:

· Nesterov Momentum

· RMSProp

· Adagrad

Наиболее популярный на текущий момент метод оптимизации, основанный на идее использования двух моментных членов, предложенный в 2015 году:

· ADAM

· Adagrad

· Adadelta

Начальная инициализация весов нейросети:

· Должна быть константной для того, чтобы результаты обучения нейросети на одной и той же трейнинговой выборке были воспроизводимыми

· Должна быть случайной для того, чтобы модель могла обучиться, не зануляя градиенты на определенном шаге, причем такой, что дисперсия сигнала не будет изменяться при проходе через слои нейросети.

· Может быть любой

Нейронные сети бывают следующих видов:

· Полносвязные и рекуррентные

· Рекуррентные, сверточные и трансформеры

· Рекуррентные, сверточные, полносвязные и трансформеры

Нейронные сети, наиболее часто применяющиеся в CV – это

· Полносвязные

· Сверточные

· Рекуррентные

"Обучение без учителя" характеризуется отсутствием:

· желаемого выхода сети

· эксперта, корректирующего процесс обучения

· обучающего множества

Обучение нейронной сети – это применение алгоритма оптимизации для решения задачи

· Минимизации средней нормы градиента эмпирического риска по весам модели

· Минимизации эмпирического риска

· Минимизации средней нормы матриц весов модели

Обучение с учителем характеризуется

· Целью обучить агента принимать оптимальные решения в среде

· Отсутствием размеченной выборки

· Наличием размеченной выборки

Отметьте верные высказывания о функциях активации:

· Функция активации сигмоида лежит в диапазоне [0,1] и может быть интерпретирована как вероятность, а потому часто используется для решения задач бинарной классификации. Функция ReLU - кусочно-линейная

· Функция Leacky ReLU - всюду дифференцируема. Популярная функция активации гиперболический тангенс может быть использована, как решающая функция для задачи регрессии. Производная сигмоидальной функции не выражается аналитически через значение самой функции в данной точке

· Все функции активации взаимозаменяемы вследствие того, что имеют одну и ту же область значений и область определения

Переобучение – это эффект, возникающий при

· Излишней сложности модели по отношению к сложности обучающей выборки, из-за чего происходит “заучивание” данных

· Слишком долгом обучении модели, из-за чего она теряет свою предсказательную способность вследствие увеличения энтропии весов

· Усталости специалиста по машинному обучению от того, что его модели слишком долго учатся

При прямом проходе через Feed Forward Neural Network:

· Происходит обновление весов модели на основе градиентов, посчитанных на предыдущей итерации

· Происходит выстраивание архитектуры модели посредством подбора числа слоев и их размеров

· Сигнал передается посредством последовательного матричного умножения и применения нелинейных функций активации

Производная сигмоиды выражается через саму сигмоиду аналитически, как

· sigm’ = sigm(1 - sigm)

· sigm’ = 5sigm^(5)

· sigm’ = 100sigm/sin(sigm)

Условия Каруша-Куна-Таккера применимы для решения:

· Любой задачи оптимизации

· Задачи выпуклой оптимизации

· Задачи оптимизации произвольной функции на выпуклом множестве Q

Функции активации в нейронных сетях:

· Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе

· Линейны и нужны для проверки работоспособности модели

· Активируют нейросеть в разных режимах работы

Вам подходит эта работа?
Похожие работы
Обучение нейронных систем
Тест Тест
4 Мая в 16:19
21 +1
0 покупок
Обучение нейронных систем
Тест Тест
24 Апр в 07:17
33 +1
0 покупок
Обучение нейронных систем
Тест Тест
31 Мар в 10:12
104
0 покупок
Обучение нейронных систем
Тест Тест
27 Мар в 09:35
111
0 покупок
Обучение нейронных систем
Статья Статья
15 Мар в 10:29
81
0 покупок
Другие работы автора
Общая психология
Тест Тест
5 Мая в 15:01
11
0 покупок
Психология труда
Тест Тест
4 Мая в 13:43
25
0 покупок
Интернет-маркетинг
Тест Тест
2 Мая в 18:50
14
0 покупок
Информационные технологии
Тест Тест
2 Мая в 13:28
31
1 покупка
Латинский язык
Тест Тест
28 Апр в 14:18
23
0 покупок
Темы журнала
Показать ещё
Прямой эфир