Искусственный интеллект (тест с ответами Синергия)

Раздел
Экономические дисциплины
Предмет
Тип
Просмотров
771
Покупок
17
Антиплагиат
Не указан
Размещена
28 Апр 2022 в 16:41
ВУЗ
МФПУ Синергия / Московский открытый институт (МОИ) / Московский технологический институт (МТИ) / МОСАП
Курс
Не указан
Стоимость
200 ₽
Демо-файлы   
1
png
Результат 100 баллов из 100 Результат 100 баллов из 100
34.5 Кбайт 34.5 Кбайт
Файлы работы   
1
Каждая работа проверяется на плагиат, на момент публикации уникальность составляет не менее 40% по системе проверки eTXT.
pdf
Искусственный интеллект (ОТВЕТЫ)
644.5 Кбайт 200 ₽
Описание

33 вопроса с ответами

Последний раз тест был сдан на 100 баллов из 100 "ОТЛИЧНО".

Год сдачи -2020-2024.

***ВАЖНО*** Перед покупкой запустите тест и сверьте подходят ли эти ответы именно Вам***

После покупки Вы получите файл с ответами на вопросы которые указаны ниже:

ПО ВСЕМ ВОПРОСАМ - ПИШИТЕ В ЛИЧНЫЕ СООБЩЕНИЯ✉️

Оглавление

1. Обучение с учителем характеризуется

*Целью обучить агента принимать оптимальные решения в среде

* Отсутствием размеченной выборки

*Наличием размеченной выборки

2. Случайный лес – это:

*Составление композиционного алгоритма при помощи подбора случайных алгоритмов машинного обучения и их последующего голосования

*Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки

*Метод голосования решающих деревьев, каждое из которых было обучено на собственной подвыборке объектов и подвыборке признаков

3. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:

*Выбора семейства F

*Оценки качества выбранной функции f из семейства F

*Поиска наилучшей функции из семейства F

4. Решающие деревья обладают следующими свойствами:

*Плохо интерпретируются, чувствительны к шуму, иногда отказывают в классификации данных *Строят разделяющую гиперплоскость, не чувствительны к шуму, не переобучаются

*Легко обрабатывают пропуски данных, хорошо интерпретируются, исключают отказы классификации, обрабатывают разнотипные и неотмасштабированные данные

*Способны решать лишь задачу регрессии

5. Задача автоматической идентификации марки машины по ее изображению – это задача

*Регрессии

*Бинарной классификации

*Многоклассовой классификации

6. Если мы предсказываем среднюю стоимость машины в зависимости от ее класса, то класс представляет собой

*Бинарный признак

*Непрерывный признак

*Категориальный признак

7. Задача автоматического выделения похожих новостных статей без размеченной выборки – это задача

*Регрессии

*Бинарной классификации

*Кластеризации

8. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Выбор модели машинного обучения происходит на этапе:

*Выбора семейства F

*Оценки качества выбранной функции f из семейства F

*Поиска наилучшей функции из семейства F

9. Выберете верное утверждение:

*Логистическая регрессия решает задачу регрессии

*Логистическая регрессия нужна для поиска оптимальных маршрутов грузоперевозок

*Логистическая регрессия решает задачу классификации

10. Задача классификации – это задача

*Обучения с учителем

*Обучения без учителя

*Обучения с подкреплением

11. Эмпирический риск вводится исходя из предположения, что

*Оценка качества работы алгоритма на обучающей выборке примерно совпадает с ожидаемым качеством работы алгоритма вне ее

*Обучающая выборка выбрана из нормального распределения по всем признакам

*Оценка риска только на обучающей выборке – более правильный подход, чем оценка риска на всех возможных данных

12. Недостатки k-means:

*Необходимость подбирать k, неустойчивость от выбора начального приближения центров кластеров

*Неинтерпретируемость

*Плохое качество работы

13. Выберете верное утверждение:

*Для линейной регрессии возможно аналитически найти решение задачи минимизации эмпирического риска только в одномерном случае

*Линейная регрессия допускает аналитическое решение задачи минимизации суммы квадратов расстояния от предсказанных меток до верных ответов в случае любой размерности

*Для линейной регрессии не существует решения задачи минимизации эмпирического риска

14. Процедура LearnID3 состоит в:

*Последовательном построении решающего дерева посредством поиска предиката с максимальной информативностью на каждом шаге и разделении обучающей выборки на две части по этому предикату до тех пор, пока не будет достигнуто нужное число вершин в дереве

*Последовательном построении решающего дерева посредством разбиения обучающей выборки на случайные подвыборки с сохранением отношения числа элементов одного класса к числу элементов другого класса

*В индексации вершин решающего дерева особым способом

*В особом способе полива тропических растений в наших широтах

15. Метод K-Means - Это:

*Метрический метод классификации, основанный на усреднении расстояний до k ближайших соседей

*Метод кластеризации

*Метод валидации модели, основанный на усреднении ошибки по к прогонам модели на тестовых данных

16. В каком случае метрика accuracy будет репрезентативной

*Когда все виды ошибок имеют для нас одинаковую важность, и может быть дисбаланс классов *Когда все виды ошибок имеют для нас одинаковую важность, но дисбаланса классов быть не должно

* Когда дисбаланс классов может быть, и ошибки могут иметь любое соотношение важности

17. Метод опорных векторов (Support Vectors Machine, SVM):

*Строит оптимальную разделяющую гиперплоскость, максимизируя ширину полосы между двумя классами

*Аппроксимирует искомую функцию, обучаясь при помощи градиентных методов, решает задачу регрессии

*Проводит гиперповерхность, минимизируя сумму квадратов расстояний элементов обучающей выборки до этой гиперповерхности

18. Задача понижения размерности признакового пространства – это задача

*Обучения с учителем

*Обучения без учителя

*Обучения с подкреплением

19. Градиентный бустинг - это:

*Усиление обобщающей способности модели посредством использования нескольких градиентных методов оптимизации

*Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки

*Композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору

20. Если мы предсказываем средние затраты на обслуживание машины, то максимальная скорость разгона машины – это

*Бинарный признак

*Непрерывный признак

*Номинальный признак

21. Архитектура полносвязной нейронные сети основана на идее

*обобщения низкоуровневых признаков и генерирования на их основе более высокоуровневых

*Построения разделяющей гиперплоскости

*Минимизации лосс-функции без использования градиентных методов

22. Что такое машинный перевод?

*Обучающая выборка выбрана из нормального распределения по всем признакам

*композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору

*процесс перевода текстов с одного естественного языка на другой с помощью специальной компьютерной программы

23. Функции активации в нейронных сетях:

*Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе

*Линейны и нужны для проверки работоспособности модели

*Активируют нейросеть в разных режимах работы

24. При прямом проходе через Feed Forward Neural Network:

*Происходит обновление весов модели на основе градиентов, посчитанных на предыдущей итерации

*Происходит выстраивание архитектуры модели посредством подбора числа слоев и их размеров

*Сигнал передается посредством последовательного матричного умножения и применения нелинейных функций активации

25. Отметьте верные высказывания о функциях активации:

*Функция активации сигмоида лежит в диапазоне [0,1] и может быть интерпретирована как вероятность, а потому часто используется для решения задач бинарной классификации. Функция ReLU - кусочно-линейная

*Функция Leacky ReLU - всюду дифференцируема. Популярная функция активации гиперболический тангенс может быть использована, как решающая функция для задачи регрессии. Производная сигмоидальной функции не выражается аналитически через значение самой функции в данной точке

*Все функции активации взаимозаменяемы вследствие того, что имеют одну и ту же область значений и область определения

26. Переобучение – это эффект, возникающий при

*Излишней сложности модели по отношению к сложности обучающей выборки, из-за чего происходит “заучивание” данных

*Слишком долгом обучении модели, из-за чего она теряет свою предсказательную способность вследствие увеличения энтропии весов

*Усталости специалиста по машинному обучению от того, что его модели слишком долго учатся

27. Лучший способ борьбы с переобучением:

*Изменение архитектуры модели

*регуляризации

*Увеличение количества данных

28. Условия Каруша-Куна-Таккера применимы для решения:

*Любой задачи оптимизации

*Задачи выпуклой оптимизации

*Задачи оптимизации произвольной функции на выпуклом множестве Q

29. Идея Momentum состоит в:

*Вычислении градиента в точке, к которой алгоритм должен сойтись на текущем шаге, согласно посчитанному моментному члену, а не в той точке, откуда алгоритм производит шаг

*Использовании идеи физической инерции посредством добавления моментных членов, "скоростей"

*приближенном, а значит - более быстром("моментальном") вычислении градиентов в текущей точке

30. Метод подбора адаптированного learning rate на основе оценки исторических градиентов:

*Nesterov Momentum

*RMSProp

*Adagrad

31. Наиболее популярный на текущий момент метод оптимизации, основанный на идее использования двух моментных членов, предложенный в 2015 году:

*ADAM

*Adagrad

*Adadelta

32. Все описанные в лекции алгоритмы обладают общим свойством. Каким?

*Для всех требуется вычисление матрицы Гессе оптимизируемой функции

*Для всех требуется вычисление градиентов оптимизированной функции

*Для всех требуется подсчет значения оптимизируемой функции в данной точке

33. Алгоритм Backpropagation:

*Состоит в случайном подборе весов модели до тех пор, пока не будет достигнут оптимальный набор параметров, минимизирующий ошибку

*Используется только для оптимизации полносвязных нейросетей

*Последовательном вычислении градиентов по весам модели, начиная с последнего слоя, по предактивациям соответствующего слоя и градиентам по весам следующего

Вам подходит эта работа?
Похожие работы
Реклама и PR
Курсовая работа Курсовая
16 Апр в 08:47
30
0 покупок
Реклама и PR
Курсовая работа Курсовая
15 Апр в 18:01
23 +2
0 покупок
Реклама и PR
Реферат Реферат
14 Апр в 13:18
23 +1
0 покупок
Реклама и PR
Тест Тест
12 Апр в 18:37
23 +1
0 покупок
Реклама и PR
Курсовая работа Курсовая
12 Апр в 15:39
26 +2
0 покупок
Другие работы автора
Премиум
Таможенное право
Тест Тест
14 Апр в 21:38
93 +9
2 покупки
Премиум
Бюджетирование
Тест Тест
4 Апр в 15:24
179 +4
1 покупка
Премиум
Управление проектами
Тест Тест
4 Апр в 14:09
191 +4
5 покупок
Премиум
Бухгалтерский учет, анализ и аудит
Тест Тест
4 Апр в 00:54
126 +3
3 покупки
Премиум
Философия
Тест Тест
2 Апр в 14:28
193 +2
8 покупок
Премиум
Государственное и муниципальное управление
Тест Тест
10 Мар в 18:51
301 +2
5 покупок
Премиум
Интернет-маркетинг
Тест Тест
9 Фев в 13:49
205 +3
8 покупок
Премиум
Государственное и муниципальное управление
Тест Тест
9 Фев в 01:57
155 +1
0 покупок
Премиум
Государственное и муниципальное управление
Тест Тест
9 Фев в 01:35
171 +2
2 покупки
Темы журнала
Показать ещё
Прямой эфир