1. Обучение с учителем характеризуется
Целью обучить агента принимать оптимальные решения в среде
Отсутствием размеченной выборки
Наличием размеченной выборки
2. Случайный лес – это:
Составление композиционного алгоритма при помощи подбора случайных алгоритмов машинного обучения и их последующего голосования
Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки
Метод голосования решающих деревьев, каждое из которых было обучено на собственной подвыборке объектов и подвыборке признаков
3. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Задача обучения сводится к задаче оптимизации на этапе:
Выбора семейства F
Оценки качества выбранной функции f из семейства F
Поиска наилучшей функции из семейства F
4. Решающие деревья обладают следующими свойствами:
Плохо интерпретируются, чувствительны к шуму, иногда отказывают в классификации данных
Строят разделяющую гиперплоскость, не чувствительны к шуму, не переобучаются
Легко обрабатывают пропуски данных, хорошо интерпретируются, исключают отказы классификации, обрабатывают разнотипные и неотмасштабированные данные
Способны решать лишь задачу регрессии
5. Задача автоматической идентификации марки машины по ее изображению – это задача
Регрессии
Бинарной классификации
Многоклассовой классификации
6. Если мы предсказываем среднюю стоимость машины в зависимости от ее класса, то класс представляет собой
Бинарный признак
Непрерывный признак
Категориальный признак
7. Задача автоматического выделения похожих новостных статей без размеченной выборки – это задача
Регрессии
Бинарной классификации
Кластеризации
8. Задачу машинного обучения можно представить в виде последовательности выполнения действий по выбору оптимальной решающей функции f из многопараметрического семейства F. Выбор модели машинного обучения происходит на этапе:
Выбора семейства F
Оценки качества выбранной функции f из семейства F
Поиска наилучшей функции из семейства F
9. Выберете верное утверждение:
Логистическая регрессия решает задачу регрессии
Логистическая регрессия нужна для поиска оптимальных маршрутов грузоперевозок
Логистическая регрессия решает задачу классификации
10. Задача классификации – это задача
Обучения с учителем
Обучения без учителя
Обучения с подкреплением
11. Эмпирический риск вводится исходя из предположения, что
Оценка качества работы алгоритма на обучающей выборке примерно совпадает с ожидаемым качеством работы алгоритма вне ее
Обучающая выборка выбрана из нормального распределения по всем признакам
Оценка риска только на обучающей выборке – более правильный подход, чем оценка риска на всех возможных данных
12. Недостатки k-means:
Необходимость подбирать k, неустойчивость от выбора начального приближения центров кластеров
Неинтерпретируемость
Плохое качество работы
13. Выберете верное утверждение:
Для линейной регрессии возможно аналитически найти решение задачи минимизации эмпирического риска только в одномерном случае
Линейная регрессия допускает аналитическое решение задачи минимизации суммы квадратов расстояния от предсказанных меток до верных ответов в случае любой размерности
Для линейной регрессии не существует решения задачи минимизации эмпирического риска
14. Процедура LearnID3 состоит в:
Последовательном построении решающего дерева посредством поиска предиката с максимальной информативностью на каждом шаге и разделении обучающей выборки на две части по этому предикату до тех пор, пока не будет достигнуто нужное число вершин в дереве
Последовательном построении решающего дерева посредством разбиения обучающей выборки на случайные подвыборки с сохранением отношения числа элементов одного класса к числу элементов другого класса
В индексации вершин решающего дерева особым способом
В особом способе полива тропических растений в наших широтах
15. Метод K-Means - Это:
Метрический метод классификации, основанный на усреднении расстояний до k ближайших соседей
Метод кластеризации
Метод валидации модели, основанный на усреднении ошибки по к прогонам модели на тестовых данных
16. В каком случае метрика accuracy будет репрезентативной
Когда все виды ошибок имеют для нас одинаковую важность, и может быть дисбаланс классов
Когда все виды ошибок имеют для нас одинаковую важность, но дисбаланса классов быть не должно
Когда дисбаланс классов может быть, и ошибки могут иметь любое соотношение важности
17. Метод опорных векторов (Support Vectors Machine, SVM):
Строит оптимальную разделяющую гиперплоскость, максимизируя ширину полосы между двумя классами
Аппроксимирует искомую функцию, обучаясь при помощи градиентных методов, решает задачу регрессии
Проводит гиперповерхность, минимизируя сумму квадратов расстояний элементов обучающей выборки до этой гиперповерхности
18. Задача понижения размерности признакового пространства – это задача
Обучения с учителем
Обучения без учителя
Обучения с подкреплением
19. Градиентный бустинг - это:
Усиление обобщающей способности модели посредством использования нескольких градиентных методов оптимизации
Композиционный алгоритм (обычно над решающими деревьями), основанный на идее построения нового элемента композиции на каждой итерации таким образом, что следующее приближение вектора ответов алгоритма отличается от текущего на градиент ошибки
Композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору
20. Если мы предсказываем средние затраты на обслуживание машины, то максимальная скорость разгона машины – это
Бинарный признак
Непрерывный признак
Номинальный признак
21. Архитектура полносвязной нейронные сети основана на идее
обобщения низкоуровневых признаков и генерирования на их основе более высокоуровневых
Построения разделяющей гиперплоскости
Минимизации лосс-функции без использования градиентных методов
22. Что такое машинный перевод?
Обучающая выборка выбрана из нормального распределения по всем признакам
композиционный алгоритм над решающими деревьями, основанный на идее голосования классификаторов, проводимого особым способом, с приписыванием константных весов каждому классификатору
процесс перевода текстов с одного естественного языка на другой с помощью специальной компьютерной программы
23. Функции активации в нейронных сетях:
Нелинейны (глобально) и вносят неоднородность в сигнал при прямом проходе
Линейны и нужны для проверки работоспособности модели
Активируют нейросеть в разных режимах работы
24. При прямом проходе через Feed Forward Neural Network:
Происходит обновление весов модели на основе градиентов, посчитанных на предыдущей итерации
Происходит выстраивание архитектуры модели посредством подбора числа слоев и их размеров
Сигнал передается посредством последовательного матричного умножения и применения нелинейных функций активации
25. Отметьте верные высказывания о функциях активации:
Функция активации сигмоида лежит в диапазоне [0,1] и может быть интерпретирована как вероятность, а потому часто используется для решения задач бинарной классификации. Функция ReLU - кусочно-линейная
Функция Leacky ReLU - всюду дифференцируема. Популярная функция активации гиперболический тангенс может быть использована, как решающая функция для задачи регрессии. Производная сигмоидальной функции не выражается аналитически через значение самой функции в данной точке
Все функции активации взаимозаменяемы вследствие того, что имеют одну и ту же область значений и область определения
26. Переобучение – это эффект, возникающий при
Излишней сложности модели по отношению к сложности обучающей выборки, из-за чего происходит заучивание данных
Слишком долгом обучении модели, из-за чего она теряет свою предсказательную способность вследствие увеличения энтропии весов
Усталости специалиста по машинному обучению от того, что его модели слишком долго учатся
27. Лучший способ борьбы с переобучением:
Изменение архитектуры модели
регуляризации
Увеличение количества данных
28. Условия Каруша-Куна-Таккера применимы для решения:
Любой задачи оптимизации
Задачи выпуклой оптимизации
Задачи оптимизации произвольной функции на выпуклом множестве
29. Идея Momentum состоит в:
Вычислении градиента в точке, к которой алгоритм должен сойтись на текущем шаге, согласно посчитанному моментному члену, а не в той точке, откуда алгоритм производит шаг
Использовании идеи физической инерции посредством добавления моментных членов, скоростей
приближенном, а значит - более быстром(моментальном) вычислении градиентов в текущей точке
30. Метод подбора адаптированного learning rate на основе оценки исторических градиентов:
Nesterov Momentum
RMSProp
Adagrad
31. Наиболее популярный на текущий момент метод оптимизации, основанный на идее использования двух моментных членов, предложенный в 2015 году:
ADAM
Adagrad
Adadelta
32. Все описанные в лекции алгоритмы обладают общим свойством. Каким?
Для всех требуется вычисление матрицы Гессе оптимизируемой функции
Для всех требуется вычисление градиентов оптимизированной функции
Для всех требуется подсчет значения оптимизируемой функции в данной точке
33. Алгоритм Backpropagation:
Состоит в случайном подборе весов модели до тех пор, пока не будет достигнут оптимальный набор параметров, минимизирующий ошибку
Используется только для оптимизации полносвязных нейросетей
Последовательном вычислении градиентов по весам модели, начиная с последнего слоя, по предактивациям соответствующего слоя и градиентам по весам следующего