Difference between revisions of "Week 7"

From Research management course
Jump to: navigation, search
Line 22: Line 22:
 
# Получен набор значений внешних критериев на обучении и контроле.
 
# Получен набор значений внешних критериев на обучении и контроле.
  
=== Базовые [http://www.machinelearning.ru/wiki/index.php?title=%D0%9F%D1%80%D0%BE%D0%B2%D0%B5%D1%80%D0%BA%D0%B0_%D1%81%D1%82%D0%B0%D1%82%D0%B8%D1%81%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D1%85_%D0%B3%D0%B8%D0%BF%D0%BE%D1%82%D0%B5%D0%B7 статистические тесты]===
+
===Анализ состава выборки===
# Анализ состава выборки:
+
Базовые [http://www.machinelearning.ru/wiki/index.php?title=%D0%9F%D1%80%D0%BE%D0%B2%D0%B5%D1%80%D0%BA%D0%B0_%D1%81%D1%82%D0%B0%D1%82%D0%B8%D1%81%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D1%85_%D0%B3%D0%B8%D0%BF%D0%BE%D1%82%D0%B5%D0%B7 статистические тесты].
## анализ [[Простая выборка|простоты выборки]] по отдельным признакам (гистограммы признаков),
+
#Анализ [[Простая выборка|простоты выборки]] по отдельным признакам (гистограммы признаков),
## анализ [http://www.machinelearning.ru/wiki/index.php?title=%D0%90%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%BC%D1%83%D0%BB%D1%8C%D1%82%D0%B8%D0%BA%D0%BE%D0%BB%D0%BB%D0%B8%D0%BD%D0%B5%D0%B0%D1%80%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%28%D0%BF%D1%80%D0%B8%D0%BC%D0%B5%D1%80%29 мультикоррелированности] признаков, в частности анализ [http://www.machinelearning.ru/wiki/index.php?title=%D0%9A%D0%BE%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D0%BC%D0%B0%D1%82%D1%80%D0%B8%D1%86%D0%B0 ковариационных матриц] (вычисление [http://www.machinelearning.ru/wiki/index.php?title=%D0%9A%D0%BE%D1%8D%D1%84%D1%84%D0%B8%D1%86%D0%B8%D0%B5%D0%BD%D1%82_%D0%B4%D0%B5%D1%82%D0%B5%D1%80%D0%BC%D0%B8%D0%BD%D0%B0%D1%86%D0%B8%D0%B8 коэффициента детерминации <tex>R^2</tex>], [http://www.machinelearning.ru/wiki/index.php?title=VIF фактора инфляции дисперсии VIF], визуализация результатов [http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%91%D0%B5%D0%BB%D1%81%D0%BB%D0%B8 метода Белсли], в частности, при [http://www.machinelearning.ru/wiki/index.php?title=%D0%98%D1%81%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4%D0%B0_%D0%91%D0%B5%D0%BB%D1%81%D0%BB%D0%B8_%D0%B4%D0%BB%D1%8F_%D0%BF%D1%80%D0%BE%D1%80%D0%B5%D0%B6%D0%B8%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F_%D0%BF%D1%80%D0%B8%D0%B7%D0%BD%D0%B0%D0%BA%D0%BE%D0%B2 изменении состава признаков], [https://ru.wikipedia.org/wiki/%D0%A4%D0%B0%D0%BA%D1%82%D0%BE%D1%80%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7 факторного анализа]),
+
#Анализ [http://www.machinelearning.ru/wiki/index.php?title=%D0%90%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%BC%D1%83%D0%BB%D1%8C%D1%82%D0%B8%D0%BA%D0%BE%D0%BB%D0%BB%D0%B8%D0%BD%D0%B5%D0%B0%D1%80%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%28%D0%BF%D1%80%D0%B8%D0%BC%D0%B5%D1%80%29 мультикоррелированности] признаков, в частности анализ [http://www.machinelearning.ru/wiki/index.php?title=%D0%9A%D0%BE%D0%B2%D0%B0%D1%80%D0%B8%D0%B0%D1%86%D0%B8%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D0%BC%D0%B0%D1%82%D1%80%D0%B8%D1%86%D0%B0 ковариационных матриц] (вычисление [http://www.machinelearning.ru/wiki/index.php?title=%D0%9A%D0%BE%D1%8D%D1%84%D1%84%D0%B8%D1%86%D0%B8%D0%B5%D0%BD%D1%82_%D0%B4%D0%B5%D1%82%D0%B5%D1%80%D0%BC%D0%B8%D0%BD%D0%B0%D1%86%D0%B8%D0%B8 коэффициента детерминации <tex>R^2</tex>], [http://www.machinelearning.ru/wiki/index.php?title=VIF фактора инфляции дисперсии VIF], визуализация результатов [http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%91%D0%B5%D0%BB%D1%81%D0%BB%D0%B8 метода Белсли], в частности, при [http://www.machinelearning.ru/wiki/index.php?title=%D0%98%D1%81%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4%D0%B0_%D0%91%D0%B5%D0%BB%D1%81%D0%BB%D0%B8_%D0%B4%D0%BB%D1%8F_%D0%BF%D1%80%D0%BE%D1%80%D0%B5%D0%B6%D0%B8%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F_%D0%BF%D1%80%D0%B8%D0%B7%D0%BD%D0%B0%D0%BA%D0%BE%D0%B2 изменении состава признаков], [https://ru.wikipedia.org/wiki/%D0%A4%D0%B0%D0%BA%D1%82%D0%BE%D1%80%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7 факторного анализа]),
## тест [http://strijov.com/papers/AduenkoObjectSelection_RV.pdf наличия выбросов] в выборке (визуализация изменения функции ошибки при исключении выбросов),
+
#Тест [http://strijov.com/papers/AduenkoObjectSelection_RV.pdf наличия выбросов] в выборке (визуализация изменения функции ошибки при исключении выбросов),
## тест [http://www.machinelearning.ru/wiki/images/0/03/Neychev2016BSThesis.pdf наличия мультимоделей] (снижение ошибки при, например, использовании стратегии бустинга)
+
#Тест [http://www.machinelearning.ru/wiki/images/0/03/Neychev2016BSThesis.pdf наличия мультимоделей] (снижение ошибки при, например, использовании стратегии бустинга)
 
# Оценка [http://strijov.com/papers/MotrenkoStrijovWeber2012SampleSize_ICACM.pdf необходимой мощности выборки] (по оси абсцисс&nbsp;— число объектов, по оси ординат&nbsp;— ошибка на обучении и ее стандартное отклонение),
 
# Оценка [http://strijov.com/papers/MotrenkoStrijovWeber2012SampleSize_ICACM.pdf необходимой мощности выборки] (по оси абсцисс&nbsp;— число объектов, по оси ординат&nbsp;— ошибка на обучении и ее стандартное отклонение),
# Оценка необходимого числа признаков (по оси абсцисс&nbsp;— последовательно добавляемые признаки; признаки добавляются, например, по убыванию скорости изменения ошибки&nbsp;— т.&nbsp;н. ускорение и торможение ошибки)).
+
# Оценка необходимого числа признаков (по оси абсцисс&nbsp;— последовательно добавляемые признаки; признаки добавляются, например, по убыванию скорости изменения ошибки&nbsp;— т.&nbsp;н. ускорение и торможение ошибки).
  
 
=== Анализ дисперсии параметров и функции ошибки ===
 
=== Анализ дисперсии параметров и функции ошибки ===

Revision as of 01:26, 25 March 2021

Make the error and quality analysis. Finalise the computational experiment.

Формальный результат:

  1. график с анализом ошибки (например, кривая обучения или зависимость точности от сложности и дисперсия функции ошибки)
  2. таблица сравнения моделей (пусть даже не до конц заполненная)

E: Error analysis

Запустить базовый эксперимент, проанализировать его результаты.

Цель анализа

Анализ ошибки в вычислительных экспериментах — это анализ изменения значений функции ошибки при изменении состава выборки или при других изменениях условий обучения или эксплуатации модели.

Требуется нарисовать зависимость функции потерь или критерия качества от влияющих на эту функцию факторов. Например, от сложности модели, от шага итерации оптимизации, от дисперсии параметров. Построить таблицу сравнения различных моделей на нескольких выборках согласно набору критериев качества — таблицу модели-выборки-критерии.

Начальные требования для анализа

  1. Поставлена задача оптимизации параметров.
  2. Задана стратегия разбиения скользящего контроля.
  3. Задан набор внешних (эксплуатационных) критериев качества модели.
  4. Для набора разбиений получен
    • набор значений векторов оптимальных параметров,
    • набор значений функции ошибки на обучении и на контроле.
  5. Получен набор значений внешних критериев на обучении и контроле.

Анализ состава выборки

Базовые статистические тесты.

  1. Анализ простоты выборки по отдельным признакам (гистограммы признаков),
  2. Анализ мультикоррелированности признаков, в частности анализ ковариационных матриц (вычисление коэффициента детерминации <tex>R^2</tex>, фактора инфляции дисперсии VIF, визуализация результатов метода Белсли, в частности, при изменении состава признаков, факторного анализа),
  3. Тест наличия выбросов в выборке (визуализация изменения функции ошибки при исключении выбросов),
  4. Тест наличия мультимоделей (снижение ошибки при, например, использовании стратегии бустинга)
  5. Оценка необходимой мощности выборки (по оси абсцисс — число объектов, по оси ординат — ошибка на обучении и ее стандартное отклонение),
  6. Оценка необходимого числа признаков (по оси абсцисс — последовательно добавляемые признаки; признаки добавляются, например, по убыванию скорости изменения ошибки — т. н. ускорение и торможение ошибки).

Анализ дисперсии параметров и функции ошибки

  1. Анализ стандартного отклонения функции ошибки (внутреннего критерия) и внешних критериев (в частности, визуализация ROC — обучение и контроль на каждом из разбиений).
  2. Анализ изменения функции ошибки на итерациях оптимизации (ось абсцисс — итерации, ось ординат функция ошибки на обучении, контроле и ее стандартное отклонение).
  3. Анализ изменения параметров и гиперпараметров модели (по оси абсцисс — итерации, по оси ординат — набор параметров, лапша и их стандартные отклонения или гипер-параметры).
  4. Анализ изменения параметров и функций ошибки при изменении структурных параметров или регуляризаторов (они по оси абсцисс, по оси ординат — не забываем о стандартном отклонении, получаемом скользящим контролем).

Базовый вариант анализа

Обоснование модели, анализ ошибки. Отвечаем на вопрос почему мы используем именно такую прогностическую модель.

  1. Для задачи из Домашнего задания 2 (или для любой новой задачи, или вот этой задачи) сделать анализ ошибки и нарисовать один график на выбор.
    • Зависимость значения ошибки и его стандартного отклонения от сложности (числа признаков) на обучении и контроле.
    • Зависимость значения ошибки и его стандартного отклонения от объема выборки на обучении и контроле.
    • Комбинация первых двух вариантов.
    • Зависимость значения ошибки и его стандартного отклонения от номера шага в итерационной процедуре.

Кривая обучения

Исследуем график зависимости ошибки и ее дисперсии от номера итерации или эпохи алгоритма оптимизации параметров и гипер-параметров модели.

  1. На ваш выбор взять выборку и тип нейронной сети. Согласовать объем выборки и сложность нейронной сети.
  2. В процедуру оптимизации нейронной сети вставить код, получающий ошибку на тестовой и контрольной выборках или воспользоваться встроенными процедурами.
  3. Для разных объемов выборки построить графики кривой обучения, показывающие различные скорости обучения.
  4. Наложить на выборку шум. Например, перемешать независимые переменные или добавить случайный шум в зависимые, на ваш выбор. Построить несколько графиков кривой обучения в условиях наложенного шума с разной дисперсией.

Анализ структуры модели

Анализ пространства параметров, гиперпараметров, структурных параметров, метапараметров

  1. Обсудить, что является структурным параметром, согласно которому модель выбирается из множества моделей, примеры:
    • число признаков обобщенно-линейные модели,
    • число слоев нейросети, число нейронов или параметров каждого слоя,
    • число ближайших соседей,
    • другие параметры.
  2. Обсудить способ выбора модели:
    • с помощью алгоритмического задания структуры,
    • посредством включения структурных параметров в модель,
    • посредством включения структурных параметров в функцию ошибки,
    • наложением ограничений на функцию ошибки,
    • введением механизма релаксации элементов функции ошибки,
  3. Обсудить алгоритм выбора модели, оптимизации структурных параметров, примеры:
    • перебор из списка, заданного вручную,
    • полный перебор,
    • генетические алгоритмы,
    • оптимизация с релаксацией,
    • алгоритмы выбора признаков,
    • алгоритмы прореживания,
    • другие специальные алгоритмы.
  4. Запустить алгоритмы оптимизации
    • параметров,
    • гиперпараметров (если имеются),
    • структурных параметров.
  5. Назначить метапараметры или расписание их изменения.
  6. Построить сравнительную таблицу моделей (на одной выборке или нескольких) согласно критериям качества.

Resources

  • [Video for week 7].
  • [Slides for week 7].
  1. Критерии качества линейных моделей раз, два.
  2. Коллекция графиков, ассорти[1].
  3. 11 Important Model Evaluation Techniques Everyone Should Know (datacentral)[2].
  4. How Bayesian Inference Works (datacentral)[3].