Повышение градиента с нуля сочинение пример

ООО "Сочинения-Про"

Ежедневно 8:00–20:00

Санкт-Петербург

Ленинский проспект, 140Ж

magbo system

Хотя большинство победителей конкурса Kaggle используют стек / ансамбль различных моделей, одна конкретная модель, являющаяся частью большинства ансамблей, представляет собой некоторый вариант алгоритма Gradient Boosting (GBM). Возьмем для примера победителя последнего конкурса Kaggle: решение Михаэля Ярера с обучением представлению в программе Safe Driver Prediction. Его решением было сочетание 6 моделей. 1 LightGBM (вариант GBM) и 5 ​​нейронных сетей. Хотя его успех объясняется новым полууправляемым обучением, которое он изобрел для структурированных данных, но модель повышения градиента также сыграла полезную роль.

Несмотря на то, что GBM широко используется, многие практики все еще рассматривают его как сложный алгоритм «черного ящика» и просто запускают модели, используя предварительно созданные библиотеки. Цель этого поста – упростить предположительно сложный алгоритм и помочь читателю понять алгоритм интуитивно. Я собираюсь объяснить чистую ванильную версию алгоритма повышения градиента и в конце поделюсь ссылками на его различные варианты. Я взял базовый код дерева решений из библиотеки fast.ai (fastai / courses / ml1 / lesson3-rf_foundations.ipynb) и, кроме того, я создал собственную простую версию базовой модели повышения градиента.

Краткое описание для Ensemble, Bagging and Boosting

Когда мы пытаемся предсказать целевую переменную, используя любую технику машинного обучения, основными причинами различий в фактических и прогнозируемых значениях являются шум, дисперсия и смещение. Ансамбль помогает уменьшить эти факторы. Ансамбль – это просто набор предикторов, которые объединяются (например, среднее из всех предсказаний), чтобы дать окончательный прогноз. Причина, по которой мы используем ансамбли, заключается в том, что многие разные предикторы, пытающиеся предсказать одну и ту же целевую переменную, будут выполнять лучшую работу, чем один единственный предиктор. Методы ансамблирования также подразделяются на мешки и бустинг.

Упаковка в мешки – это простая техника ансамбля, в которой мы строим много независимых предикторов / моделей / обучающихся и объединяем их, используя некоторые методы усреднения моделей. (например, взвешенное среднее, большинство голосов или нормальное среднее) Обычно мы выбираем случайные подвыборки / начальные данные для каждой модели, так что все модели мало отличаются друг от друга. Каждое наблюдение имеет одинаковую вероятность появления во всех моделях. Поскольку этот метод требует много некоррелированных учеников, чтобы сделать окончательную модель, он уменьшает ошибку, уменьшая дисперсию. Примером сборного ансамбля являются модели Random Forest. Повышение – это метод ансамбля, в котором предикторы создаются не независимо, а последовательно.

Зарегистрируйся, чтобы продолжить изучение работы

    Поделиться сочинением
    Ещё сочинения
    Нет времени делать работу? Закажите!

    Отправляя форму, вы соглашаетесь с политикой конфиденциальности и обработкой ваших персональных данных.