Ограничения классификации ближайших соседей сочинение пример

ООО "Сочинения-Про"

Ежедневно 8:00–20:00

Санкт-Петербург

Ленинский проспект, 140Ж

magbo system

Сочинение на тему Ограничения классификации ближайших соседей

K-Nearest Neighbor (KNN) – один из самых популярных алгоритмов распознавания образов. Многие исследователи обнаружили, что алгоритм KNN обеспечивает очень хорошую производительность в своих экспериментах на разных наборах данных. Традиционный алгоритм классификации KNN имеет три ограничения: (i) сложность расчета из-за использования всех обучающих выборок для классификации, (ii) производительность зависит исключительно от обучающего набора и выбора k.

Поиск ближайших соседей – один из самых популярных методов обучения и классификации, предложенных Фиксом и Ходжесом, который оказался простым и мощным алгоритмом распознавания. Ковер и Харт показали, что правило принятия решений работает хорошо, учитывая, что нет явных знаний о данных. Простое обобщение этого метода называется правилом K-NN, в котором новый шаблон классифицируется в классе с наибольшим числом членов среди K ближайших соседей.

Традиционная классификация текста KNN имеет три ограничения:

     

  1. Высокая сложность вычислений. Чтобы определить k ближайших соседних выборок, все сходства между обучающими выборками меньше, классификатор KNN больше не является оптимальным, но если обучающий набор содержит огромное количество выборок, классификатор KNN нужно больше времени для вычисления сходства. Эта проблема может быть решена тремя способами: уменьшение размеров пространства объектов; использование меньших наборов данных; используя улучшенный алгоритм, который может ускоряться до;

 

  • Зависимость от обучающего набора. Классификатор создается только с обучающими образцами и не использует никаких дополнительных данных. Это заставляет алгоритм чрезмерно зависеть от тренировочного набора; требуется пересчет, даже если в тренировочном наборе есть небольшие изменения;
  •  

  • Нет разницы в весе между образцами. Все тренировочные образцы обрабатываются одинаково; нет разницы между выборками с небольшим количеством данных и огромным количеством данных. Так что это не соответствует реальному явлению, когда выборки имеют неравномерное распределение.
  • Эффективность kNNC во многом зависит от эффективного выбора k-ближайших соседей. Ограничение обычного kNNC состоит в том, что, как только мы выбираем критерии для выбора k-ближайших соседей, критерии остаются неизменными. Но эта характеристика kNNC не подходит для многих случаев, если мы хотим сделать правильный прогноз или классификацию в реальной жизни. Экземпляр описывается в базе данных с использованием ряда атрибутов и соответствующих значений этих атрибутов. Таким образом, сходство между любыми двумя экземплярами определяется сходством значений атрибутов. Но в реальных данных, когда мы описываем два экземпляра и пытаемся выяснить сходство между этими двумя, сходства в разных атрибутах не имеют одинакового веса в отношении конкретной классификации. Более того, поскольку со временем поступает больше обучающих данных, может случиться так, что сходство в конкретном значении атрибута будет иметь более или менее важное значение, чем раньше. Например, скажем, мы пытаемся предсказать исход футбольного матча на основе предыдущих результатов. Теперь в этом прогнозе место и погода играют очень важную роль в исходе игры. Но в будущем, если все футбольные матчи будут проходить на закрытых стадионах, полевая погода больше не будет оказывать одинакового влияния на исход игры.

    Зарегистрируйся, чтобы продолжить изучение работы

      Поделиться сочинением
      Ещё сочинения
      Нет времени делать работу? Закажите!

      Отправляя форму, вы соглашаетесь с политикой конфиденциальности и обработкой ваших персональных данных.