Параллельные вычисления для машинного обучения сочинение пример

ООО "Сочинения-Про"

Ежедневно 8:00–20:00

Санкт-Петербург

Ленинский проспект, 140Ж

magbo system

Сочинение на тему Параллельные вычисления для машинного обучения

ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ ДЛЯ ОБУЧЕНИЯ МАШИНЫ

В новой глобальной экономике машинное обучение стало центральной проблемой для большинства областей исследований, поскольку оно предлагает методы, позволяющие справиться с чрезвычайно сложной и актуальной проблемой реального мира. Изучение машинного обучения важно для решения фундаментальных вопросов, связанных с наукой и техникой. Существует три поддомена машинного обучения, тогда как; Обучение под наблюдением, при котором обучение будет проводиться только в том случае, если данные были помечены и состоят из входных данных и желаемых результатов, неконтролируемое обучение, при котором данные обучения не нуждались в пометке, а среда производила ввод данных без конкретных целей и, наконец, обучения с подкреплением, характеристика информации, доступной в обучающей базе данных между контролируемым и неконтролируемым, и этот вид обучения происходит из обратной связи, получаемой в результате взаимодействия с внешней средой.

Обучение как под надзором, так и без надзора подходит для анализа данных, в то время как обучение с подкреплением подходит для решения проблем, состоящих из процесса принятия решений. В связи с быстрым появлением тенденций в области машинного обучения очень важна необходимость совершенствования традиционного машинного обучения до современного машинного обучения. Улучшение в плане программного обеспечения (алгоритма) и аппаратного обеспечения является ключом к появлению передового машинного обучения, способного справиться с текущим машинным обучением. В нескольких передовых методах обучения были упомянуты в целях улучшения традиционного машинного обучения, в том числе; Репрезентативное обучение, глубокое обучение, распределенное и параллельное обучение, трансферное обучение, активное обучение и обучение на основе ядра.

Параллельное обучение в основном основано на среде параллельных вычислений. Параллельные вычисления определяются как набор взаимосвязанных процессов между элементами обработки и модулями памяти. В машинном обучении параллельные вычисления улучшили традиционное машинное обучение за счет использования многоядерного процессора вместо одного процессора [2]. Некоторые исследователи обсуждали и применяли параллельные вычисления, чтобы иметь дело с машинным обучением. Цю и др. и др. Приходите с обзорным документом, в котором обсуждались способы обработки больших данных с помощью машинного обучения. Поскольку данные становятся большими и сложными, традиционное машинное обучение сталкивается с трудностями при обучении этих данных. Таким образом, шесть продвинутых методов обучения были введены, как указано ранее. Затем были обсуждены пять вопросов машинного обучения в больших данных.

Одна из проблем, включая понимание большого объема данных. Для решения этой проблемы предлагается распределенная структура, основанная на параллельных вычислениях. Метод мультипликаторов с переменным направлением (ADMM), структура, которая может производить алгоритм с возможностью разброса и масштабирования, очень подходит. ADMM способен разделить несколько проблем и помогает определить решение, координируя эти решения в меньшую группу проблем. Далее, было упомянуто использование методов параллельного программирования для решения крупномасштабных выпущенных наборов данных. После этого Memeti et. и др. обзор двух методов планирования параллельных вычислительных систем – машинного обучения и метаэвристических методов. Поскольку параллельные вычисления обычно связаны с проблемой, которая является очень сложной и ресурсоемкой, необходимо использовать несколько процессоров.

Исследователи всегда производят комбинацию процессоров, графических процессоров и FPGA, чтобы обеспечить более высокую производительность и энергоэффективность. В этой статье Memeti et. и др. также обсуждались несколько популярных алгоритмов машинного обучения; Линейная регрессия (LR), Дерево решений (DT), Машина опорных векторов (SVM), Байесовский вывод (BI), Случайный лес (RF) и Искусственная нейронная сеть (ANN). Затем Memeti et. и др. объясняет характеристику проблемы, которая может быть решена с помощью машинного обучения и метаэвристических методов, основанных на подходящих подходах.

Затем была разработана структура, основанная на архитектуре параллельных вычислений. Chiao et. и др. Приходите с бумагой, которая предназначена для обучения модели торговли в режиме реального времени путем сбора набора аналогичных исторических финансовых.

Используемый текущий метод

Алгоритм AdaBoost был улучшен до алгоритма соединения-AdaBoost и применяется с платформой параллельных вычислений Open Computing Language (OpenCL). OpenCL – это платформа открытого стандарта, разработанная для нескольких платформ. Он предоставил архитектуру для параллельных вычислений и сборки с API, законченным языком программирования, библиотеками программирования и средой выполнения. Затем это позволило реализовать сложные алгоритмы пользователем. OpenCL состоит из CPU и GPGPU (универсальные вычисления в процессоре), которые поддерживают модель параллельного программирования для данных и задач. Кроме того, Pratama et. и др. Приходите с бумагой, которая поможет реорганизовать рукописное изображение на японском языке, используя комбинацию алгоритма Auto-Encoder и структуры остаточных блоков с архитектурой CUDA, которая поддерживает библиотеку программирования и полагается на параллельные вычисления. Использование OpenCL в Chiao et.al и Остаточный блок в Pratama et. и др. Доказано, что среда параллельных вычислений поможет сократить время, затрачиваемое на процесс обучения данных. Далее обе статьи также выясняют, что использование процессора более эффективно по сравнению с GPU.

Затем Кибенко проанализировал, как параллельные вычисления применялись в машинном обучении для работы с социальными сетями. Кибенко предложил три важнейших компонента, чтобы определить, является ли применение машинного обучения обязательным:

     

  • работа с большим количеством наборов данных,
  •  

  • типы программного обеспечения, которые доступны для реализации этого процесса обучения,

 

  • связанные вычислительные циклы.
  • Поскольку социальная сеть имеет дело с большим количеством наборов данных, применение машинного обучения является обязательным. Кроме того, в современном машинном обучении используется одноядерный графический процессор, который отнимает много времени. Поэтому Cybenko предположил, что использование многопроцессорного процессора или графического процессора очень полезно для сокращения времени обучения, так как в социальной сети много данных и их необходимо обрабатывать быстро и эффективно. В эксперименте Кибенко также выяснил, что используемый процессор более эффективен по сравнению с графическим процессором. Приведенная ниже таблица 1 завершит пять обсуждений, касающихся применения параллельных вычислений в машинном обучении.

    Литература:

       

    1. G. Кибенко, «Параллельные вычисления для машинного обучения в анализе социальных сетей», 2017.
    2.  

    3. M. И. Джордан и Т. М. Митчелл, «Машинное обучение: тенденции, перспективы и перспективы», Science (80-.), Vol. 349, нет. 6245, с. 255–260, 2015.
    4.  <Литий> J. Цю, В. Ву, Г. Дин, Ю. Сюй и С. Фэн, «Обзор машинного обучения для обработки больших данных», EURASIP J. Adv. Signal Process., Vol. 2016, нет. 1, 2016.

       <Литий> J. Бирн и др., «Обзор платформ моделирования облачных вычислений и связанных с ними сред», Proc. 7th Int. Conf. Cloud Comput. Serv. Sci., Нет. Апрель, стр. 679–691, 2017.

       

    5. S. Мемети и Дж. Колодзей, «Обзор машинного обучения и метаэвристических методов планирования параллельных вычислительных систем», 2018.
    6.  <Литий> С. Чен, С. Хуанг и Ю. Чанг, «Система поддержки принятия решений для торговли в реальном времени, основанная на методах интерактивного обучения и параллельных вычислений», 2016 год.

       

    7. M. Пратама О., Карин П. Реконструкция рукописных изображений в Японии с использованием авто-кодера с остаточным блоком в параллельных вычислениях. ICELTIC, стр. 231–234, 2017.
    Зарегистрируйся, чтобы продолжить изучение работы

      Поделиться сочинением
      Ещё сочинения
      Нет времени делать работу? Закажите!

      Отправляя форму, вы соглашаетесь с политикой конфиденциальности и обработкой ваших персональных данных.