Интернет - большее пространство в жизни человечества сочинение пример

ООО "Сочинения-Про"

Ежедневно 8:00–20:00

Санкт-Петербург

Ленинский проспект, 140Ж

magbo system

Сочинение на тему Интернет – большее пространство в жизни человечества

Интернет занял большее место в жизни человечества. Он стал заметным практически во всех секторах по всему миру. Основным преимуществом Интернета является быстрое общение и быстрая передача информации в различных режимах.

Как и в случае с меняющейся технологией, Интернет используется не только для получения знаний, но и для целей коммуникации. Это стало средой для обмена или выражения своих идей. В основном текущий сценарий таков, что люди используют сайты социальных сетей как средство общения с другими людьми и обмена информацией с ними. Социальная сеть – это широкая сеть людей, которые связаны межличностными отношениями.

Поскольку многие люди используют данные для обмена информацией в виде изображений, видео и т. д. Сгенерированные данные известны как данные социальных сетей. Эти данные помогают определить различные аспекты жизни общества. Data Mining – это процесс проверки данных с разных точек зрения для обнаружения неизвестных вещей. Одна из важных задач интеллектуального анализа данных, помогающая в обнаружении ассоциаций, корреляций, статистически значимых шаблонов, причинно-следственных связей, возникающих шаблонов в социальных сетях, известна как интеллектуальный анализ правил ассоциации

Введение

Раньше люди общались как устно, так и невербально. Невербальное общение происходит посредством написания писем в газетах или составления черновика и т. д. Это общение имеет определенные ограничения и немного ограничено.

Было меньше или не так много средств для невербального общения. Эффект Интернета, который также известен как сеть сетей, заставил людей получать информацию в глобальном масштабе в различных аспектах. Первоначально единственное использование Интернета состояло в том, чтобы собирать информацию и делиться ею. В настоящее время Интернет занимает больше места в жизни. человечества. Он стал заметным практически во всех секторах по всему миру.

Основным преимуществом Интернета является быстрая связь и быстрая передача информации через различные режимы. Со временем потребность в сборе информации для обмена, внесения вклада и воздействия стала увеличиваться и в конечном итоге дала толчок для сбора, анализа и направления огромных данных точным способом. Создание, сбор, хранение, извлечение и представление данных стали неотъемлемой частью людей, связанных с обществом знаний. В конце концов,

Интернет является не только средством получения знаний, но и в настоящее время используется как средство общения. В настоящее время миллионы людей используют Интернет как средство выражения своих идей и обмена информацией. Большинство людей используют сайты социальных сетей или блоги для общения с людьми и обмена информацией. Таким образом, социальные сети обострились во всем мире с заметной скоростью. В настоящее время доступны многие сайты социальных сетей, такие как Facebook, Twitter и т. Д. В 2015 году у Facebook было более 1,44 миллиарда активных пользователей.

Это приводит к резкому росту числа социальных сайтов. Например, Twitter является одним из таких сайтов социальных сетей, который стал популярным за короткий промежуток времени благодаря своим простым и инновационным функциям, таким как твиты, которые представляют собой короткие текстовые сообщения. Эти твиты намного быстрее и используются для сбора различной информации. Ежедневно миллионы твитов используются для сбора информации, которая может помочь в принятии решения.

Социальная сеть – это, по сути, сеть людей, связанных межличностными отношениями. Данные социальной сети относятся к данным, полученным от людей, общающихся в этой социальной сети. Эти пользовательские данные помогают проанализировать некоторые активы сообщества общения при анализе и добыче. Это может быть достигнуто с помощью анализа социальных сетей. Отображение и измерение отношений известно как анализ социальных сетей [СНС]. Таким образом, СНС играет решающую роль в изображении различных активов социализирующегося сообщества.

Data Mining

Различные данные с различных сайтов социальных сетей хранятся в файлах и других хранилищах, что помогает нам анализировать и интерпретировать такой огромный объем данных вместе, что дает нам много интересных знаний, которые могут помочь нам в принятии дальнейших решений. Data Mining, также известный как процесс обнаружения знаний [4], представляет собой процесс поиска неизвестных идей путем анализа данных с разных точек зрения. Здесь шаблоны обнаруживаются в больших наборах данных. Информация извлекается из набора данных и передается. Таким образом, интеллектуальный анализ данных и обнаружение знаний в базах данных (или KDD) используются в качестве заменителей друг друга, но интеллектуальный анализ данных является фактическим процессом процесса обнаружения знаний.

Майнинг правил ассоциации

Одна из важных задач интеллектуального анализа данных, которая помогает в обнаружении ассоциаций, корреляций, статистически связанных шаблонов, причинно-следственных связей, возникающих шаблонов в социальных сетях, выполняется майнингом ассоциаций.

Другой метод майнинга, известный как майнинг наборов частых предметов, играет важную роль во многих задачах Data Mining.

Интеллектуальный анализ наборов элементов играет важную роль во многих задачах Data Mining, которые пытаются обнаружить интересные шаблоны из баз данных, таких как правила ассоциации, корреляции, последовательности, классификаторы и кластеры. Разработка правил ассоциации является одной из основных проблем всего этого. Распознавание наборов предметов, продуктов, проявлений и особенностей, которые часто появляются вместе в данной базе данных, можно рассматривать как одну из самых примитивных задач в Data Mining.

Например, правило ассоциации хлеб, картофель-> сэндвич показало бы, что если покупатель покупает хлеб и картофель вместе, он, вероятно, также купит сэндвич. Здесь хлеб и картошка – это поддержка, а бутерброд – это доверие. Такие знания могут быть использованы для принятия решений. Рассмотрим среду социальной сети, которая собирает и публикует созданные пользователем текстовые документы (например, обсуждения, блоги и т. Д.). Было бы полезно узнать, какие слова люди обычно используют в дискурсе, связанном с определенной темой, или какой набор слов часто используется вместе. Например, в теме для обсуждения, связанной с «американскими выборами», частое использование слова «экономика» показывает, что экономика является наиболее важным аспектом бюрократической среды обитания.

Следовательно, часто встречающийся набор предметов может быть хорошим маркером центральной темы обсуждения. Аналогично, частый набор предметов, имеющий количество или длину два, может показать, каковы другие важные факторы. Следовательно, алгоритм интеллектуального анализа наборов часто используемых элементов в наборе текстовых документов, созданных в социальной сети, может отображать центральную тему обсуждения и схему использования слов в обсуждениях и блогах. С экспоненциальным ростом данных в социальных сетях до терабайта или более стало сложнее анализировать данные на одной машине. Таким образом, алгоритм Apriori [6], который является одним из наиболее известных методов для извлечения частых наборов элементов в транзакционной базе данных, оказывается неэффективным для обработки постоянно растущих данных. Для решения этой проблемы используется среда MapReduce [7], представляющая собой метод облачных вычислений.

Hadoop

Hadoop – это платформа с открытым исходным кодом, лицензированная по лицензии Apache v2, которая предоставляет аналитические технологии и вычислительные мощности, необходимые для работы с большими объемами данных. Платформа Hadoop построена таким образом, что позволяет пользователю хранить и обрабатывать большие данные в распределенной среде на многих компьютерах, подключенных к кластеру, с использованием простых моделей программирования.

Он спроектирован таким образом, что можно управлять тысячами машин с одного сервера с возможностью хранения и локальных вычислений. Он разбивает данные на управляемые фрагменты, реплицирует их и распределяет несколько копий по всем узлам кластера, чтобы впоследствии можно было быстро и надежно обработать их данные. Вместо того, чтобы полагаться на аппаратное обеспечение для обеспечения высокой доступности, сама программная библиотека Apache Hadoop предназначена для обнаружения и обработки сбоев на уровне приложений, поэтому для высокодоступной службы предоставляется кластер компьютеров. Hadoop также используется для управления анализ данных. Основные компоненты Apache Hadoop состоят из части хранения, известной как распределенная файловая система Hadoop (HDFS), и части обработки, называемой MapReduce.

ОБЗОР ЛИТЕРАТУРЫ

Методы обнаружения связи между переменными в больших базах данных называются ассоциативным правилом майнинга. Он был введен Ракешом Агравалом для проверки регулярности между продуктами в крупномасштабных транзакциях по системе POS. Это было основано на правиле ассоциации.

Например, хлеб, помидоры, майонез напрямую относятся к бутерброду. Согласно различным данным о продажах супермаркета, если покупатель покупает помидоры и майонез вместе, он также может купить бутерброд. Для принятия решений эти данные могут быть использованы.

<Р> Т. Картикеян и Н. Равикумар в своих работах пришли к выводу после обзора и наблюдения. Они дают заключение, что большое внимание и внимание уделялось производительности и масштабируемости алгоритмов, но не уделялось качеству сгенерированного правила. Согласно им, алгоритм может быть улучшен для вычитания времени выполнения, сложности, а также повысит точность. Кроме того, делается вывод о том, что необходимо больше внимания уделять разработке эффективного алгоритма с уменьшенной операцией ввода-вывода за счет сокращения сканирования базы данных в процессе извлечения правил ассоциации.

В этой статье дается теоретический обзор некоторых существующих алгоритмов интеллектуального анализа правил ассоциации. Концепция, лежащая в основе этого, приводится в начале, после чего следует некоторый обзор исследовательских работ.

Цель этой статьи – дать теоретический обзор некоторых алгоритмов интеллектуального анализа правил ассоциации. Плюсы и минусы того же обсуждаются и заключаются с выводом.

Ракеш Агравал и Рамакришнан Срикант предложили концепцию начального набора для создания новых больших наборов элементов, которые назывались наборами кандидатов, которые подсчитывали фактическую поддержку для них в конце прохода, пока новые большие наборы не были найдены. Эти два алгоритма для нахождения правил связи между элементами в большой базе данных транзакции продаж были названы Apriori и AprioriTid.

<Р> J. Han, J. Pei и Y. Yi разработали систематический метод майнинга на основе FP-деревьев, называемый FP-рост для майнинга повторяющихся паттернов, основанный на концепции роста фрагментов. Проблема была решена в 3 аспектах: в основном это структура данных, называемая FP-деревом, где только элементы с повторяющейся длиной будут иметь узлы в дереве. Они также создали шаблон на основе FP-дерева, который исследовал его условную базу и затем построил свое FP-дерево. и периодически проводил майнинг с таким деревом. Кроме того, метод «разделяй и властвуй» использовался вместо метода поиска «снизу вверх».

С. Конг, Дж. Хан, Дж. Хофлингер и Д. Падуя разработали новую стратегию поиска часто используемых наборов данных из наборов данных терабайтного масштаба в кластерных системах, которая сконцентрировалась на идее основанного на выборках фреймворка для параллельного интеллектуального анализа данных. .

Вся идея целенаправленного анализа данных была включена в алгоритм. Производительность процессоров, иерархия памяти и доступная сеть были приняты во внимание. Этот разработанный алгоритм был самым быстрым последовательным алгоритмом, который мог расширять свою работу в параллельной настройке, и, следовательно, он использовал все ресурсы, которые были сделаны доступными эффективным способом.

Новый рассказ для интеллектуального анализа данных был представлен P. V. Sander, W. Фанг, К. К. Лау, который использовал графические процессоры нового поколения (GPU), известные как GPUMiner. Система зависела от многопоточной архитектуры SIMD (Single Instruction, Multiple-Data), предоставляемой графическими процессорами. GPU miner состоит из трех компонентов: менеджер буфера и хранилище на базе ЦП, которое обрабатывает передачу данных и ввод / вывод между графическим процессором и центральным процессором, а также интегрированный модуль майнинга параллельной обработки CPU-GPU и, наконец, в него включен модуль визуализации майнинга, основанный на графическом процессоре.

В методе «Оптимизация повторяющегося майнинга наборов элементов на многоядерном процессоре» были предложены два метода на основе FP-Tree: параллелизация листов без блокировок набора данных и FP-массив с учетом кэширования, которые касались низкого уровня использования многоядерной системы. и эффективно улучшать производительность локальности данных и использует аппаратную и программную предварительную выборку. Также алгоритм построения FP-дерева может быть переосмыслен алгоритмом параллелизации без блокировки.

Чтобы разделить задачу поиска повторяющихся наборов элементов в подходе сверху вниз, К. Айканат, Э. Озкураль и Б. Укар разработали схему распределения, основанную на транзакции с базой данных. Этот метод работает на графе, где вершины соответствуют повторяющимся item и ребра совпадают с повторяющимися наборами предметов размером 2. Вершинный разделитель разделяет этот граф, так что распределение предметов может быть решено и добыто независимо. Два новых алгоритма майнинга были разработаны по этой схеме. Элементы, которые соответствуют разделителю, воссоздаются этими алгоритмами. Один алгоритм воссоздает работу, а второй вычисляет то же самое.

Изученный алгоритм на основе режима MapReduce, который использовался правилами ассоциации. Производительность алгоритма становится неэффективной из-за единой памяти и ограниченных ресурсов процессора. Документ, разработанный С. Гемаватом и Дж. Дином, описывает улучшенный алгоритм Apriori, который может управлять массивными наборами данных с огромным количеством узлов на платформе Hadoop и может изучать многие проблемы, которые обычно представляют собой большие и многомерные наборы данных.

Для облачных вычислений Jongwook Woo и Yuhang Xu предложили алгоритм пары Market Basket Analysis (ключ, значение), код которого можно выполнить на платформе Map / Reduce.

Этот алгоритм использовался для создания парных элементов. Транзакция сортируется в алфавитном порядке перед созданием пары (ключ, значение), чтобы избежать …

Зарегистрируйся, чтобы продолжить изучение работы

    Поделиться сочинением
    Ещё сочинения
    Нет времени делать работу? Закажите!

    Отправляя форму, вы соглашаетесь с политикой конфиденциальности и обработкой ваших персональных данных.