Технологии искусственного интеллекта сочинение пример

ООО "Сочинения-Про"

Ежедневно 8:00–20:00

Санкт-Петербург

Ленинский проспект, 140Ж

magbo system

Сочинение на тему Технологии искусственного интеллекта

Искусственный интеллект (ИИ) – одна из самых быстрорастущих и перспективных технологий, способная революционизировать широкий спектр отраслей – от медицинской до судебной. Машинное обучение – это подмножество ИИ, в котором ИИ не запрограммирован явно, а «учится» принимать решения в процессе обучения. Особенно мощной техникой в ​​машинном обучении, которая в настоящее время очень популярна, является глубокое обучение. Глубокое обучение опирается на нейронную сеть «узлов», расположенных в слоях, соединенных взвешенными связями. Эти нейронные сети могут быть обучены на наборах данных для выполнения функций, которые находятся вне досягаемости обычного алгоритма, основанного только на базовой логике. Он может выполнять такие задачи, как распознавание и различение разных животных на изображениях или управление транспортными средствами с самостоятельным управлением. В 2015 году Deepmind AlphaGo AI победил чемпиона Европы по футболу Фан Хуэя в своем первом матче и чемпиона мира в 2016 году, а затем отправился в онлайн-турнир против множества лучших игроков Го в мире и выиграл все 60 матчей. AlphaGo использовала нейронную сеть с глубоким обучением, чтобы определить, какие ходы играть. Этот вид игры был возможен только AI, так как игра содержит приблизительно 10761 игровых состояний; слишком много, чтобы обращаться с традиционным алгоритмом.

AlphaGo обучался анализу тысяч игр, в которые играют опытные игроки в Го, а затем игре против самого себя, чтобы улучшить свои начальные знания. В 2017 году команда AlphaGo представила новую версию своего AI под названием AlphaGo Zero. Этот ИИ изначально не тренировался на человеческих данных, но обучал себя игре с нуля, многократно играя против себя. AlphaGo с нулевым быстродействием превзошел первоначальный AlphaGo и использовал для этого меньше вычислительной мощности. Это потому, что на него не повлияло неэффективное предубеждение человека, присущее предоставленным данным. Этот подход самообучения, однако, может работать только в искусственной среде, такой как Go, где правила просты и легко определены. В реальном мире компьютер не может имитировать все аспекты среды, и, таким образом, ИИ, решающий реальные проблемы, зависит от данных для обучения. Как видно из AlphaGo, это вносит предвзятость в процесс принятия решений алгоритмом. Несмотря на то, что ИИ часто бывает доброкачественным, в некоторых случаях он также учит отрицательным предубеждениям человека. Примером этого является алгоритм AI COMPAS, используемый для помощи судьям в определении риска повторного совершения правонарушением. Анализ дел, проведенный ProPublica, выявил алгоритм в пользу белых людей и более высокий рейтинг риска для людей с более темным цветом кожи.

Создатели программы Northpointe Inc. (сейчас Equivalent) настаивали на том, что она не была расистской, поскольку гонка не является одним из входов, на которых обучается алгоритм. В аналогичном случае профессор компьютерных наук, который создавал программу распознавания изображений, заметил, что, когда его алгоритм обучался на общедоступных наборах данных, некоторые даже одобрены Facebook и Microsoft, ассоциации между классическими культурными стереотипами, такими как женщины, готовящие или делающие покупки, и мужчинами и спортивное оборудование было не просто отображено, но даже усилено. Проблема искусственного интеллекта, унаследованного от негативного человеческого предубеждения, заключается не только в страхе причинения обиды, но при использовании принятия решений на основе искусственного интеллекта в реальных условиях, даже для небольших решений, это может иметь серьезные последствия. Алгоритм Facebook для определения того, какой контент пользователи видят в своем фиде, основан на искусственном интеллекте и основан на предсказаниях того, что пользователи хотят видеть. Позволяя Facebook нацеливать рекламные объявления на разные группы людей, он также изолирует их, эффективно удерживая их в «пузыре» единомышленников. Это может использоваться участниками кампании, чтобы повлиять на мнение людей, участвующих в целевых кампаниях, подобные из которых, как считается, влияют как на последние президентские выборы в США, так и на референдум по Brexit, и усиливают поляризацию, как правило, из-за меньшего перекрестного воздействия противоречивых идей. ИИ – настолько быстро развивающаяся технология, что она всегда на шаг впереди законодателей. Таким образом, ответственность за этическое использование ИИ ложится на инженеров, которые его создают и используют. Эта проблема также становится все более актуальной, поскольку все больше и больше технологий становятся зависимыми от ИИ. В связи с тем, что автомобили с автоматическим управлением скоро начнут ездить, а ИИ все шире используется даже в исследованиях фармацевтики, терпимость к ошибкам всегда уменьшается, поскольку на карту поставлены все более важные вопросы.

Самым большим препятствием для решения проблем вокруг и работы с ИИ является непрозрачность алгоритма. Нейронная сеть имеет так много узлов и слоев, что невозможно понять, как алгоритм пришел к выводу, просто взглянув на него. Исследователи в настоящее время работают над созданием ИИ, который может объяснить или обосновать его результаты, например, выделив особо важные части входных данных. Хотя это не полностью объясняет результаты, оно дает некоторое представление о том, как было принято решение. Одним из решений представленных проблем может быть переход от глубокого обучения, который непрозрачен для инженеров, и вместо этого он движется к более прозрачным методам машинного обучения. Машинное обучение, основанное на вероятностном подходе, хотя и не такое мощное, как нейронные сети, еще изучается. Лидером в этой области является Uber, который недавно открыл свой собственный вероятностный язык программирования «Pyro». В качестве альтернативы, если используются нейронные сети, следует проявлять большую осторожность при выборе данных, на которых они обучаются, если они не могут обучаться самостоятельно. Проводятся исследования по смягчению влияния искажений в данных для уменьшения эффекта усиления.

Тем не менее, при принятии решения о том, какие данные использовать, важнее определить применение ИИ. Некоторые алгоритмы должны отражать реальность мира в решениях, которые они принимают, даже если они кажутся нечувствительными, чтобы делать точные прогнозы. Однако во многих случаях мы не хотим, чтобы ИИ судил на основе предвзятых данных в прошлом. Здесь инженерам может потребоваться обучить ИИ на данных, которые были проверены и очищены от нежелательного смещения, хотя это может оказаться невозможным для больших наборов данных.

Кроме того, по мере изменения морали общества ИИ станет этически «устаревшим». В конце концов, может быть лучше оставить ИИ делать то, что у него получается лучше всего, работать в четко определенных средах и не позволять ему автоматически принимать решения без проверки человеком результата и проверки того, что он не противоречит здравому смыслу.

Зарегистрируйся, чтобы продолжить изучение работы

    Поделиться сочинением
    Ещё сочинения
    Нет времени делать работу? Закажите!

    Отправляя форму, вы соглашаетесь с политикой конфиденциальности и обработкой ваших персональных данных.