Этические проблемы искусственного интеллекта сочинение пример

ООО "Сочинения-Про"

Ежедневно 8:00–20:00

Санкт-Петербург

Ленинский проспект, 140Ж

magbo system

Сочинение на тему Этические проблемы искусственного интеллекта

ИИ захватил очарование общества, восходящего к древним грекам; Греческая мифология изображает автоматическую похожую на человека машину под названием Талос, защищающую греческий остров Крит. [1] Тем не менее, этические проблемы такого искусственного интеллекта начали серьезно решаться только в 1940-х годах, когда был выпущен рассказ Исаака Азимова «Обход». Здесь главный герой заявляет «Три закона робототехники» [2], которые: 1. Робот не может причинить вред человеку, или в результате бездействия позволяет человеку причинить вред. 2. Робот должен подчиняться приказам, данным ему людьми, за исключением случаев, когда такие приказы противоречат Первому Закону. 3. Робот должен защищать свое существование, пока такая защита не противоречит Первому или Второму Законам. Правила, изложенные здесь, довольно двусмысленны; Б. Хиббард в своей статье «Этический искусственный интеллект» [3] приводит ситуацию, противоречащую этим законам, например, «полицейский ИИ наблюдает, как наемный убийца направляет оружие на жертву», что, например, потребует полиции офицер выстрелил из пистолета в киллера, чтобы спасти жизнь жертвы, что противоречит первому закону, указанному выше. Таким образом, необходима структура для определения того, как такой искусственный интеллект будет вести себя этично (и даже вносить некоторые моральные улучшения); Другими факторами, которые будет обсуждаться в этом эссе (главным образом с помощью «Этики искусственного интеллекта» Н. Бострома и Э. Юдковского [4]), являются прозрачность проверки и предсказуемость искусственного интеллекта. Прозрачность для проверки Инженеры должны при разработке искусственного интеллекта сделать его прозрачным для проверки.

Чтобы искусственный интеллект был прозрачен для проверки, программист должен хотя бы понять, как алгоритм будет определять действия искусственного интеллекта. В статье Бострома и Юдковского приводится пример того, как это важно, используя машину, которая рекомендует заявки на ипотеку для одобрения. Если машина дискриминирует людей определенного типа, в документе утверждается, что, если машина не была прозрачна для проверки, не было бы никакого способа выяснить, почему или как она это делает. Кроме того, А. Теодору и соавт. в документе «Почему мой робот ведет себя так?» [5] подчеркивает три момента, которые диктуют прозрачность для проверки: чтобы позволить оценку надежности; выявлять неожиданное поведение; и разоблачить принятие решений.

Документ развивает это путем реализации того, какой должна быть прозрачная система, которая включает ее тип, назначение и людей, использующих систему – при этом подчеркивая, что для различных ролей и пользователей система должна выдавать информацию, доступную для чтения последней. [5] Хотя в документе не упоминается искусственный интеллект как отдельная тема, принципы прозрачной системы могут быть легко переданы инженерам, разрабатывающим искусственный интеллект. Поэтому при разработке новых технологий, таких как ИИ и машинное обучение, инженеры и программисты в идеале не должны забывать о том, почему и как ИИ выполняет свои решения, и должны стремиться добавить в ИИ некоторую структуру для защиты или хотя бы информирования. пользователь о неожиданном поведении, которое может выйти. Предсказуемость ИИ Несмотря на то, что ИИ оказался более умным, чем люди, в конкретных задачах (например, поражение Каспарова от Deep Blue на чемпионате мира по шахматам [4]), большинство современных искусственных интеллектов не являются общими.

Однако с развитием технологий и разработкой более сложного искусственного интеллекта их предсказуемость вступает в игру. Бостром и Юдковский утверждают, что обработка искусственного интеллекта, который является общим и выполняет задачи во многих контекстах, является сложной; выявление проблем безопасности и прогнозирование поведения такого интеллекта считается сложным [4]. В нем подчеркивается необходимость того, чтобы ИИ действовал безопасно в неизвестных ситуациях, экстраполируя последствия, основанные на этих ситуациях, и по существу думая этично, как это делал бы человеческий инженер. В статье Хиббарда говорится, что при определении реакции искусственного интеллекта тесты должны проводиться в моделируемой среде с использованием «системы поддержки принятия решений», которая изучала бы цели обучения искусственному интеллекту в окружающей среде – с моделированием, выполняемым без вмешательства человека.

Однако Хиббард также продвигает «стохастический» процесс [3], используя случайное распределение вероятностей, которое будет способствовать снижению его предсказуемости при определенных действиях (распределение вероятностей все еще можно анализировать статистически); это послужит защитой от другого искусственного интеллекта или людей, стремящихся манипулировать искусственным интеллектом, который в настоящее время создается. В целом, предсказуемость искусственного интеллекта является важным фактором при его создании, особенно когда общий ИИ сделан для выполнения крупномасштабных задач в совершенно разных ситуациях. Однако, хотя ИИ, который неясен в том, как он выполняет свои действия, нежелателен, инженерам следует учитывать и другую сторону – ИИ должен обладать определенной непредсказуемостью, которая, если не что-нибудь еще, будет сдерживать манипулирование таким ИИ для злая цель. ИИ мыслит этически Можно утверждать, что наиболее важным аспектом этики ИИ является структура того, как искусственный интеллект будет мыслить этически и учитывать последствия своих действий – по сути, как инкапсулировать человеческие ценности и признать их развитие во времени в будущее. Это особенно верно для суперинтеллекта, где проблема этики может означать разницу между процветанием или разрушением. Бостром и Юдковский утверждают, что для того, чтобы такая система мыслила этично, она должна реагировать на изменения в этике во времени и решать, какие из них являются признаком прогресса – приводя пример сравнения Древней Греции с современным обществом, использующим рабство , [4] Здесь авторы опасаются создания этически «стабильной» системы, которая была бы устойчивой к изменению человеческих ценностей, и все же они не хотят систему, чья этика определяется случайным образом. Они утверждают, что для понимания того, как создать систему, которая ведет себя этично, нужно было бы «понять структуру этических вопросов» [4] таким образом, чтобы учесть этический прогресс, который еще даже не был задуман.

Хиббард предлагает статистическое решение, позволяющее ИИ иметь видимость этичного поведения; это формирует основной аргумент его статьи. Например, он выдвигает на первый план проблему людей во всем мире, которые придерживаются различных человеческих ценностей, что делает этические рамки искусственного интеллекта сложными. Он утверждает, что для решения этой проблемы человеческие ценности не должны выражаться в ИИ как набор правил, а должны изучаться с использованием статистических алгоритмов. [3] Тем не менее, он признает, что такая система, естественно, будет навязчивой (что противоречит частной жизни) и что опора на население в целом несет свои риски, используя в качестве примера рост нацистской партии через демократическое население.

В целом, использование искусственного интеллекта в соответствии с этическими нормами – это процесс с огромной сложностью; проникновение человеческих ценностей в действия искусственного интеллекта почти наверняка придало бы ему моральный статус, что могло бы ослабить этическую путаницу в некоторых продвинутых проектах (например, когда ответственность лежит после фатальной аварии с участием автомобиля с автоматическим управлением).

Однако такое начинание само по себе сложно и потребует самообучения, которое несет свои риски. Наконец, искусственный интеллект, чтобы быть по-настоящему этическим, должен был (по крайней мере) быть открытым для этических изменений и, скорее всего, должен был бы рассмотреть, какие части изменения являются полезными.

Чтобы инженеры могли решить этические проблемы, связанные с созданием искусственного интеллекта и использованием машинного обучения, они должны:

     

  • Обеспечьте прозрачность проверки, учитывая конечных пользователей такой машины, и обеспечьте защиту от любого непредвиденного поведения, которое быстро читается человеком, использующим ее. Они должны использовать алгоритмы, которые обеспечивают большую предсказуемость и могут быть проанализированы, по крайней мере, опытным программистом, даже если это жертвует эффективностью обучения машины его среде – это уменьшит вероятность того, что ее намерения будут неясными.
     

  • Учитывайте предсказуемость ИИ; тестирование его в другой моделируемой среде позволит наблюдать за тем, что будет делать ИИ, хотя и не обязательно в среде, моделирующей реальный мир. Предсказуемость в некоторой степени связана с прозрачностью инспекции, поскольку инженеры могут отслеживать намерения предсказуемого искусственного интеллекта. Однако, чтобы сделать искусственный интеллект устойчивым к нежелательным изменениям, важно, чтобы случайный элемент также был добавлен в алгоритм обучения ИИ.
     

  • Приложите усилия для изучения того, что лежит в основе этики и различных человеческих ценностей, которыми обладает современное общество, и начните думать о том, как ИИ сможет продолжать этический прогресс (вместо того, чтобы просто рассматривать этот прогресс как нестабильность).

Зарегистрируйся, чтобы продолжить изучение работы

    Поделиться сочинением
    Ещё сочинения
    Нет времени делать работу? Закажите!

    Отправляя форму, вы соглашаетесь с политикой конфиденциальности и обработкой ваших персональных данных.