Решение этических проблем ИИ сочинение пример

ООО "Сочинения-Про"

Ежедневно 8:00–20:00

Санкт-Петербург

Ленинский проспект, 140Ж

magbo system

Сочинение на тему Решение этических проблем ИИ

ИИ захватил очарование общества, восходящего к древним грекам: греческая мифология изображает автоматическую похожую на человека машину под названием Талос, защищающую греческий остров Крит. [1] Тем не менее, этические проблемы искусственного интеллекта начали серьезно решаться только в 1940-х годах, когда был выпущен рассказ Исаака Азимова «Обход». Здесь главный герой утверждает «Три закона робототехники» [2]:

     

  1. Робот не может причинить вред человеку или в результате бездействия позволить человеку причинить вред.
  2.  

  3. Робот должен подчиняться приказам, данным ему людьми, за исключением случаев, когда такие приказы будут противоречить Первому Закону.
  4.  

  5. Робот должен защищать свое существование, если такая защита не противоречит Первому или Второму Законам.

Правила, изложенные здесь, довольно неоднозначны; Б. Хиббард в своей статье «Этический искусственный интеллект» [3] приводит ситуацию, противоречащую этим законам. Например, «полицейский ИИ, наблюдающий, как наемный убийца направляет пистолет на жертву», может потребовать, например, полиции офицер выстрелил из пистолета в киллера, чтобы спасти жизнь жертвы, что противоречит первому закону, указанному выше.

Таким образом, необходима структура для определения того, как такой искусственный интеллект будет вести себя этично (и даже вносить некоторые моральные улучшения); Другими факторами, которые будет обсуждаться в этом эссе (главным образом с помощью «Этики искусственного интеллекта» Н. Бострома и Э. Юдковского [4]), являются прозрачность проверки и предсказуемость искусственного интеллекта.

Прозрачность для осмотра

Инженеры должны при разработке искусственного интеллекта сделать его прозрачным для проверки. [4] Чтобы искусственный интеллект был прозрачен для проверки, программист должен иметь возможность хотя бы понять, как алгоритм будет определять действия искусственного интеллекта.

В статье Бострома и Юдковского приводится пример того, как это важно, используя машину, которая рекомендует заявки на ипотеку для одобрения. [4] Если машина дискриминирует людей определенного типа, в статье утверждается, что если бы машина не была прозрачной для осмотра, не было бы способа выяснить, почему или как она это делает.

Кроме того, A. Theodorou et al. в документе «Почему мой робот ведет себя так?» [5] подчеркивает три момента, которые диктуют прозрачность для проверки: чтобы позволить оценку надежности; выявлять неожиданное поведение; и разоблачить принятие решений. В документе делается это дальше, внедряется прозрачная система, которая включает в себя ее тип, назначение и людей, использующих систему, – при этом подчеркивается, что для разных ролей и пользователей система должна выдавать информацию, читаемую последней. [5] Хотя в документе не упоминается искусственный интеллект как отдельная тема, принципы прозрачной системы могут быть легко переданы инженерам, разрабатывающим искусственный интеллект.

Поэтому при разработке новых технологий, таких как ИИ и машинное обучение, участвующие инженеры и программисты в идеале не должны забывать о том, почему и как ИИ выполняет свой процесс принятия решений, и должны стремиться добавить в ИИ некоторую структуру для защиты или, по крайней мере, проинформируйте пользователя о неожиданном поведении, которое может проявиться.

Предсказуемость ИИ

Несмотря на то, что ИИ оказался более умным, чем люди, в выполнении определенных задач (например, поражение Deep Blue от Каспарова на чемпионате мира по шахматам [4]), большинство современных искусственных интеллектов не являются общими. Однако с развитием технологий и разработкой более сложного искусственного интеллекта их предсказуемость вступает в игру.

Бостром и Юдковский утверждают, что обработка искусственного интеллекта, который является общим и выполняет задачи во многих контекстах, является сложной; выявление проблем безопасности и прогнозирование поведения такого интеллекта считается трудным [4]. В нем подчеркивается необходимость того, чтобы ИИ действовал безопасно в неизвестных ситуациях, экстраполируя последствия, основанные на этих ситуациях, и по существу думая этично, как это делал бы человеческий инженер.

В статье Хиббарда говорится, что при определении реакции искусственного интеллекта тесты должны проводиться в моделируемой среде с использованием «системы поддержки принятия решений», которая изучала бы цели обучения искусственному интеллекту в окружающей среде – с моделированием, выполненным без вмешательство человека. [3] Тем не менее, Хиббард также продвигает «стохастический» процесс [3], используя случайное распределение вероятностей, которое будет способствовать снижению его предсказуемости при определенных действиях (распределение вероятностей все еще можно анализировать статистически); это послужит защитой от другого искусственного интеллекта или людей, стремящихся манипулировать искусственным интеллектом, который в настоящее время создается.

В целом, предсказуемость искусственного интеллекта является важным фактором при его создании, особенно когда общий ИИ создается для выполнения крупномасштабных задач в самых разных ситуациях. Однако, хотя ИИ, который неясен в том, как он выполняет свои действия, нежелателен, инженерам следует учитывать и другую сторону – ИИ должен обладать определенной непредсказуемостью, которая, если не что-нибудь еще, будет сдерживать манипулирование таким ИИ для злая цель.

AI этическое мышление

Возможно, наиболее важным аспектом этики в ИИ является структура того, как искусственный интеллект будет мыслить этично и учитывать последствия своих действий – по сути, как инкапсулировать человеческие ценности и распознавать их развитие во времени в будущем. Это особенно верно для суперинтеллекта, где проблема этики может означать разницу между процветанием или разрушением.

Бостром и Юдковский утверждают, что для того, чтобы такая система могла мыслить этически, она должна реагировать на изменения в этике во времени и решать, какие из них являются признаком прогресса – приводя пример сравнения Древней Греции с современной общество использует рабство. [4] Здесь авторы опасаются создания этически «стабильной» системы, которая была бы устойчивой к изменению человеческих ценностей, и все же они не хотят систему, чья этика определяется случайным образом. Они утверждают, что для понимания того, как создать систему, которая ведет себя этично, нужно было бы «понять структуру этических вопросов» [4] таким образом, чтобы учесть этический прогресс, который еще даже не был задуман.

Хиббард предлагает статистическое решение, позволяющее ИИ иметь видимость этичного поведения; это формирует основной аргумент его статьи. Например, он выдвигает на первый план проблему людей во всем мире, которые придерживаются различных человеческих ценностей, что делает этические рамки искусственного интеллекта сложными. Он утверждает, что для решения этой проблемы человеческие ценности не должны выражаться в ИИ как набор правил, а должны изучаться с использованием статистических алгоритмов. [3] Однако он признает, что такая система, естественно, будет навязчивой (что противоречит частной жизни) и что опора на население в целом несет свои риски, используя в качестве примера рост нацистской партии через демократическое население [ 3].

В целом, использование искусственного интеллекта в соответствии с этическими нормами – это процесс с огромной сложностью; проникновение человеческих ценностей в действия искусственного интеллекта почти наверняка придало бы ему моральный статус, что могло бы ослабить этическую путаницу в некоторых продвинутых проектах (например, когда ответственность лежит после фатальной аварии с участием автомобиля с автоматическим управлением). Однако такое мероприятие само по себе является сложным и потребует самообучения, которое несет свои риски. Наконец, искусственный интеллект, чтобы быть по-настоящему этическим, должен был (по крайней мере) быть открытым для этических изменений и, скорее всего, должен был бы рассмотреть, какие части изменения являются полезными.

Чтобы инженеры могли решить этические проблемы, связанные с созданием искусственного интеллекта и использованием машинного обучения, они должны:

Обеспечьте прозрачность для проверки, учитывая конечных пользователей такой машины, и обеспечьте защиту от любого неожиданного поведения, которое быстро читается человеком, использующим ее. Они должны использовать алгоритмы, которые обеспечивают большую предсказуемость и могут быть проанализированы, по крайней мере, опытным программистом, даже если это жертвует эффективностью машинного обучения его среды – это уменьшит вероятность того, что его намерения будут неясными.

Учитывайте предсказуемость ИИ; тестирование его в другой моделируемой среде позволит наблюдать за тем, что будет делать ИИ, хотя и не обязательно в среде, моделирующей реальный мир. Предсказуемость в некоторой степени связана с прозрачностью инспекции, поскольку инженеры могут отслеживать намерения предсказуемого искусственного интеллекта. Однако, чтобы сделать искусственный интеллект устойчивым к нежелательным изменениям, важно, чтобы случайный элемент также был добавлен в алгоритм обучения ИИ.

Приложите усилия для изучения того, что лежит в основе этики и различных человеческих ценностей, которыми обладает современное общество, и начните думать о том, как ИИ сможет продолжать этический прогресс (вместо того, чтобы просто рассматривать этот прогресс как нестабильность).

Зарегистрируйся, чтобы продолжить изучение работы

    Поделиться сочинением
    Ещё сочинения
    Нет времени делать работу? Закажите!

    Отправляя форму, вы соглашаетесь с политикой конфиденциальности и обработкой ваших персональных данных.