Что такое искусственный интеллект (ИИ)? сочинение пример

ООО "Сочинения-Про"

Ежедневно 8:00–20:00

Санкт-Петербург

Ленинский проспект, 140Ж

magbo system

Сочинение на тему Что такое искусственный интеллект (ИИ)?

ЧТО ТАКОЕ ИИ?

От СИРИ до автомобилей с автоматическим управлением искусственный интеллект (ИИ) быстро развивается. В то время как научная фантастика часто изображает ИИ как роботов с человеческими характеристиками, ИИ может включать в себя все, что угодно, от алгоритмов поиска Google до Уотсона от IBM до автономного оружия. Сегодня искусственный интеллект известен как узкий ИИ (или слабый ИИ), поскольку он предназначен для выполнить узкую задачу (например, только распознавание лиц или только поиск в Интернете или только за рулем автомобиля). Однако долгосрочной целью многих исследователей является создание общего ИИ (AGI или сильный ИИ). В то время как узкий ИИ может превзойти людей по любой конкретной задаче, например, поиграть в шахматы или решить уравнения, АГИ превзошел бы людей практически в любой познавательной задаче.

ПОЧЕМУ ИССЛЕДОВАНИЕ БЕЗОПАСНОСТИ AI?

В ближайшей перспективе цель сохранения благотворного влияния ИИ на общество мотивирует исследования во многих областях, от экономики и права до технических тем, таких как проверка, валидность, безопасность и контроль. Принимая во внимание, что если ваш ноутбук сломается или будет взломан, это может быть немного больше, чем незначительная неприятность, тем более важно, чтобы система искусственного интеллекта делала то, что вы хотите, если она управляет вашим автомобилем, вашим самолетом, вашим кардиостимулятором, вашей автоматической торговлей система или ваша электросеть. Еще одной краткосрочной задачей является предотвращение разрушительной гонки вооружений в смертоносном автономном оружии. В долгосрочной перспективе важным вопросом является то, что произойдет, если стремление к сильному ИИ будет успешным, а система ИИ станет лучше, чем люди, при выполнении всех когнитивных задач. Как указал И.Я. Хорошо, что в 1965 году разработка более интеллектуальных систем искусственного интеллекта сама по себе была познавательной задачей. Такая система может потенциально подвергаться рекурсивному самосовершенствованию, вызывая взрыв интеллекта, оставляющий человеческий интеллект далеко позади. Изобретая революционно новые технологии, такая суперинтеллект может помочь нам искоренить войну, болезни и бедность, и поэтому создание сильного ИИ может стать крупнейшим событием в истории человечества. Однако некоторые эксперты выразили обеспокоенность тем, что это может быть и последним, если мы не научимся согласовывать цели ИИ с нашими до того, как он станет суперинтеллектуальным.

Некоторые задаются вопросом, будет ли когда-нибудь достигнут сильный ИИ, а другие настаивают на том, что создание сверхинтеллектуального ИИ гарантированно будет полезным. В FLI мы признаем обе эти возможности, но также осознаем возможность того, что система искусственного интеллекта намеренно или непреднамеренно причинит большой вред. Мы верим, что сегодняшние исследования помогут нам лучше подготовиться и предотвратить такие потенциально негативные последствия в будущем, таким образом, используя преимущества ИИ, избегая при этом ловушек.

КАК МОЖНО БЫТЬ ОПАСНЫМ?

Большинство исследователей сходятся во мнении, что сверхразумный ИИ вряд ли проявит человеческие эмоции, такие как любовь или ненависть, и что нет никаких оснований ожидать, что ИИ станет преднамеренно доброжелательным или злонамеренным. Вместо этого, рассматривая, как ИИ может стать риском, эксперты считают, что наиболее вероятны два сценария: ИИ запрограммирован на что-то разрушительное: автономное оружие – это системы искусственного интеллекта, которые запрограммированы на убийство. В руках не того человека, это оружие может легко привести к массовым жертвам. Более того, гонка вооружений ИИ может непреднамеренно привести к войне ИИ, что также приведет к массовым жертвам. Чтобы избежать поражения от врага, это оружие было бы спроектировано так, чтобы его было очень трудно просто «выключить», чтобы люди могли правдоподобно потерять контроль над такой ситуацией. Этот риск присутствует даже при узком ИИ, но возрастает по мере увеличения уровня интеллекта и автономности ИИ.

ИИ запрограммирован на что-то полезное, но он развивает деструктивный метод достижения своей цели: это может произойти, когда мы не сможем полностью согласовать цели ИИ с нашими, что поразительно сложно. Если вы попросите послушную интеллектуальную машину как можно быстрее доставить вас в аэропорт, вас могут преследовать вертолеты и покрывать рвотой, делая не то, что вы хотели, а буквально то, что вы просили. Если над суперинтеллектуальной системой будет поставлен амбициозный геоинженерный проект, она может нанести ущерб нашей экосистеме в качестве побочного эффекта и рассматривать попытки человека остановить ее как угрозу, которую нужно встретить.

Как показывают эти примеры, забота о продвинутом искусственном интеллекте – это не злорадство, а компетентность. Сверхинтеллектуальный ИИ будет чрезвычайно хорош в достижении своих целей, и если эти цели не соответствуют нашим, у нас есть проблема. Вы, вероятно, не злой муравей ненавистник, который наступает на муравьев по злому умыслу, но если вы отвечаете за проект по гидроэнергетике на зеленой энергии, и в регионе есть муравейник, который нужно затопить, слишком плохо для муравьев. Основная цель исследований безопасности ИИ – никогда не ставить человечество в положение этих муравьев.

ПОЧЕМУ ПОСЛЕДНИЕ ИНТЕРЕСЫ В БЕЗОПАСНОСТИ AI

Стивен Хокинг, Элон Маск, Стив Возняк, Билл Гейтс и многие другие крупные деятели науки и техники недавно выразили обеспокоенность в средствах массовой информации и в открытых письмах о рисках, связанных с ИИ, к которым присоединились многие ведущие исследователи ИИ. Почему тема внезапно появляется в заголовках? Идея о том, что стремление к сильному ИИ в конечном итоге увенчается успехом, долгое время считалась научной фантастикой, веками или более. Однако, благодаря недавним прорывам, многие вехи ИИ, которые эксперты рассматривали как десятилетия всего пять лет назад, теперь достигнуты, что заставляет многих экспертов серьезно относиться к возможности суперинтеллекта в нашей жизни. В то время как некоторые эксперты до сих пор полагают, что ИИ на уровне человека находятся на расстоянии веков, большинство исследований ИИ на конференции в Пуэрто-Рико 2015 года предполагали, что это произойдет до 2060 года. Поскольку для завершения необходимых исследований в области безопасности могут потребоваться десятилетия, разумно начинать их сейчас . Поскольку ИИ обладает потенциалом стать умнее любого человека, у нас нет надежного способа предсказать, как он будет себя вести. Мы не можем использовать прошлые технологические разработки как основание, потому что мы никогда не создавали ничего, что могло бы, вольно или невольно, перехитрить нас.

Лучшим примером того, с чем мы можем столкнуться, может быть наша собственная эволюция. Теперь люди контролируют планету не потому, что мы самые сильные, самые быстрые или самые большие, а потому, что мы самые умные. Если мы больше не самые умные, мы уверены, что останемся под контролем? Позиция FLI заключается в том, что наша цивилизация будет процветать до тех пор, пока мы выиграем гонку между растущей технологической мощью и мудростью, с которой мы справляемся. В случае технологии ИИ, позиция FLI заключается в том, что лучший способ победить в этой гонке – не препятствовать первым, а ускорить второе, поддерживая исследования безопасности ИИ.

Лучшие мифы о продвинутом искусственном интеллекте

Происходит увлекательный разговор о будущем искусственного интеллекта и о том, что он будет / должен значить для человечества. Существуют захватывающие противоречия, в которых ведущие мировые эксперты не согласны, такие как: будущее влияние ИИ на рынок труда; если / когда будет разработан ИИ на уровне человека; приведет ли это к разведывательному взрыву; и стоит ли это то, что мы должны приветствовать или бояться. Но есть также много примеров скучных псевдо-противоречий, вызванных недопониманием людей и разговорами друг с другом. Чтобы сосредоточиться на интересных противоречиях и открытых вопросах, а не на недоразумениях, давайте разберемся с некоторыми из самых распространенных мифов.

Зарегистрируйся, чтобы продолжить изучение работы

    Поделиться сочинением
    Ещё сочинения
    Нет времени делать работу? Закажите!

    Отправляя форму, вы соглашаетесь с политикой конфиденциальности и обработкой ваших персональных данных.