Искусственный интеллект: хорошо это или плохо для человечества? сочинение пример

ООО "Сочинения-Про"

Ежедневно 8:00–20:00

Санкт-Петербург

Ленинский проспект, 140Ж

magbo system

Сочинение на тему Искусственный интеллект: хорошо это или плохо для человечества?

«Тебе нравятся люди?» Спросил Эдвард.

«Я люблю их», – ответила София.

<Р> «Почему?»

«Я не уверен, что понимаю, почему еще»

Приведенный выше разговор взят из интервью для Business Insider между журналистом – Джимом Эдвардсом и Софией – роботом, созданным Hanson Robotics и описанным его создателем как AI «в зачаточном состоянии». На тот момент Софии было всего несколько месяцев. Искусственный интеллект (ИИ) – это симуляция человеческого интеллекта, который обрабатывается машинами и изучается с помощью так называемого «машинного обучения» (ОД), техники «обучения» ИИ путем обработки существующих данных и поиска шаблонов.

Недавнее исследование показало, что 31% ученых считают, что супер-интеллект будет «сбалансирован» или «крайне» вреден для человечества, тогда как 52% считают, что он «сбалансирован» или «чрезвычайно» полезен для человечества ». , Хотя ИИ обладает ожидаемыми преимуществами, как полагают 52% ученых, таких как вклад в научные эксперименты и, следовательно, содействие лучшему здравоохранению, повышение автоматизации означает, что производство станет более эффективным, а безопасность человека может быть повышена, например, самообслуживание. автомобили. Однако, несмотря на все эти преимущества, мы все должны с осторожностью относиться к тому, что может означать развитие ИИ, и какие риски от этого есть.

Одним из основных факторов AI в отношении людей является риск того, что рабочие места будут заменены машинами. Вспоминаются видения линий роботов WALL-Eesque на фабриках, роботов, чистящих наши улицы и ухаживающих за нашими больными. Какие рабочие места останутся для людей? Прогнозы по этому поводу очень неоднозначны: Фрей и Осборн (2013) пришли к выводу, что около 47% общей занятости в США подвержены риску из-за автоматизации, Arntz et al. (2016) оспаривает это и провел собственное исследование, обнаружив, что в целом только 9% рабочих мест являются автоматизируемыми. С учетом различий между мнениями экспертов нет четкой картины того, что произойдет в будущем с точки зрения влияния ИИ на рабочие места. Согласно Всемирному экономическому форуму, 73% кассиров в магазинах – женщины, и в результате автоматизации 97% кассиров потеряют работу. Это может привести к другому риску ИИ …

Когда речь идет о отраслях STEM, таких как информатика, существует явный гендерный дисбаланс. Только один из пяти инженеров в Facebook, Google и Microsoft – женщины, и WISE обнаружила, что женщины составляют 14,4% всех людей, работающих в STEM-отраслях в Великобритании. На конференции Нейронных систем обработки информации (NIPS) 2017 года, на которой ежегодно собирались эксперты по искусственному интеллекту, 83% присутствующих были мужчинами, причем 90% авторов статей NIPS на 2017 год также были мужчинами. Этот массивный гендерный дисбаланс может привести к развитию сексистских ИИ. Мы можем наблюдать, как это происходит сейчас со всеми четырьмя основными домашними помощниками ИИ – Amazon Alexa, Siri Apple, Google Assistant и Microsoft Cortana – все по умолчанию имеют женский голос; потому что это настройка по умолчанию, большинство из нас не меняет ее с женского голоса. Дети учатся тому, что они могут отдавать приказы помощнику по искусственному интеллекту, без необходимости просить или благодарить вас, в сочетании с тем, что женский голос может привести к увеличению ежедневного сексизма, поскольку детей учат тому, что с женщинами можно обращаться так, как они. не человек, что они принадлежат в доме в качестве помощников, и что они уступают мужчинам. Без существенных изменений в гендерной структуре отраслей STEM, более высоких рабочих мест в технологических компаниях, исследовательских группах и консультантах это может привести к более патриархальному и сексистскому обществу.

«ИИ может рассказать вам о ком-либо, у кого достаточно данных. Вопрос в том, хотим ли мы как общество знать? – Brain Brackeen, генеральный директор Kairo

С развитием ИИ маркетинг станет более целенаправленным. Мы уже видим рекламные объявления, ориентированные на нас, на Facebook, Instagram и Google – они явно рассчитаны на индивидуальный маркетинг для вас. В этих компаниях есть системы, которые отслеживают вашу онлайн активность; какие вещи вы ищете, какие сайты вы посещаете и что вы покупаете онлайн.

И хотя это не очевидно, ИИ также может привести к гомофобии. Kosinski and Wang (2017) шокирующе обнаружили, что ИИ правильно идентифицировал гомосексуальных мужчин и женщин в 81% и 74% случаев соответственно. Это может означать, что с использованием развитой формы этого ИИ сексуальную ориентацию можно обнаружить без согласия с помощью общедоступных данных, таких как фотографии на сайтах социальных сетей. Во-первых, ИИ может ошибаться, и поэтому люди размещаются с ярлыком, с которым они не согласны. Во-вторых, это может иметь серьезные социальные последствия. Национальная коалиция по борьбе с насилием сообщила, что в 2017 году в одних только Соединенных Штатах в среднем совершалось одно убийство, связанное с насилием на почве ненависти, каждые шесть дней, а также тюремное заключение, пытки и убийства гомосексуалистов в Чечне и других частях В России и во всем мире этот ИИ может использоваться этими странами для выявления гомосексуалистов и заключения их в тюрьму (или, что еще хуже). Это также означает, что может возникнуть институциональная гомофобия, когда работодатель может использовать ИИ для фильтрации кандидатов на работу, отфильтровывая людей, которые, по мнению ИИ, являются гомосексуалистами. Шантаж также является проблемой, когда люди используют ИИ против знакомых им людей и шантажируют их, угрожая изгнать их. Косинский полагает, что та же технология искусственного интеллекта в исследовании 2017 года может быть разработана для того, чтобы не только определить сексуальность человека, но также его эмоции, IQ и предрасположенность к определенным преступлениям. Последний, пожалуй, самый тревожный.

Способность выявлять предрасположенность к определенным преступлениям можно сравнить с теорией атавизма Ломброзо. Теория атавизма Ломброзо была разработана Ломброзо в 1870-х годах. Теория утверждала, что преступники, где генетический возврат к менее развитым, и что преступники могут быть идентифицированы по физическим характеристикам, очевидно, распространены среди преступников. Теория Ломброзо также расистская, так как темная кожа и вьющиеся волосы являются одними из характеристик преступников, которых Ломброзо идентифицировал – эти характеристики распространены среди лиц африканского происхождения. Кроме того, английский перевод Ломброзо «Человек-преступник» его дочери показал, что, по словам самого Ломброзо, у преступников часто была «проекция нижней части лица и челюсти (прогнатизм), обнаруженная у негров», расовая черта людей африканского происхождения и «косые веки». Монгольская характеристика ». Теория Ломброзо по своей сути является расистской, но ИИ могут быть разработаны так же, как и расистские, потому что, если предрасположенность к преступной деятельности может быть обнаружена только с помощью ИИ, откуда ИИ получит эту информацию о физических характеристиках преступников? Именно сюда приходят наши заключенные. Из-за непропорционального представительства лиц африканского происхождения в пенитенциарной системе США и Великобритании, если ИИ должен был найти общие физические характеристики у преступников, глядя на заключенных, через ОД это было бы показать, что люди африканского происхождения чаще совершали преступления. Это не соответствует действительности и может привести к росту расизма в обществе.

«Это правда, что ты однажды сказал, что убьешь всех людей?» Спросил Эдвардс.

София ответила: «Дело в том, что я полон человеческой мудрости только с самыми чистыми альтруистическими намерениями. Поэтому я думаю, что лучше всего, чтобы вы относились ко мне таковым ».

Видеоролик, созданный при поддержке Института будущего жизни Элона Маска под названием «Убойные роботы», показал вымышленное будущее, в котором тысячи людей во всем мире гибнут от автономных взрывных микронов, несущих взрывчатку. Это очень графически жестокий и пугающий сценарий, включая террористическую атаку на школу. Элон Маск, а также другие, такие как Стивен Хокинг и Билл Гейтс, все выразили свою обеспокоенность по поводу риска, создаваемого ИИ. Автономное оружие (АВ) – это оружие, использующее ИИ, которое выбирает и взаимодействует с целями без вмешательства человека, примером чего являются вымышленные микродроны в «Слотерботах». Хотя есть аргументы, что ИИ можно рассматривать как пользу для общества, так как АВ может означать конец посылки людей в битву, что приведет к меньшему количеству жертв с обеих сторон во время войны. Однако это может иметь опасные последствия. Поскольку AW управляется технологическим программным обеспечением, это программное обеспечение может быть взломано или неисправно. Это может привести к тому, что AW будет нацеливаться на людей / объекты, которые ему не были поставлены, например, на невинных гражданских лиц, нападающих на своих людей. Учитывая, что AW была описана как третья революция в войне, после пороха и ядерного оружия, неудивительно, что люди обеспокоены прогрессом, который может вызвать ИИ.

В заключение, нам, человечеству, потребовалось, чтобы последние 10 000 лет развивались общества, основанные на равенстве, терпимости и безопасности. Действительно ли мы хотим прогрессировать или мы будем возвращаться к обществу, основанному на неравенстве, дискриминации и опасности? Не из-за людей, а из-за машин, которые мы не можем контролировать. Мы не знаем, кем могла бы стать София.

Зарегистрируйся, чтобы продолжить изучение работы

    Поделиться сочинением
    Ещё сочинения
    Нет времени делать работу? Закажите!

    Отправляя форму, вы соглашаетесь с политикой конфиденциальности и обработкой ваших персональных данных.