Являются ли роботы решением для равенства в процессе собеседования? сочинение пример

ООО "Сочинения-Про"

Ежедневно 8:00–20:00

Санкт-Петербург

Ленинский проспект, 140Ж

magbo system

Сочинение на тему Являются ли роботы решением для равенства в процессе собеседования?

Стремясь понять человеческий разум, философы и ученые одинаково искали сложные технологии, помогающие объяснить психологические явления. В средневековые времена философы сравнивали мозг с гидравлическим насосом, на который во многом повлияла распространенность гидравлических систем как недавно обнаруженная инновация. В середине 19-го века модели мозга напоминали технологию телеграфа, получившего название «викторианский Интернет», поскольку понимание нейронной активации, текущей по нервам, сравнивалось с информацией, текущей по телеграфным проводам. Сегодня многие рассматривают компьютеры и роботов как потенциальные модели мозга, о чем свидетельствует популяризация вычислительной модели разума и достижения в области искусственного интеллекта. Хотя аналогии предлагают простую основу для сравнения обширных загадок мозга, они также могут сделать сложную технологию и, по доверенности, мозг магическими и недоступными (Андерсон). В результате наше общество прославляет технологии как безошибочные, беспристрастные и надежные. Следовательно, мы создали больше ролей для технологий, в частности, для роботов, чтобы стать еще более вовлеченными в нашу жизнь.

Одна из занятых человеком ролей, которая начинает давать обещания по замене робота, – это процесс собеседования. В последние годы австралийский университет La Trobe заключил партнерские отношения с японской корпорацией NEC и Киотским университетом для создания коммуникационных роботов с эмоциональным интеллектом для проведения собеседований для компаний. Эти роботы обладают способностью воспринимать выражения лица, речь и язык тела, чтобы определить, являются ли потенциальные сотрудники «эмоционально пригодными и культурно совместимыми» («Робот Матильда»). Первые роботы были названы Матильда и Джек, но теперь к ним присоединились похожие роботы Софи, Чарльз, Бетти и два дополнительных безымянных робота (Никлесс). Д-р Раджив Хосла, директор Исследовательского центра компьютеров, коммуникаций и социальных инноваций La Trobe, говорит, что «ИТ [информационные технологии] – такая распространенная часть нашей жизни, мы считаем, что если вы привнесете такие устройства, как Софи, в организацию это может улучшить эмоциональное благополучие людей ». Компьютеры и роботы часто ограничиваются анализом количественных данных, но коммуникационные роботы, такие как Матильда, способны анализировать людей и их качественные, эмоциональные свойства. Эти эмоционально интеллектуальные роботы демонстрируют многообещающий потенциал для устранения неравенства и предвзятости в процессе отбора сотрудников, но они смогут сделать это только при определенных параметрах.

Эмоционально интеллектуальные роботы могут помочь уменьшить неравенство в сфере занятости, потому что они не имеют скрытых предубеждений, как люди. К сожалению, наши предрассудки часто мешают нам принимать справедливые и равноправные решения, что особенно заметно в процессе собеседования. В интервью научный корреспондент Национального общественного радио Шанкар Ведантам описывает результаты исследований, связанных с влиянием предвзятости в процессе интервью. В одном исследовании исследователи обнаружили, что время дня, когда проводится собеседование, оказывает глубокое влияние на то, выбран ли кандидат на работу или нет (Inskeep). Это означает, что аспект, кажущийся несущественным, как циркадные ритмы, один из наших самых примитивных инстинктов, может быть соучастником в нашем суждении. Профессиональная деятельность служит основным средством получения дохода и показателем статуса. Учитывая важность этой роли, мы должны стремиться создать справедливую систему для всех соискателей, но полная справедливость может оказаться невозможной, если невозможно контролировать человеческие предрассудки.

Помимо основных физиологических факторов, эти предрассудки распространяются и на расовые предрассудки. В 2013 году Джон Нанли, Адам Пью, Николас Ромеро и Ричард Силс провели исследование, чтобы понять рынок труда выпускников колледжей за расовыми границами. Они подали 9 400 заявлений о приеме на работу в Интернете от имени поддельных выпускников колледжей с разбивкой по специальностям колледжа, опыту работы, полу и расе. Для обозначения расы половине заявителей были даны типично белые звуки, такие как «Коди Бейкер», в то время как другая половина получила типично черные звуки, такие как «ДеШон Джефферсон». Несмотря на одинаковую квалификацию поддельных заявителей, у чернокожих заявителей было на 16% меньше шансов быть отозванными на собеседование (Арендс). Поэтому расовые предрассудки, даже непреднамеренные и неосознанные, могут привести к несправедливости в процессе собеседования.

В свете этих скрытых предубеждений, которые влияют на процесс отбора сотрудников, роботы являются жизнеспособным вариантом для проведения объективных и справедливых собеседований. Несмотря на то, что роботов часто считают машинами для удобства человека, у них есть потенциал для выравнивания возможностей, особенно в ситуациях, когда люди думают и ведут себя нерационально. Роботы работают по чисто логическим алгоритмам, которые позволяют им не поддаваться иррациональным предубеждениям и строго придерживаться определенных критериев. Поскольку полномочия кандидата не всегда могут быть измерены количественно и, следовательно, подвержены качественным искажениям, для них может быть наиболее справедливо оценить их с помощью объективной машины.

Однако использование роботов с целью устранения предвзятости не является панацеей, и к ним следует подходить с осторожностью. Хотя роботы действуют логически, они действуют только в пределах параметров своих запрограммированных алгоритмов. Если программа закодирована как изначально смещенная, то из этого следует, что машина, на которой она работает, будет увековечивать это смещение. В прошлом году Amazon обвинили в использовании «расистского алгоритма», который исключает районы проживания меньшинств в крупных городах из службы Prime Free Same-Day Delivery, одновременно предлагая специализированные услуги преимущественно белым кварталам. Данные алгоритма, связывающие максимальную прибыль с преимущественно белыми кварталами, были прямым результатом десятилетий системного расизма, который привел к джентрификации между районами с высоким доходом, белыми и низкими доходами, меньшинствами. По иронии судьбы, районы с низким доходом, которые были исключены из этой услуги, больше всего выиграли бы от бесплатных дополнительных услуг, в то время как районы с высоким уровнем дохода, которые получили его, с большей вероятностью имели бы более легкий доступ к недорогим, качественным товарам. В то время как Amazon утверждал, что они использовали только факты, которые утверждали, что они не будут получать прибыль в районах, которые они исключили (Gralla), в конечном итоге они использовали алгоритм, основанный на социально-экономически предвзятых данных, для увековечивания расистских моделей.

Другим похожим и, возможно, более уместным примером предвзятого программирования является эксперимент Twitter-робота Microsoft в Twitter. В прошлом году Microsoft выпустила программное обеспечение для чат-ботов под названием Tay, которое было разработано для взаимодействия с подростками в Twitter с помощью имитации их языка. Вскоре после его выхода тролли в Твиттере заставили Тэя высказаться о расистских оскорблениях и других уничижительных заявлениях. Поскольку Тэй опубликовал больше оскорбительных твитов, Microsoft отключила программу и выпустила заявление с извинениями. В своем заявлении Питер Ли, вице-президент корпорации Microsoft Research, извинился за отсутствие контроля за программой, заявив, что «системы ИИ питаются как от позитивного, так и от негативного взаимодействия с людьми. В этом смысле проблемы не только технические, но и социальные »(Фицпатрик). В заявлении Ли говорится о широко распространенной проблеме создания искусственного интеллекта, на которую не влияют те самые предрассудки, которых он создавал, чтобы избежать. Таким образом, коммуникационные роботы являются жизнеспособным вариантом для создания более справедливого интервью; Тем не менее, необходимо признать, что роботы также чувствительны к предубеждениям человека. В случае расистского алгоритма Амазонки роботы использовали данные, отражающие закономерности расовой джентрификации; в случае с Tay от Microsoft чат-бот имитировал уничижительный язык других пользователей Twitter. Оба случая служат для освещения всепроникающей и многогранной роли предвзятости человека в отношении искусственного интеллекта, который часто ошибочно считают объективным и справедливым. Искусственный интеллект податлив и легко манипулируется предрассудками; таким образом, создание коммуникационных роботов, которые не отражают предрассудков, должно быть главным приоритетом для Университета Ла Троб и других, которые создают подобные машины.

Две цели, которые ранее упоминались в отношении коммуникационных роботов, заключались в том, чтобы проверить, что потенциальные работники будут «эмоционально настроены и культурно совместимы» («Робот Матильда»). Но что значит быть «эмоционально настроенным» или «культурно совместимым»? Существует ряд потенциальных факторов, которые могут повлиять на то, как человек выражает эмоции, такие как культурное наследие, пол и психическое здоровье, но формулировка заявления Университета Ла Троб неясно, учитывают ли его коммуникационные роботы эти факторы или если они наказывать тех, кто не подходит по эмоциональному шаблону идеального кандидата. Например, если квалифицированные кандидаты на работу, которые не являются родными для определенной культуры, не выражают нормативный язык тела и, следовательно, не проходят тестирование Матильды на основании культурной несовместимости, то предполагается, что иностранцы не должны быть наняты. Поскольку многие американские компании начинают воспринимать концепцию разнообразной рабочей среды, коммуникационные роботы в процессе собеседования, основанные на специальном алгоритмическом шаблоне идеального кандидата, могут препятствовать разнообразию, а не стремиться к равенству и прогрессу. К сожалению, доступная информация о коммуникационных роботах Университета Ла Троб ограничена, и на эти вопросы невозможно дать конкретный ответ. Однако все компании, которые создают искусственный интеллект, должны стремиться к прозрачности и постоянно подвергать сомнению себя на протяжении всего процесса проектирования, чтобы они могли помочь, а не препятствовать продвижению к равенству, создавая действительно объективные машины.

В заключение, коммуникационные роботы, такие как Матильда, показывают потенциал, чтобы помочь продвинуться к равенству в поиске работы. Однако алгоритмы, на которых они работают, должны тщательно контролироваться, поскольку искусственный интеллект легко подвержен влиянию предвзятости человека. Чтобы гарантировать, что эти роботы способны продвигать справедливость и равенство, технологическая индустрия должна активно искать разнообразную среду, в которой представлены все виды людей, чтобы различные голоса могли перепроверить процесс инноваций, чтобы предотвратить такие инциденты, как расизм Амазонки. алгоритм и чат-бота от Microsoft Tay. Кроме того, создатели Matilda должны стремиться точно определить, что значит быть «эмоционально пригодным и культурно совместимым», чтобы гарантировать, что некоторым людям не присуще и произвольно дано значительное преимущество при опросе коммуникационными роботами («Matilda the Robot») , Признание глубокого влияния человеческого предубеждения на искусственный интеллект может помочь нам понять технологию на более глубоком уровне, чем просто восхищаться ею как магией, не тронутой человеческими предубеждениями. Возможно, это первый шаг к демистификации компьютерных технологий и, в конечном итоге, человеческого разума.

Зарегистрируйся, чтобы продолжить изучение работы

    Поделиться сочинением
    Ещё сочинения
    Нет времени делать работу? Закажите!

    Отправляя форму, вы соглашаетесь с политикой конфиденциальности и обработкой ваших персональных данных.