Алгоритмы угнетения - Википедия - Algorithms of Oppression

Алгоритмы угнетения
Алгоритмы Oppression.jpg
Первое издание
АвторСафия Ноубл
СтранаСоединенные Штаты
Языканглийский
ПредметРасизм, алгоритмы
ЖанрНехудожественная литература
ОпубликованоФевраль 2018 г.
ИздательNYU Press
Страницы256 стр.
ISBN978-1-4798-4994-9 (Твердая обложка)

Алгоритмы угнетения: как поисковые системы усиливают расизм это книга 2018 года Сафия Умоджа Нобл в области информатики, машинного обучения и взаимодействия человека с компьютером.[1][2][3][4]

Обзор

Алгоритмы угнетения текст, основанный на более чем шестилетнем академическом исследовании поиска Google алгоритмы. В книге рассматривается связь между поисковыми системами и дискриминационными предубеждениями. Ноубл утверждает, что поисковые алгоритмы являются расистскими и усугубляют социальные проблемы, потому что они отражают негативные предубеждения, существующие в обществе и людях, которые их создают.[5][6][7] Ноубл опровергает идею о том, что поисковые системы по своей природе нейтральны, объясняя, как алгоритмы в поисковых системах отдают предпочтение белому цвету, отображая положительные сигналы при поиске ключевых слов, таких как «белый», в отличие от «азиатский», «латиноамериканский» или «черный». Ее основной пример связан с результатами поиска «черные девушки» по сравнению с «белыми девушками» и с предубеждениями, отображаемыми в результатах.[8] Эти алгоритмы могут иметь отрицательные предубеждения против цветные женщины и другие маргинализированные группы населения, при этом затрагивая пользователей Интернета в целом, приводя к «расовому и гендерному профилированию, искажению информации и даже экономическому ограничению». В книге утверждается, что алгоритмы увековечивают угнетение и дискриминацию цветных людей, особенно цветных женщин.

Ноубл использует интерсекциональный феминистский подход Блэков к своей работе, изучая, как алгоритмы Google по-разному влияют на людей в зависимости от расы и пола. Интерсекционный феминизм принимает во внимание разнообразный опыт женщин разных рас и сексуальности при обсуждении их общества угнетения, а также то, как их различное происхождение влияет на их борьбу. Кроме того, аргумент Ноубла касается того, как расизм проникает в сам алгоритм Google, что верно для многих систем кодирования, включая распознавание лиц и программы медицинского обслуживания.[9] Многие новые технологические системы позиционируют себя как прогрессивные и беспристрастные. Ноубл возражает против этого и заявляет, что многие технологии, включая алгоритм Google, «отражают и воспроизводят существующее неравенство».[10]

Краткое содержание глав

Глава 1

В главе 1 Алгоритмы угнетения, Сафия Ноубл исследует, как Google функция автоматического предложения поиска деморализует. 18 сентября 2011 года мать искала в Google «темнокожих девочек», пытаясь найти забавные занятия, чтобы показать свою падчерицу и племянниц. К ее удивлению, результаты охватывают веб-сайты и изображение порно. Этот результат включает в себя ошибки данных, характерные для цветных людей и женщин, чьи монеты алгоритмическое угнетение. Ноубл также добавляет, что как общество мы должны иметь феминистка объектив, с расовым сознанием, чтобы понять «проблемные позиции по поводу безвредного использования технологий».[11]

Нобл также обсуждает, как Google может убрать человеческое наставление с первой страницы результатов, чтобы устранить любые возможные расовые оскорбления или несоответствующие изображения. Другой пример, обсуждаемый в этом тексте, - это публичный спор о результатах, которые были возвращены при поиске слова «еврей» в Google. Результаты включали ряд антисемитский страниц и Google не претендовали на владение способом предоставления этих идентификационных данных. Вместо этого Google призывал людей использовать слова «евреи» или «еврейский народ» и заявлял о действиях Белый сторонник превосходства группы находятся вне контроля Google.[8] Если страницы не являются незаконными, Google продолжит работу своего алгоритма, не удаляя страницы.

Noble размышляет об AdWords, который является рекламным инструментом Google, и о том, как этот инструмент может усилить предубеждения в Google. AdWords позволяет любому размещать рекламу на страницах поиска Google и обладает широкими возможностями настройки.[12] Сначала Google ранжирует объявления по релевантности, а затем отображает объявления на страницах, которые, как считается, имеют отношение к выполняемому поисковому запросу. Рекламодатель также может установить максимальную сумму денег в день, которую он может потратить на рекламу. Чем больше вы тратите на рекламу, тем выше вероятность, что ваше объявление окажется в топе. Следовательно, если рекламодатель увлечен своей темой, но вызывает споры, он может быть первым, кто появится в поиске Google.

Глава 2

В главе 2 Алгоритмы угнетения, благородный объясняет, что Google усугубил расизм и как они продолжают отрицать ответственность за него. Google возлагает вину на тех, кто создал контент, а также на тех, кто активно ищет эту информацию. Google алгоритм поддерживает социальное неравенство и стереотипы в отношении чернокожих, латинских и азиатских женщин, в основном благодаря дизайну и инфраструктуре Google, которые нормализуют белизну и мужчин. Она объясняет, что алгоритм Google классифицирует информацию, которая усугубляет стереотипы, а также поощряет гегемонистские нормы белых. Ноубл обнаружил, что после поиска темнокожих девушек первыми результатами поиска были распространенные стереотипы о черных девушках или категории, созданные Google на основе их собственного представления о черной девушке. Google скрывается за своим алгоритмом, который, как было доказано, увековечивает неравенство.

Глава 3

В главе 3 Алгоритмы угнетения, Сафия Ноубл обсуждает, как поисковая система Google объединяет несколько источников для создания угрожающих историй о меньшинствах. Она объясняет случай, когда она искала «преступления черным по белому» на Google.[13] Ноубл подчеркивает, что источники и информация, которые были обнаружены после поиска, указывали на консервативные источники, которые искажали информацию. Эти источники отображали расистскую и анти-черную информацию из сторонник превосходства белых источники. В конечном счете, она считает, что эта легкодоступная ложная информация подпитывала действия сторонников превосходства белой расы. Дилан Крыша, совершивший резню

Глава 4

В главе 4 Алгоритмы угнетения, благородный развивает свой аргумент, обсуждая способ, которым Google имеет жесткий контроль над личностью. В этой главе освещаются многочисленные примеры женщин, которые пристыдил в связи с их деятельностью в порноиндустрии, независимо от того, это было по взаимному согласию или нет. Она критикует способность Интернета влиять на будущее человека из-за его постоянного характера и сравнивает законы США о конфиденциальности с законами Европейского Союза, которые предоставляют гражданам «право забыть или быть забытыми».[14] При использовании поисковых систем, таких как Google, эти нарушения конфиденциальности непропорционально затрагивают женщин и цветных людей. Google утверждает, что они защищают наши данные, чтобы защитить нас от потери нашей информации, но не может решить, что происходит, когда вы хотите, чтобы ваши данные были удалены.

Глава 5

В главе 5 Алгоритмы угнетения, благородный переносит обсуждение из Google в другие источники информации, которые считаются достоверными и нейтральными. Ноубл говорит, что известные библиотеки, в том числе Библиотека Конгресса, поощрять белизну, гетеронормативность, патриархат и другие общественные стандарты считаются правильными, а альтернативы - проблемными. Она объясняет эту проблему, обсуждая случай между Дартмутским колледжем и Библиотекой Конгресса, когда «студенческая организация Коалиция за иммиграционную реформу, равенство (CoFired) и DREAMers» вела двухлетнюю битву за изменение терминологии библиотеки с «нелегальных иностранцев». «негражданам» или «нелегальным иммигрантам».[12] Позже Нобл обсуждает проблемы, возникающие из-за искажения и классификации, что позволяет ей усилить важность контекстуализации. Ноубл утверждает, что не только Google, но и все цифровые поисковые системы усиливают социальные структуры и дискриминационные предубеждения, и тем самым подчеркивает, насколько взаимосвязаны технологии и общество.[15]

Глава 6

В главе 6 книги Алгоритмы угнетения, Сафия Ноубл обсуждает возможные решения проблемы алгоритмический уклон. Сначала она утверждает, что государственная политика, проводимая местными и федеральными правительствами, уменьшит «информационную монополию» Google и отрегулирует способы фильтрации результатов поисковыми системами. Она настаивает на том, что правительства и корпорации несут основную ответственность за реформирование системных проблем, ведущих к алгоритмической предвзятости.

В то же время Ноубл осуждает общие неолиберальный аргумент, что алгоритмические предубеждения исчезнут, если больше женщин и расовых меньшинств войдут в отрасль в качестве программисты. Она называет этот аргумент «самодовольным», потому что он возлагает ответственность на людей, которые обладают меньшей властью, чем медиа-компании, и поощряет образ мышления, который она называет «большое количество данных оптимизм »или неспособность опровергнуть представление о том, что сами институты не всегда решают, а иногда сохраняют неравенство. Чтобы проиллюстрировать этот момент, она использует пример Кандиса, темнокожего парикмахера, чей бизнес терпит неудачи, потому что сайт обзора Yelp использовала против нее предвзятые методы рекламы и поисковые стратегии.

Она закрывает главу, призывая Федеральная комиссия связи (FCC) и Федеральная торговая комиссия (FTC), чтобы «регулировать порядочность» или ограничить количество расист, гомофобный, или же предвзято риторика в Интернете. Она призывает общественность избегать «дальтонизм »Идеологией в сторону расы, потому что она исторически стирала борьбу, с которой сталкивались расовые меньшинства. Наконец, она отмечает, что оптимизм в отношении больших данных не учитывает вред, который большое количество данных могут непропорционально влиять на сообщества меньшинств.

Вывод

В Алгоритмы угнетения, Сафия Ноубл исследует социальные и политические последствия результатов нашей Google поисковые запросы и наши модели поиска в Интернете. Ноубл оспаривает идею об Интернете как о полностью демократической или пострасовой среде. В каждой главе исследуются разные уровни алгоритмических предубеждений, формируемых поисковыми системами. Обрисовывая ключевые моменты и теории по всей книге, Алгоритмы угнетения не ограничивается только академическими читателями. Это позволяет произведениям Нобла охватить более широкую и инклюзивную аудиторию.

Критический прием

Критический прием для Алгоритмы угнетения был в основном положительным. в Лос-Анджелес Обзор книг Эмили Драбински пишет: «Из этих страниц вытекает ощущение, что алгоритмы угнетения Google составляют лишь одну из скрытых инфраструктур, управляющих нашей повседневной жизнью, и что остальные, вероятно, так же жестко закодированы с превосходством белых и женоненавистничеством, как и тот, который исследует Нобл ".[16] В PopMatters, Ганс Роллман описывает пишет, что Алгоритмы угнетения "продемонстрировать, что поисковые системы, в частности Google, это не просто несовершенные машины, а системы, разработанные людьми таким образом, чтобы копировать структуры власти западных стран, где они построены, со всем сексизмом и расизмом, встроенными в эти структуры ».[1] В Список книг, рецензент Лесли Уильямс заявляет: «Исследование Нобла должно побудить к размышлениям о нашей зависимости от коммерческих поисковых систем и цифровой социальной справедливости».[17]

В начале февраля 2018 г. Алгоритмы угнетения привлекла внимание прессы, когда официальный Twitter учитывать Институт инженеров по электротехнике и электронике выразил критику книги, сославшись на то, что тезис текста, основанный на тексте официального анонса книги на коммерческих сайтах, не может быть воспроизведен. Историк по связям с общественностью IEEE Александр Магун позже сообщил, что он не читал книгу, и принес извинения.[6]

Смотрите также

Рекомендации

  1. ^ а б "Не гуглите! Как поисковые системы усиливают расизм". PopMatters. 2018-01-30. Получено 2018-03-24.
  2. ^ «Закодированные предубеждения: как алгоритмы разжигают несправедливость». Financial Times. Получено 2018-05-10.
  3. ^ «Мнение | Ной Берлацкий: Как алгоритмы поиска усиливают расизм и сексизм». Новости NBC. Получено 2018-05-10.
  4. ^ "Как поисковые системы делают нас более расистскими". Vox. Получено 2018-05-10.
  5. ^ Основное внимание Нобл уделяет алгоритмам Google, хотя она также обсуждает Amazon, Facebook, Twitter и WordPress. Она вкладывает средства в контроль над тем, что пользователи видят и чего не видят. «Результаты поиска отражают ценности и нормы коммерческих партнеров и рекламодателей поисковых компаний и часто отражают наши самые низкие и унизительные убеждения, потому что эти идеи распространяются так свободно и так часто, что они нормализуются и чрезвычайно прибыльны». (Нобель, 36)
  6. ^ а б «Ученый вызывает фурор в Твиттере, критикуя книгу, которую он не читал». Получено 2018-02-08.
  7. ^ «Может ли алгоритм быть расистским? Обнаружение системного угнетения в эпоху Google». Цифровые тенденции. 2018-03-03. Получено 2018-03-24.
  8. ^ а б Благородный, Сафия (2018). Алгоритмы притеснения: как поисковые системы усиливают расизм. Нью-Йорк, Нью-Йорк, США: Издательство Нью-Йоркского университета. стр. гл. 2. ISBN  978-1-4798-3364-1.
  9. ^ D’Ignazio, C .; Кляйн, Л. (2019). Данные Феминизм. MIT Press. стр. Сила Глава 1: Сила Глава (стр. 21-47).
  10. ^ Бенджамин, Р. (2019). Гонка после технологий: инструменты аболиционистов для нового кодекса Джима. Медфорд, Массачусетс: Polity. п. 3.
  11. ^ Благородный, Сафия (2018). Алгоритмы притеснения: как поисковые системы усиливают расизм. Нью-Йорк, Нью-Йорк, США: Издательство Нью-Йоркского университета. п. 230. ISBN  978-1-4798-3364-1.
  12. ^ а б Благородный, Сафия Умоджа (20 февраля 2018 г.). Алгоритмы притеснения: как поисковые системы усиливают расизм. Нью-Йорк. С. 134–135. ISBN  9781479837243. OCLC  987591529.
  13. ^ Благородный, Сафия Умоджа. Алгоритмы притеснения: как поисковые системы усиливают расизм. Нью-Йорк. п. 112. ISBN  978-1-4798-3724-3. OCLC  987591529.
  14. ^ Благородный, Сафия Умоджа. Алгоритмы притеснения: как поисковые системы усиливают расизм. Нью-Йорк. п. 121. ISBN  978-1-4798-3364-1. OCLC  1017736697.
  15. ^ Благородный, Сафия Умоджа. Алгоритмы притеснения: как поисковые системы усиливают расизм. Нью-Йорк. ISBN  978-1-4798-3724-3. OCLC  987591529.
  16. ^ "Идеологии скучных вещей: Интернет и инфраструктуры рас - Книжный обзор Лос-Анджелеса". Лос-Анджелес Обзор книг. Получено 2018-03-24.
  17. ^ Алгоритмы угнетения: как поисковые системы усиливают расизм, Сафия Умоджа Нобл | Список книг онлайн.

внешняя ссылка