Согласно новому углубленному исследованию, которое должно было выяснить влияние социальных сетей на политическую поляризацию, было заявлено, что изменения в алгоритмах Facebook* и Instagram* существенно не повлияли на политические взгляды людей, несмотря на то, что эти настройки, естественно, изменили содержание лент пользователей.
Исследователи настроили алгоритмы социальных сетей нескольких десятков тысяч добровольцев, чтобы выяснить, повлияло ли это на их политические взгляды во время выборов в США в 2020 году.
Первые результаты, полученные командой из нескольких университетов, работающей в тандеме с исследователями Meta*, позволили взглянуть на влияние алгоритмов социальных сетей и как сильно это может повлиять на их политические взгляды.
Талия Страуд из Техасского университета в Остине и Джошуа Такер из Нью-Йоркского университета, заявили, что настройка алгоритмов, которые помогают ранжировать новости и элементы поиска в социальных сетях, оказывало влияние на то, что люди видели в своих лентах.
Но это не обязательно меняло их политические убеждения.
«Теперь мы знаем, насколько сильно алгоритм влияет на формирование опыта людей на платформе, но мы также знаем, что изменение алгоритма даже на несколько месяцев вряд ли изменит политические взгляды людей», — заявили Страуд и Такер в совместном заявлении.
Чего мы не знаем — почему это происходит? Отсутствие серьезного влияния может быть связано с тем, что промежуток времени, на который были изменены алгоритмы, оказался недостаточным. Есть также и другая версия — эти платформы существуют уже несколько десятилетий, и хотя и Facebook, и Instagram являются влиятельными источниками информации, они не стали единственными.
Новое исследование, являющееся частью исследования влияния Facebook* и Instagram* на президентские выборы в США в 2020 году, было опубликовано в серии из четырех статей в Science and Nature в четверг.
Несмотря на участие Meta (Meta Platforms* признана в России экстремистской организацией и запрещен), в академических кругах заявили, что последнее слово в принятии решений по написанию и систематизации результатов осталось за учеными.
Экспериментируя с различными лентами в социальных сетях
Исследователи экспериментировали с тремя параметрами в том, как пользователи Facebook и Instagram просматривали контент во время президентских выборов в США в 2020 году.
Эксперименты с десятками тысяч пользователей из США, давших согласие, включали в себя
- прекращение показа дублирующих публикаций
- смену алгоритмической ленты на хронологическую
- сокращение доступа к контенту пользователей со сходными взглядами и к френдам
Исследователи обнаружили, что удаление повторно публикуемого контента, например, уменьшило количество политических новостей, а также общее количество кликов и реакций. По их словам, это действие также уменьшило количество кликов на новостные рассылки.
Между тем, переход на хронологические каналы вместо контента, отобранного на основе алгоритма, «значительно сократил» общее время, проведенное пользователями на платформе.
В третьем эксперименте исследователи на 30% сократили количество показываемого контента единомышленников, что, по их словам, увеличило доступ к другим источникам информации и новостей, но все же не изменило идеологию пользователей.
«Эти точно рассчитанные результаты свидетельствуют о том, что, хотя доступ к контенту из источников-единомышленников в социальных сетях является обычным явлением, снижение его распространенности во время президентских выборов в США в 2020 году не привело к соответствующему уменьшению поляризации убеждений или смене установок избирателей», — говорится в статье, опубликованной в Nature.
В другой работе, опубликованной в Science, ученые проанализировали данные 208 миллионов пользователей Facebook в США, чтобы выяснить, какие именно новости они видели/просматривали на этой платформе во время выборов.
Они обнаружили значительную идеологическую сегрегацию между правой и левой аудиториями в США, «при этом значительная часть новостной экосистемы потребляется исключительно консерваторами [республиканцами]«.
«Большая часть дезинформации, выявленной специальной программой проверки фактов Meta, существует в этом однородно консервативном сегменте соцсети», — говорят авторы исследования.
Уход от ответственности…
…или наша традиционная ложка дёгтя. Социальные сети уже давно подвергаются критике за разжигание идеологической поляризации, но Facebook* всячески пытается опровергнуть подобные утверждения, считая влияние социальных сетей не таким уж и серьёзным.
В заявлении, опубликованном в четверг, президент Meta по глобальным связям Ник Клегг написал, что новые исследования:
…добавили [фактов] к постоянно растущему объему доказательств, показывающих, что существует мало свидетельств того, что ключевые особенности платформ Meta* сами по себе вызывают вредную «эмоциональную» поляризацию или оказывают значимое влияние на ключевые политические установки, убеждения или поведение.
Free Press, американская некоммерческая организация, выступающая за реформу СМИ, обвинила Meta* в том, что она искажает результаты исследований, добавив, что они были ограниченными и проводились в течение «узкого отрезка времени».
«Руководители Meta* используют ограниченные исследования как доказательство того, что они не должны разделять вину за растущую политическую поляризацию [населения] и насилие», — сказала Нора Бенавидес, старший юрисконсульт Free Press и директор по цифровому правосудию и гражданским правам.
[Заранее] просчитанный ход этих опросов просто является частью продолжающегося ухода от ответственности [соцсетей] за тот вред политической дезинформации, которая распространилась в Интернете и подорвала свободные, справедливые и безопасные выборы во всем мире.
*Компания Meta Platforms признана в России экстремистской организацией и запрещена.
Другие хорошие новости в мире
Лидеры мнений буду сообщать какие фильтры для лица они использовали
Использованы материалы:
https://news.utexas.edu/2023/07/27/first-findings-shed-light-on-role-of-social-media-algorithms-in-2020-election/
https://www.nature.com/articles/s41586-023-06297-w
https://about.fb.com/news/2023/07/research-social-media-impact-elections/