Nienawiść nakręcona na Twitterze po przybyciu Elona Muska, a jego wpływ jest głębszy niż oczekiwano | Technologia
Liczba wiadomości nienawiści wzrosła o 50% od czasu, gdy Elon Musk kupił go w październiku 2022 r. Do czerwca 2023 r., Kiedy zablokował dostęp do danych sieciowych, wiadomości nienawiści również otrzymały o 70% więcej upodobania W tym okresie. Jeśli chodzi o miesiące przed zakupem, aktywność wzrosła tylko o 8%, a upodobania Ogólne o 4%, co pokazuje, że treść nienawiści wzrosła znacznie bardziej niż powinna, według środy naukowców z University of California w Berkeley i Los Angeles i University of Southern California.
Dane te kontrastują z publicznymi oświadczeniami Muska, które w grudniu 2022 r. Mówiły, że „wrażenia z powodu nienawiści dyskursu (to znaczy czas, w którym widać tweet) nadal zmniejszają się, pomimo znacznego wzrostu użytkowników”. Obecny użytkownik X mógł już przy niewielkim wysiłku, aby obserwować ten trend w ostatnich latach, ale ten artykuł jest pierwszym, który daje konkretną liczbę o tej nienawiści w sieci.
Pomimo tych jasnych liczb autorzy nie wiedzą, jaki jest konkretny powód „w przypadku komentarzy Muska na temat redukcji moderacji na platformie, dodał do faktu, że zwolnił wielu pracowników z zespołu zaufanego i bezpieczeństwa i rozwiązał bezpieczeństwo i rozwiązał bezpieczeństwo i rozwiązał bezpieczeństwo Rada doradcza, ten wzrost nie jest zaskoczony ” – mówi Dan Hickey, profesor University of California w Berkeley. „Ale z pewnością nie możemy powiedzieć, dlaczego dorastał” – dodaje.
Kolejnym z zjawisk udowodnionych przez tę grupę badaczy jest to, że aktywność botów nie zmniejszyła się i „potencjalnie wyrosła”, mówią autorzy. Eliminacja botów lub fałszywych rachunków była jednym z priorytetowych celów Musk i powodem, dla którego promował wypłatę subskrypcji. Nie udało mu się też spełnić swojego słowa.
„Chociaż trendy, które zgłaszamy na temat X, są niepokojące, platformy nie muszą mieć tak wysokiego poziomu mowy nienawiści lub fałszywej aktywności”, mówi Hickey. „Zawsze to platformy decydują o tym, jaki rodzaj treści jest akceptowalny i jak projektują ich algorytmy rekomendacji. Mają możliwość ulepszenia środowiska pouczającego promujące treści, które sprzyja współpracy zamiast podziału ” – dodaje.
Nienawidzę zakrada się w głowy
Te zmiany w X mogą wydawać się powiązane tylko z internetową siecią społecznościową i z niewielkim zaangażowaniem w nasze prawdziwe życie. Ale, zgodnie z innym nowym badaniem, nie jest to: ilość nienawiści, którą widzimy w sieciach i mediach, jest ważniejsza niż się wydaje, ponieważ dotyka obywateli bez w pełni świadomych.
Jak reaguje użytkownik, gdy widzi tyle mowy nienawiści na temat mniejszości? Czy powoduje to lęk lub niechęć, powoduje opór i sprawia, że chcesz działać? Bardzo mało. „Jest to niezwykle interesujący wynik, ponieważ pokazuje, że nie ma nic znaczącego, sama treść nie powoduje reakcji”, mówi Pablo Madriaza, chilijsko-kanadyjscy profesor z University of Quebec (Kanada), które właśnie opublikowały artykuły naukowe na temat nienawiści do nienawiści rozprawiać. „Jest tak banalizowany, znormalizowany” i im więcej jest, tym mniejsza wrażliwość na jego obecność.
Ale ta reakcja akceptacji anodyny nie jest najbardziej zaskakującą konsekwencją u osób w mowie nienawiści. Najbardziej niezwykłą rzeczą jest to, że tak naprawdę to, co widzisz i czytasz, wpływa to: osobista opinia na temat obrażonej mniejszości pogarsza się. „Ta mowa powoduje zmiany u osób narażonych bez treści samej, zapewniającej oczywistą reakcję” – mówi Madriaza. „Ludzie zmieniają stosunek do mniejszości, nie biorąc pod uwagę, że sama treść jest koniecznie negatywna” – dodaje.
Te wyniki są naukowym potwierdzeniem, że stare powiedzenie „kłamstw, które pozostaje” jest dosłownie realne. „To bardzo zaskakujące i też jest smutne. To nie jest dobrowolne. Nie decyduję, że będę nienawidzić mniejszości ”, wyjaśnia Madriaza, ale kończy się po spożyciu tego rodzaju wiadomości. W tych eksperymentach ludzie są narażeni na treść nienawiści i porównują się do innych, którzy jej nie widzieli. Następnie spędzaj kilka dni lub tygodni, a wpływ oryginalnych wiadomości jest mierzony; i potwierdź, że to wpływa.
Madriaza nie może wnioskować o tych badaniach, które powodują zmiany społeczne lub w głosowaniu analizowanych osób: „Jestem odczulony przed przemówieniem. Niekoniecznie postrzegam to jako coś pozytywnego lub negatywnego. Widzę to, widzę to, a potem moja opinia na temat Gais jest gorsza. Ale stamtąd powiązanie go z płaszczyzną polityczną, wyborami lub głosem, nie – dodaje.
Chociaż wydaje się to zaskakujące, nie jest: potwierdza klasyczne badania wpływu tego rodzaju mowy w innych społeczeństwach i innych mediach przed Internetem i sieciami. Madriaza zaobserwowała także sposób przeciwdziałania temu typowi mowy: SAT -CALED CONTRADISCUS. Podobnie jak nienawiść, empatyczne przesłania mają konkretne konsekwencje dla tego, co ludzie myślą o mniejszościach rasowych, seksualnych lub religijnych.
„W eksperymencie, w którym pokazano wiadomość, taką jak„ nie zdajesz sobie sprawy z bólu, który powodujesz ”, odwołując się do empatii ludzi, liczba obraźliwych tweetów spadła, co ostatecznie pokazałoby, że istnieje efekt moderacyjny”, mówi Madriaza. „Oznacza to, że to, co faworyzuje mowę nienawiści, działa również po drugiej stronie. To nie jest jednokierunkowe. Byłaby to nadzieja, choć jest to prowadzone przed rządami, ale przez ludzi ” – dodaje.