Meta przyjęła w STF ton przeciwny do Zuckerberga – 12.01.2025 – Władza
Podczas demonstracji przed (Federalnym Sądem Najwyższym) w listopadzie ubiegłego roku firma użyła tonu odmiennego od tego, jakiego używa obecnie dyrektor generalny firmy , mówiąc o swoich działaniach moderacyjnych.
Zamiast mówić o „cenzurze” czy zarzucać występowanie dużej liczby błędów i nadmiernych ograniczeń, Meta w toku podejmowanych działań broniła swoich proaktywnych działań.
Stwierdzając, że „moderacja treści prowadzona przez Meta jest skuteczna” oraz że stosowanie jej zasad „obejmuje spójne i kompleksowe podejście”, firma próbowała odeprzeć pogląd, jakoby miała miejsce bierność z jej strony w walce z treściami szkodliwy.
Ton jest zupełnie inny niż Zuckerberga. „Zbudowaliśmy wiele skomplikowanych systemów do moderowania treści. Problem ze złożonymi systemami polega jednak na tym, że popełniają błędy” – powiedział 7-go, ogłaszając zmianę stanowiska firmy. „Dotarliśmy do punktu, w którym jest mnóstwo błędów i mnóstwo cenzury”.
Ogłosił również, że przestanie używać automatycznych filtrów w przypadku naruszeń o niskiej wadze: „Problem polega na tym, że filtry popełniają błędy i usuwają wiele treści, których nie powinny” – powiedział właściciel firmy.
W dokumencie złożonym do STF zaledwie dwa miesiące wcześniej firma podkreśliła, że jej działalność moderacyjna opierała się na „wykrywaniu naruszeń na podstawie raportów użytkowników, technologii (z wykorzystaniem sztucznej inteligencji) i analizy ludzkiej” oraz że „Rezultaty tych wysiłków są przytłaczające.”
Stwierdzono również, że „pokazuje to, że w sytuacjach obiektywnych i przewidzianych w warunkach korzystania narzędzia istnieją i są skuteczne w zwalczaniu rozpowszechniania szkodliwych treści. Należy zauważyć, że 98,30% tych treści zostało usuniętych w drodze proaktywnych działań”. .
A Arkusz zapytał Meta, jakie fakty spowodowały zmianę poglądu na temat własnych działań moderacyjnych spółki w tak krótkim czasie. Zapytał także, dlaczego we wcześniejszych demonstracjach firma nie ujawniała szacunków błędów moderacji.
Meta odpowiedziała, że nie będzie komentować.
– będący częścią Meta, wraz z Instagramem, Threads i WhatsApp – jest jedną z części akcji, która .
Artykuł 19, będący głównym punktem dyskusji sądu, stanowi, że sieci są zobowiązane do zapłaty odszkodowania za treści opublikowane przez osobę trzecią jedynie wówczas, gdy po decyzji sądu nakazującej ich usunięcie utrzymają te treści w antenie.
Zasadę tę zatwierdzono wówczas w trosce o zapewnienie wolności wypowiedzi. Jednym z uzasadnień jest to, że sieci byłyby zachęcane do usuwania legalnych treści w obawie przed pociągnięciem ich do odpowiedzialności.
Krytycy twierdzą, że zasada ta zniechęca firmy do zwalczania szkodliwych treści i chcą zwiększyć szanse na odpowiedzialność.
Meta broni konstytucyjności obecnego przepisu, ale jednocześnie stara się uchronić przed krytyką, że będzie usuwać problematyczne wpisy dopiero po wydaniu postanowienia sądu.
„Artykuł 19 MCI nie powoduje anarchii środowiska. Jak już stwierdzono, nie uniemożliwia on proaktywnym działaniom dostawców mających na celu ograniczenie ryzyka wykorzystywania Internetu do nielegalnych celów” – stwierdza firma w tym samym oświadczeniu.
Ton zarezerwowany dla sądownictwa również wykazuje istotne różnice. W pozwie przed Sądem Najwyższym, broniąc znaczenia brazylijskiego modelu Internet Civil Framework, spółka określiła sądownictwo jako „organ konstytucyjnie wyznaczony do wykonywania tego wyroku wyważającego, zapewniając, że prawa podstawowe będące w konflikcie są zharmonizowane w sposób sprawiedliwy i zrównoważony sposób”.
Ponieważ mogą nakazać firmom ciche usuwanie treści.”
W grudniu i wydana przez Meta firma, do tej pory naznaczona była sesjami z ostrą krytyką sieci.
Pod tytułem „Nasze proaktywne działania na rzecz ochrony integralności wyborów samorządowych w Brazylii w 2024 r.” firma stwierdziła, że „wbrew temu, co usłyszano w debacie publicznej, Meta nie wykazuje bezczynności w zakresie wykrywania szkodliwych treści i reagowania na nie”. .
„Chcemy jasno powiedzieć: nie tolerujemy przemocy i innych szkodliwych zachowań w naszych serwisach. I nie reagujemy na tego typu treści tylko wtedy, gdy otrzymamy nakaz sądowy, wręcz przeciwnie”.
„Ponad 95% treści przedstawiających znęcanie się zostało zidentyfikowanych przez samą Meta i usuniętych przed sporządzeniem jakiegokolwiek zgłoszenia. W przypadku innych wymienionych rodzajów treści naruszających zasady odsetek ten przekraczał 99%” – czytamy również w notatce.
Ponadto w opublikowanym wówczas raporcie wyborczym spółka jako najważniejszy element swoich działań mających na celu zwalczanie fałszywych informacji przedstawiła nazwę .