Policja aresztowała bezczelnego twórcę filmów porno: Używał sztucznej inteligencji do wykorzystywania podobieństw celebrytów do treści!
Południowokoreańska policja aresztowała mężczyznę, który stworzył ponad 4300 fałszywych filmów przedstawiających celebrytki o treści seksualnej i sprzedawał je w Internecie. TASR donosi na podstawie raportu agencji prasowej Jonhap. Południowokoreański mężczyzna stworzył 4,313 fałszywych filmów pornograficznych przy użyciu sztucznej inteligencji (AI) i zarobił prawie 2,600 euro, sprzedając je między styczniem a marcem.
Policja aresztowała również mężczyznę z Chin i oskarżyła go o rozpowszechnianie 14 526 filmów o treści seksualnej, w tym 20 fałszywych filmów z celebrytami. Mężczyzna rozpowszechniał filmy za pośrednictwem nielegalnej strony pornograficznej, którą prowadził od czerwca 2023 r. do września 2024 r. Zarobił prawie 95 000 euro. W tym tygodniu prokuratura ma zająć się jego sprawą i oskarżyć nie tylko wspólników mężczyzny w Chinach, ale także użytkowników jego strony internetowej.
Termin deepfake odnosi się do nieautentycznych treści audiowizualnych tworzonych przez sztuczną inteligencję. W niektórych przypadkach trudno je odróżnić od rzeczywistości i sprawiają wrażenie, że są prawdziwe. Manipulacja treściami audiowizualnymi naśladuje twarze, głosy i działania na wideo, zacierając granicę między rzeczywistością a oszustwem.