Ostatnie posty

Policja aresztowała bezczelnego twórcę filmów porno: Używał sztucznej inteligencji do wykorzystywania podobieństw celebrytów do treści!

Południowokoreańska policja aresztowała mężczyznę, który stworzył ponad 4300 fałszywych filmów przedstawiających celebrytki o treści seksualnej i sprzedawał je w Internecie. TASR donosi na podstawie raportu agencji prasowej Jonhap. Południowokoreański mężczyzna stworzył 4,313 fałszywych filmów pornograficznych przy użyciu sztucznej inteligencji (AI) i zarobił prawie 2,600 euro, sprzedając je między styczniem a marcem.

Policja aresztowała również mężczyznę z Chin i oskarżyła go o rozpowszechnianie 14 526 filmów o treści seksualnej, w tym 20 fałszywych filmów z celebrytami. Mężczyzna rozpowszechniał filmy za pośrednictwem nielegalnej strony pornograficznej, którą prowadził od czerwca 2023 r. do września 2024 r. Zarobił prawie 95 000 euro. W tym tygodniu prokuratura ma zająć się jego sprawą i oskarżyć nie tylko wspólników mężczyzny w Chinach, ale także użytkowników jego strony internetowej.

Termin deepfake odnosi się do nieautentycznych treści audiowizualnych tworzonych przez sztuczną inteligencję. W niektórych przypadkach trudno je odróżnić od rzeczywistości i sprawiają wrażenie, że są prawdziwe. Manipulacja treściami audiowizualnymi naśladuje twarze, głosy i działania na wideo, zacierając granicę między rzeczywistością a oszustwem.

Leave a Response

Bogdan

Bogdan

Bogdan
Cześć, nazywam się Luca i jestem autorem tej strony z przydatnymi poradami kulinarnymi. Zawsze fascynowało mnie gotowanie i kulinarne eksperymenty. Dzięki wieloletniej praktyce i nauce różnych technik gotowania zdobyłem duże doświadczenie w gotowaniu różnych potraw.