Mężczyzna pozywa Openai po tym, jak Chatgpt oskarża go o zabicie swoich dzieci
0
Czy kiedykolwiek przeszukałeś swoje imię w Google, aby zobaczyć, co Internet mówi o tobie? Cóż, mężczyzna miał ten sam pomysł z Chatgpt, a teraz złożył skargę przeciwko Openai na podstawie tego, co o nim powiedziała.
Mężczyzna pozywa Openai po tym, jak Chatgpt oskarża go o zabicie swoich dzieci. Zdjęcie: Reprodukcja
Arve Hjalmar Holmen z Trondheim w Norwegii powiedział, że zapytał Chatgpt: „Kim jest Arve Hjalmar Holmen?” Stwierdził również, że Holmen próbował zabić swoje trzecie dziecko.
Jednak nic z tego się nie stało. Wydaje się, że Chatgpt wygenerował całkowicie fałszywą historię, która wierzyła, że jest całkowicie prawdziwa, która nazywa się AI „halucynacją”.
W oparciu o swoją odpowiedź Holmen złożył skargę przeciwko Openai z pomocą NOYB, europejskiego centrum praw cyfrowych, które oskarża giganta AI o naruszenie precyzyjnej zasady ustalonej przez ogólne prawo UE w sprawie ochrony danych (RODO).
„Skarżący był głęboko zaniepokojony tymi wyjściami, które mogłyby mieć szkodliwy wpływ na jego życie prywatne, gdyby zostały odtworzone lub jakoś wyciek w ich społeczności lub rodzinnym mieście” – mówi skarga.
Zgodnie z skargą Chatgpt jest niebezpieczne, że łączy prawdziwe elementy życia osobistego Holmen z całkowitą produkcją. Chatgpt uderzył w rodzinne miasto Holmen, a także miał rację co do liczby dzieci – szczególnie dzieci – które ma.
JD Harriman, partner Fundacji Law Group LLP w Burbank w Kalifornii, powiedział Fortune, że Holmen może mieć trudności z udowodnieniem zniesławienia.
„Jeśli bronię sztucznej inteligencji, pierwsze pytanie brzmi:„ Czy ludzie powinni wierzyć, że oświadczenie AI jest faktem? ” – zapytał Harriman. „Istnieje wiele przykładów kłamstwa”.
Ponadto AI nie opublikowała ani nie przekazała swoich wyników trzecim. „Gdyby mężczyzna wysłał fałszywą wiadomość od IA do innych, zostanie redaktorem i musiałby sam się pozwać” – powiedział Harriman.
Harriman powiedział, że Holmen prawdopodobnie miałby trudności z udowodnieniem zaniedbania o zniechęceniu, ponieważ „AI może nie kwalifikować się jako agent, który mógłby popełnić zaniedbanie” w porównaniu z ludźmi lub korporacjami. Holmen musiałby również udowodnić, że spowodowane są pewne szkody, takie jak utrata dochodu lub działalności gospodarczej, lub że doznał bólu i cierpienia.
Avrohom Gefen, partner Vishnick McGovern Mililizio LLP w Nowym Jorku, powiedział Fortune, że przypadki zniesławienia z udziałem halucynacji AI są „bezprecedensowe” w USA, ale wspomniano o tym, jak sąd w sprawie będzie traktowany, gdy sąd będzie się zastanawiać, ponieważ sąd będzie traktowany, ponieważ sąd będzie traktowany, ponieważ sąd będzie traktowany, ponieważ sąd będzie traktowany z tym, jak sąd będzie traktowany, ponieważ sąd będzie traktowany, ponieważ sąd będzie traktowany, ponieważ sąd będzie traktowany z tym sądem, ponieważ będzie to sąd, ponieważ będzie to sąd, ponieważ będzie to sąd, ponieważ będzie to Court z wnioskiem z wnioskiem z wnioskiem, gdy będzie to Court. te roszczenia ”.
Oficjalna skarga prosi Openai o „usunięcie zniesławiającego odejścia na skarżącego”, dostosowanie jego modelu w celu uzyskania dokładnych wyników holume i zostaną ukarane grzywną za domniemane naruszenie zasad RODPR, które wymagają openai, aby podjąć „wszelkie uzasadnione środki”, aby upewnić się, że dane osobowe są „usunięte lub naprawione bez leczenia”.
„Przy wszystkich procesach nic nie jest automatyczne ani łatwe” – powiedział Harriman Fortune. „Jak powiedział Ambrose Bierce, wchodzisz w spory jak świnia i wychodzisz jak kiełbasa”.
Openai nie odpowiedział od razu na prośbę Fortune o komentarz.
Ta historia została pierwotnie opublikowana na Fortune.com.
2025 Fortune Media IP Limited