Izraelicki personel wojskowy Utwórz szpiegostwo w stylu chatgpt w stylu AI w Palestynie
Ostatnie posty

Izraelicki personel wojskowy Utwórz szpiegostwo w stylu chatgpt w stylu AI w Palestynie

Izraelicki personel wojskowy Utwórz szpiegostwo w stylu chatgpt w stylu AI w Palestynie

Nowy model sztucznej inteligencji chce zrewolucjonizować szpiegostwo i już dostarcza dodatkowych informacji na temat danych dotyczących nadzoru wideo, które gromadzą (a nawet bezskutecznie zapytane Openai).

Dochodzenie i lokalne agencje komunikacyjne +972 Magazyn i lokalne połączenie ujawnia, że ​​jednostka 8200 izraelskich sił zbrojnych przeszkoliła Model AI, aby zrozumieć arabski, Korzystając z dużych tomów rozmów telefonicznych i wiadomości tekstowych, uzyskanych poprzez szeroko zakrojone nadzór okupowanych terytoriów.

Ten system pozwolił na stworzenie rodzaju chatgpt, który odpowiada na pytania wojska na przykład na informacjach o celach, które są szpiegowane na Palestynie.

Model został już stworzony przez Izraelską Agencję Szpiegów, a model został przyspieszony po wojnie z Palestyną w 2023 r.

To jest LLM (Great Language Model) – system edukacyjny, który generuje tekst podobny do tekstu, a w rzeczywistości jego umiejętności zostały częściowo publicznie ujawnione w zeszłym roku na wojskowej sztucznej sztucznej inteligencji.

„Próbowaliśmy stworzyć największy możliwy zestaw danych i zebrać wszystkie dane, jakie stan Izrael kiedykolwiek miał w języku arabskim” – powiedział były pracownik, Roger Joseph Saydooff. Model, powiedział, wymagał „ilości psychotycznych” danych.

Wewnętrzne źródło, znające projekt, powiedział Guardianowi, że „nie tylko unikając ataków strzelania, mogę teraz śledzić działaczy na rzecz praw człowieka, monitorować budowę palestyńskiego w C (obszar Zachodniego Brzegu). Mam więcej narzędzi do Wiedz, co robi każda osoba na Zachodnim Brzegu„.

Według śledztwa dwie trzy agencje komunikacyjne, aby pomóc w zebraniu trudności zespołu w szkoleniu chatbota, jednostka wysłała nawet Zamówienie – nieudane – do openai do wykonania Chatgpt w bezpiecznych systemach sił zbrojnych. Openai odmówił komentarza.

Ale wojsko ostatecznie opowiedział o pomocy Zarezerwuj personel wojskowy, który pracował w dużych amerykańskich firmach technologicznychPodobnie jak Google, cel i Microsoft.

„Nie ma połączeń z rozmów WhatsApp w Internecie. Nie istnieją one w ilości wymaganej do przeszkolenia takiego modelu ”, powiedział źródło Inteirna. Dodali, że wyzwanie brzmiało: „zebranie całego tekstu mówionego po arabsku, które jednostka już miała i umieściła ją w scentralizowanym miejscu”. Dane szkoleniowe tego modelu zostały ostatecznie złożone 100 miliardów słów.

Jak już informował Zap, IDF (izraelskie siły obronne) użył już IA jako broni w konflikcie. Na przykład tworzą AI wygenerowaną do, w 20 sekund, aby zdecydować o celach palestyńskich do uboju.

Istnieje również jeden z Palestyńczyków opartych na zdjęciach Google, który tworzy „listy docelowe”. Inne tajne agencje i usługi, takie jak American CIA, również wykorzystują sztuczną inteligencję do szpiegostwa.

Ekspert z Human Rights Watch powiedział, że użycie materiału nadzoru w celu szkolenia modelu AI jest „inwazyjne i niezgodne z prawami człowieka”.

Source link

Bogdan

Bogdan

Bogdan
Cześć, nazywam się Luca i jestem autorem tej strony z przydatnymi poradami kulinarnymi. Zawsze fascynowało mnie gotowanie i kulinarne eksperymenty. Dzięki wieloletniej praktyce i nauce różnych technik gotowania zdobyłem duże doświadczenie w gotowaniu różnych potraw.