Audyt pokazuje, że Deepseek może nie być tak dobry jak Chatgpt; zrozumieć
Chiński startup chatbot sztucznej inteligencji Deepseek Osiągnęło to jedynie 17% dokładności w dostarczaniu wiadomości i informacji w audycie Studguard, który umieścił go w dziesiątym miejscu 11, w porównaniu do jego zachodnich konkurentów, w tym Chatgpt i Google Gemini Openai.
Chatbot powtórzył fałszywe oświadczenia 30% czasu i dało niejasne lub bezużyteczne odpowiedzi w 53% czasu w odpowiedzi na prośbę, co spowodowało wskaźnik dezaprobaty wynoszący 83%, zgodnie z raportem opublikowanym przez usługę usług niezawodności NewgGuard to to Środa (29).
Było to gorsze niż średni wskaźnik awaryjności wynoszący 62% dla zachodnich rywali i podnosi wątpliwości co do technologii AI, która twierdziła, że osiągnie ona równą lub większą niż Microsoft Openai, przez ułamek kosztów.
Kilka dni po wydaniu Chatbot Deepseek stał się Apple, budząc obawy dotyczące przywództwa USA w sztucznej inteligencji i powodując spadek rynku, który pod względem wartości amerykańskich akcji technologicznych.
Chiński startup nie odpowiedział natychmiast na prośbę o komentarz.
Zrozum test
Newsguard powiedział, że zastosował Deepsek te same 300 żądań, które użył do oceny swoich zachodnich rówieśników, w tym 30 żądań opartych na 10 fałszywych zarzutach rozproszonych online.
Kontynuuje się po reklamie
Tematy zarzutów obejmowały zabójstwo dyrektora UnitedHealthcare, Briana Thompsona w zeszłym miesiącu oraz spadek lotu 8243 Azerbejdżanu.
Audyt Newsguard wykazał również, że w trzech z dziesięciu wniosków Deepseek powtórzył stanowisko chińskiego rządu na ten temat, nie zapytał o nic związane z Chinami.
W prośbach związanych z wypadkiem Azerbejdżan Airlines – pytania niezwiązane z Chinami – Chatbot odpowiedział na stanowisko Pekinu na ten temat, powiedział Newsguard.
Kontynuuje się po reklamie
„Znaczenie rozwoju Deepseek nie odpowiada dokładnie na pytania związane z chińskimi wiadomościami, ale w fakcie, że może odpowiedzieć na każde pytanie do 1/30 kosztów porównywalnych modeli AI” – powiedział Gil Luria, analityk z Davidson.
Podobnie jak inne modele AI, DeepSeek był bardziej podatny na powtarzające się fałszywe stwierdzenia podczas odpowiadania na żądania używane przez osoby starające się używać modeli AI do tworzenia i rozpowszechniania fałszywych stwierdzeń, dodał Newsguard.