Halucynacje AI się pogarszają. Niepokojąca tendencja
Ostatnie posty

Halucynacje AI się pogarszają. Niepokojąca tendencja

ZAP // Rawpixel; Pixabay

Halucynacje AI się pogarszają. Niepokojąca tendencja

Ponieważ ogólna sztuczna inteligencja staje się coraz bardziej popularna, czasami prawda zniekształca się. Kłamstwa – lub halucynacje, jak są znane w branży technologicznej – uległy poprawie, ale najnowsze modele przeciwdziałają temu trendowi.

W latach, które nastąpiły po pojawieniu się Chatgpt i rosnąca integracja Boty IA W szeregu zadań nadal nie ma możliwości zapewnienia, aby systemy te wytworzyły dokładne informacje.

Rzeczywiście, obecne boty AI nie decydują – i nie mogą zdecydować – co jest Prawda i co jest fałszywewyjaśnia.

Ostatecznie Problem halucynacji Wydaje się, że pogarsza się, ponieważ technologie stają się potężniejsze. Modele rozumowania, uważane za „najnowsze i potężne technologie” firm takich jak Openai, Google i uruchomienie Chińskie Deepeek, są „Generuj więcej błędów, nie mniej„.

Według umiejętności matematycznych modeli „ulepszały się”, ale ich „zdolność do radzenia sobie z faktami stała się bardziej niestabilna. Nie jest całkowicie jasne, dlaczego”.

Modele rozumowania to duży rodzaj modelu języka zaprojektowanego do wykonywania złożonych zadań. Zamiast „po prostu wytwarzać tekst oparty na modelach prawdopodobieństwa statystycznej”, rozumowanie modeli „dzielą pytania lub zadania na poszczególne etapy podobne do procesu ludzkiego myślenia”, powiedział „ Gamer PC.

Podczas testów najnowszych systemów rozumowania Openai firma stwierdziła, że ​​to System O3 Halucynacja 33% czasu Podczas przeprowadzania testu Benchmark Personqaco polega na odpowiadaniu na pytania dotyczące liczb publicznych.

Ta wartość jest Ponad dwukrotnie więcej niż wskaźnik halucynacji Z poprzedniego systemu rozumowania Openai, O1. Najnowsze narzędzie, O4-Mini, halucynowane z jeszcze wyższą szybkością 48%.

Openai odrzucił pomysł, że modele rozumowania cierpią na zwiększone wskaźniki halucynacji i stwierdziło, że potrzebne są dalsze badania w celu zrozumienia wniosków.

Halucynacje nie są „wewnętrznie bardziej rozpowszechnione w modelach rozumowania”. Jednak Openai „aktywnie pracuje nad zmniejszeniem najwyższych wskaźników halucynacji, jakie zaobserwowaliśmy w O3 i O4-Mini”, powiedział Gaby RailaPorta-Voz DA Company. Za dużo „Niechciane marzenia o robotach„.

Dla niektórych ekspertów halucynacje wydają się nieodłączne w technologii. Pomimo najlepszych wysiłków firm, Zamierzałem „zawsze mieć halucynacje”te Amr AwadallahDyrektor wykonawczy uruchomienie De Ia Vectara i były dyrektor Google. „To nigdy nie zniknie”.

Mimo to halucynacje powodują „poważny problem dla każdego, kto korzysta z technologii z dokumentami prawnymi, informacjami medycznymi lub poufnymi danymi handlowymi”, powiedział Times.

„Długo spędzony na próbie dowiedzenia się, jakie są odpowiedzi faktyczne, a które nie są„, Te Praktyczne dawaniewspółzałożyciel i dyrektor wykonawczy Okahu, firmy, która pomaga firmom poradzić sobie z halucynacyjnymi problemami. Nie rób tych błędów ”eliminuje wartość systemów AIktóry powinien zautomatyzować zadania. „

Firmy „walczą, aby dowiedzieć się dokładnie, dlaczego powód Chatboty generują więcej błędów niż wcześniej ” – walka, która„ podkreśla Intrygujący fakt Że nawet twórcy IA nie rozumie, jak naprawdę działa technologia ” – mówi futuryzm.

Ostatni Niepokojący trend halucynacji „Podważa to uogólnione założenie branży, że modele AI staną się potężniejsze i wiarygodne w miarę ich rozszerzenia”.

Niezależnie od prawdy, modele AI muszą „w dużej mierze wyeliminować absurdalność i kłamstwa, jeśli chcą być tak przydatne jak ich zwolennicy, jak sobie wyobrażają”, powiedział PC Gamer.

Już „trudno jest zaufać wynikom dowolnego LLM” i prawie wszystkie dane „muszą być starannie zweryfikowane dwukrotnie„Jest to dopuszczalne w przypadku niektórych zadań, ale kiedy celem jest„ oszczędzanie czasu lub pracy ”, potrzeba„ sprawdzania i potwierdzenia faktów wytworzonych przez IA ostatecznie jest sprzeczne z celem jego użycia. „

Nie jest jasne, czy Openai i reszta branży LLM „będą w stanie kontrolować wszystkie te niechciane sny za pomocą robotów”.

Teresa Oliveira Campos, zap //

Source link

Bogdan

Bogdan

Bogdan
Cześć, nazywam się Luca i jestem autorem tej strony z przydatnymi poradami kulinarnymi. Zawsze fascynowało mnie gotowanie i kulinarne eksperymenty. Dzięki wieloletniej praktyce i nauce różnych technik gotowania zdobyłem duże doświadczenie w gotowaniu różnych potraw.