Nowa sztuczna inteligencja OpenAI wykazuje oznaki superinteligencji, a firma wzywa do przeprowadzenia testów bezpieczeństwa
Ostatnie posty

Nowa sztuczna inteligencja OpenAI wykazuje oznaki superinteligencji, a firma wzywa do przeprowadzenia testów bezpieczeństwa

Do tej pory LLM poprawiały swoją responsywność po prostu zwiększając rozmiar danych, na których były szkolone – po przeszkoleniu system stara się reagować tak szybko, jak to możliwe, szukając najczęstszych połączeń między słowami. Teraz badacze wykazali, że wydajność poprawia się również, gdy w systemie oceniającym już posiadane dane poświęca się więcej czasu na przetwarzanie, co pozwala mu szukać różnych ścieżek odpowiedzi. W tym miesiącu zaprezentowano także nową wersję Bliźniętaktóry przedstawia zasoby do wnioskowania, co powinno stać się powszechne wśród największych modeli sztucznej inteligencji na świecie.

Ciekawostką jest to, że OpenAI porzuciło nazwę „o2”, aby nie powodować nieporozumień z brytyjską firmą telekomunikacyjną „O2”.

Nowa sztuczna inteligencja OpenAI wykazuje oznaki superinteligencji, a firma wzywa do przeprowadzenia testów bezpieczeństwa

Prezes firmy pozostawił najważniejsze oświadczenie na ostatni dzień. Zdjęcie: Jeff Chiu/AP

W testach zaprezentowanych przez OpenAI o3 odpowiedziało na 96,7% pytań na amerykańskiej Olimpiadzie Matematycznej w porównaniu z 83% w przypadku o1. W GPQA Diamond, teście składającym się z pytań na poziomie doktoranckim, odsetek nowej wersji wzrósł z 78% do 87,7%. W teście SWE-Bench Verified mierzącym umiejętności programowania system uzyskał wynik 2727 – wynik 2400 plasuje go już w gronie 1% najbardziej wykwalifikowanych programistów na świecie.

W rezultacie dyrektor generalny firmy stwierdził, że obecne testy mierzące jakość systemów AI dobiegają końca – czyli wykorzystanie AI jest bliskie 100%. Dlatego dziedzina sztucznej inteligencji potrzebuje nowych dowodów, aby zweryfikować możliwości systemów. Dyrektor wykazał współpracę z ARC-AGI, organizacją, która tworzy bezprecedensowe testy porównujące możliwości inteligencji maszyn z ludźmi. W teście przeprowadzonym w celu oceny, czy system AI uczy się umiejętności, których nie było w jego danych szkoleniowych, o3 uzyskał wynik 87,5% przy konfiguracji pod kątem maksymalnej mocy obliczeniowej. To zapaliło żółte światło w firmie.

Bezpieczeństwo staje się rozmową

Choć nie osiągnął jeszcze statusu AGI (kiedy maszyna ma zdolności poznawcze podobne lub większe od człowieka), wyniki ARC-AGI wskazują, że system jest zaawansowany i że sztuczna inteligencja może obecnie w kilku sytuacjach dokonać klasyfikacji. Eksperci nie są jednak zgodni co do definicji i pomiaru. „Nie ma zgody co do tego, że AGI można mierzyć za pomocą tych testów – nawet w przypadku pomiaru zdolności człowieka nie ma zgody co do tych testów”, wyjaśnia Anderson Soares, koordynator pierwszego stopnia licencjata w dziedzinie sztucznej inteligencji na Uniwersytecie w Goiás (UFG).

Mimo to OpenAI zdecydowało się udostępnić system do testów z zewnętrznymi badaczami bezpieczeństwa – zainteresowani muszą zgłosić się na stronie internetowej firmy.

„Postęp w możliwościach LLM, taki jak ten zademonstrowany przez o1 i o3, niesie ze sobą znaczne ryzyko. W miarę jak modele zyskują większą inteligencję i autonomię, skala potencjalnych szkód, które sztuczna inteligencja może wyrządzić w wyniku nieprawidłowego ustawienia lub niewłaściwego użycia, dramatycznie wzrasta” – stwierdziła firma. W związku z tym firma opublikowała artykuł, w którym twierdzi, że stworzyła technikę „wyrównania wartości” w systemach wykorzystujących techniki wnioskowania.

Według firmy technika ta pozwala uniknąć szkodliwych podpowiedzi i jest bardziej liberalna w przypadku łagodnych próśb.

Bogdan

Bogdan

Bogdan
Cześć, nazywam się Luca i jestem autorem tej strony z przydatnymi poradami kulinarnymi. Zawsze fascynowało mnie gotowanie i kulinarne eksperymenty. Dzięki wieloletniej praktyce i nauce różnych technik gotowania zdobyłem duże doświadczenie w gotowaniu różnych potraw.