W ostatnim czasie branża tzwinteligencja sztuczny był świadkiem szybkiego rozwoju i szkolenia nowych modeli generatywnych. Te coraz bardziej wyrafinowane modele opierają się na coraz większej liczbie parametrów. Jednakże, Sam Altman, CEO OpenAI, ostatnio ostudził powszechny entuzjazm, stwierdzając, że nie ma nie ma planów wydania OpenAI GPT-5 w krótkim terminie. Ale potem znowu, zapowiadał to już jakiś czas temu.
Dowiedzmy się, dlaczego OpenAI nie wydało GPT-5 w najbliższym czasie
Altman ma podkreślone że chociaż technicy i inżynierowie OpenAI pracują nad nowymi pomysłami, nie są nawet blisko rozpoczęcia działań na GPT-5. Po ukończeniu GPT-4 zajęło to więcej niż sei miesiąc zanim byli gotowi go wydać. Sugeruje to nadejście przyszłości GPT-5 może zająć dużo czasu. Mimo to, według różnych źródeł, idea GPT-5 dojrzewa już w postaci kolejnych projektów. Mogą one w przyszłości ułożyć ostateczną układankę.
Nowy model generatywny, zamiast koncentrować się na jeszcze większej liczbie parametrów, mógłby przedstawić szereg innowacyjnych elementów w porównaniu z przeszłością. Na przykład może multimodalne podejście do skrajności, łącząc wiele „kanałów sensorycznych” lub typów danych. Oznacza to, że oprócz tekstu model obsługiwałby również obrazy wejściowe i wyjściowe, audio, wideo i tak dalej.
Priorytety OpenAI: zaufanie i regulacje
Obecnie okazuje się, że Priorytetem Altmana jest budowanie zaufania wokół OpenAI, angażując ustawodawców i współpracując z organami regulacyjnymi. Przypominamy apel prezesa o podjęcie działań regulacyjnych w celu ograniczenia ewentualnych nadużyć w wykorzystaniu sztucznej inteligencji. Ponadto pojawiła się hipoteza o możliwym porzuceniu rynku europejskiego przez OpenAI w przypadku braku odpowiednich regulacji. proponuje Europa także „naklejka” na treści generowane przez sztuczną inteligencję.
Zobacz także: Pakt o sztucznej inteligencji: UE i Google przewidują przepisy
Pod koniec marca 2023 r. w sieci pojawił się list otwarty podpisany przez 1.100 sygnatariuszy, w tym Elona Muska i Steve'a Wozniaka, wzywający do zawieszenia szkolenia najpotężniejszych generatywnych modeli GPT-4 na okres nie krótszy niż 6 miesięcy. Dzieje się tak, ponieważ zaawansowana sztuczna inteligencja może reprezentować głęboką zmianę w historii życia na Ziemi i powinny być starannie zaplanowane i zarządzanei odpowiednie zasoby.