Czy jesteś nimi zainteresowany? OFERTY? Oszczędzaj dzięki naszym kuponom WhatsApp o TELEGRAM!

OpenAI tworzy zespół ds. „katastrofalnych” zagrożeń AI. Dlatego nas to niepokoi

OpenAI, firma, która od niedawna znajduje się w czołówce branży sztucznej inteligencji ogłoszono utworzenie nowego zespołu z konkretnym zadaniem oceniać i ograniczać potencjalnie katastrofalne ryzyko związane z rozwojem technologii związanych ze sztuczną inteligencją. Posunięcie to podkreśla rosnące znaczenie proaktywnego stawienia czoła wyzwaniom i niebezpieczeństwom, jakie mogą nieść modele generatywne. Oczywiście tam, gdzie nie są odpowiednio monitorowane.

Identyfikacja ryzyka przez OpenAI

W miarę szybkiego rozwoju sztucznej inteligencji pojawiają się nowe zagrożenia, które mogą mieć poważne skutki w skali globalnej. W tym celu poświęci się nowy zespół przygotowawczy OpenAI śledzić, oszacować, zapewnić e chronić przed tymi potencjalnymi problemami. Wśród zidentyfikowanych ryzyk znajdują się: zagrożenia jądrowy, temat podkreślający pilność odpowiedzialnych działań w dziedzinie sztucznej inteligencji.

Oprócz zagrożeń nuklearnych zespół skupi się także na zagrożeniach związanych z substancjami chemiczne, biologiczne i radiologiczne, a także na fzjawisko samoreplikacji sztucznej inteligencjilub zdolność systemu sztucznej inteligencji do autonomicznej replikacji. Inne obszary zainteresowania obejmują zdolność sztucznej inteligencji do oszukiwania ludzi i zagrożenia wszystko bezpieczeństwo cybernetyczne.

Korzyści i wyzwania zaawansowanej sztucznej inteligencji

OpenAI zdaje sobie sprawę, że pionierskie modele sztucznej inteligencji, które przewyższają możliwości najbardziej zaawansowanych istniejących modeli, mają potencjał przynieść korzyść całej ludzkości. I nie, wbrew temu, co myślisz,Sztuczna inteligencja nie jest po to, żeby kraść nam miejsca pracy ale raczej, aby go stworzyć.

Jednak z wielką mocą wiąże się także wielka odpowiedzialność. Dlatego warto się rozwijać zasady informowany o zagrożeniach, co pozwala na to oceniać i monitorować modele sztucznej inteligencji, aby zapewnić, że korzyści przewyższają powiązane ryzyko.

openai oferuje nagrody za znalezienie błędów w chatgpt

Zobacz także: DeepMind ma rozwiązanie zapobiegające zagrożeniom związanym ze sztuczną inteligencją

Kierownictwo nowego zespołu zostało powierzone Aleksander Madry, czołowa postać w dziedzinie uczenia maszynowego. Obecnie na urlopie od swojego rola dyrektora ds Centrum wdrażalnego uczenia maszynowego MIT, Madry będzie koordynować wysiłki na rzecz opracowania i utrzymania polityki rozwoju opartej na ryzyku.

W stronę globalnego priorytetu

Prezes OpenAI, Sam Altman, to nie jest nowe z obawami dotyczącymi potencjalnie katastrofalnych zagrożeń związanych ze sztuczną inteligencją. Zasugerował, że traktowanie technologii AI powinno być ptraktowane tak samo poważnie, jak broń nuklearna, podkreślając potrzebę podjęcia wspólnych wysiłków w celu ograniczenia ryzyka wyginięcia związanego ze sztuczną inteligencją. Ten nowy zespół stanowi konkretny krok w kierunku realizacji tej wizji, podkreślając zaangażowanie OpenAI w przyczynianie się do rozwoju odpowiedzialne zarządzanie sztuczną inteligencją.

Gianluca Cobucci
Gianluca Cobucci

Pasjonat kodu, języków i języków, interfejsów człowiek-maszyna. Interesuje mnie wszystko, co jest ewolucją technologiczną. Staram się jak najdokładniej przekazywać swoją pasję, opierając się na rzetelnych źródłach, a nie „na pierwszym przejściu”.

Subskrybować
zawiadamiać
gość

0 Komentarze
Informacje zwrotne w linii
Wyświetl wszystkie komentarze
XiaomiToday.it
logo