Niedawna przyjęcie ustawy o AI z Unii Europejskiej to kluczowy moment dla przyszłości sztucznej inteligencji. To historyczne wydarzenie nie tylko stawia Europę w centrum światowej uwagi ze względu na jej inicjatywę regulacyjną, ale także wywołuje debatę na temat tego, w jaki sposób nowy Zasady wpłynie na innowacyjność i bezpieczeństwo w obszarze AI. To podejście regulacyjne Unii Europejskiej odzwierciedla: rozważna, ale optymistyczna wizja postępu technologicznego, próbując zrównoważyć innowację i bezpieczeństwo.
Tematyka tego artykułu:
Europa pisze historię: nowe zasady sztucznej inteligencji zawarte w ustawie o sztucznej inteligencji
13 marca 2024 r. to pamiętna data dla sektora sztucznej inteligencji, którą obchodzi Unia Europejska Ustawa o AI oficjalnie przyjęta. Ustawa ta, pierwsza tego typu na świecie, zyskała szerokie poparcie Parlamentu Europejskiego, m.in 523 głosy za, 46 przeciw i 49 wstrzymujących się. Dzięki temu posunięciu Europa staje się prekursorem w ustalaniu standardów etycznego i odpowiedzialnego zarządzania sztuczną inteligencją, potencjalnie wpływając na podobne polityki w innych regionach świata.
Thierry'ego Bretona, Komisarz UE ds. Rynku Wewnętrznego, wyróżniony że Europa stworzyła obecnie: Benchmark globalny do regulacji sztucznej inteligencji. Pogląd ten odbija się echem w sektorze technologii, choć głosów krytycznych nie brakuje. Podczas gdy część ekspertów chwali ustawę AI Act za próbę ograniczenia zagrożeń związanych z wykorzystaniem sztucznej inteligencji, inni obawiają się, że może ona ograniczać innowacje technologiczne.
Zobacz także: Zasady ustawy o rynkach cyfrowych, która właśnie weszła w życie w Europie
Godnym uwagi aspektem ustawy AI jest podejście do klasyfikacji ryzyka, podział aplikacji AI na kategorie w zależności od poziomu zagrożenia reprezentowanie. Najsurowsze zasady są zarezerwowane dla systemów uznawanych za wysokie ryzyko, takich jak te stosowane w automatyce pojazdów i narzędziach nadzoru. W tym samym czasie, zastosowania uznane za niedopuszczalne, takie jak systemy ocen społecznych podobne do kredytu społecznego, będą zakazane.
Mimo szczytnych intencji ustawa AI wzbudziła obawy wśród firm technologicznych, zarówno europejskich, jak i międzynarodowych. Ci drudzy obawiają się, że nowe przepisy mogą spowolnić innowacje i uczynić europejski sektor technologii mniej konkurencyjnym w porównaniu do odpowiedników w USA i Chinach. Podjęto jednak próbę rozwiania tych obaw, w szczególności poprzez wprowadzenie bardziej elastycznych zasad dla tak zwanych modeli podstawowych, będącej podstawową technologią produktów takich jak ChatGPT OpenAI.
Kluczowe punkty
- Podejściem opartym na ryzyku: rozporządzenie klasyfikuje systemy AI na podstawie ich potencjalnego ryzyka dla społeczeństwa, od ryzyka minimalnego do ryzyka niedopuszczalnego, z bardziej rygorystycznymi przepisami dotyczącymi kategorii wysokiego ryzyka;
- systemy sztucznej inteligencji wysokiego ryzyka: zastosowania sztucznej inteligencji wysokiego ryzyka, np. w infrastrukturze krytycznej, edukacji, zatrudnieniu, egzekwowaniu prawa i innych sektorach, musi spełniać rygorystyczne wymagania, w tym systemy ograniczania ryzyka, wysokiej jakości zbiory danych, dzienniki aktywności, szczegółową dokumentację oraz niezawodne, dokładne i bezpieczne operacje;
- zabronione praktyki: zakazuje systemów sztucznej inteligencji uznawanych za zagrożenie dla podstawowych praw człowieka, w tym aplikacji manipulacyjnych i punktacji społecznej przez rządy lub firmy (jak w Chinach);
- ryzyko specyficzny: Systemy generatywne oparte na sztucznej inteligencji, takie jak chatboty, muszą wyraźnie ujawniać interakcje z maszynami, a deepfakes i inne treści generowane przez sztuczną inteligencję muszą być oznakowane w konsekwencji;
- sankcje za nieprzestrzeganie: Naruszenia mogą skutkować karami finansowymi w wysokości od 7,5 mln euro lub 1,5% rocznego obrotu do 35 mln euro lub 7% światowego obrotu W jaki sposób rozporządzenie UE w sprawie sztucznej inteligencji odnosi się do identyfikacji i nadzoru biometrycznego? W rozporządzeniu uznano systemy identyfikacji biometrycznej, zwłaszcza te wykorzystywane do rozpoznawania twarzy w czasie rzeczywistym w przestrzeni publicznej przez organy ścigania, za stwarzające wysokie ryzyko i w niektórych przypadkach zabrania ich stosowania. Jednakże przewidziano wyjątki dla scenariuszy krytycznych, takich jak zapobieganie nieuchronnym atakom terrorystycznym lub poszukiwanie osób zaginionych, pod warunkiem spełnienia rygorystycznych warunków.
Kiedy ustawa AI wejdzie w życie?
Planowane jest wejście w życie ustawy o AI Maj 2024, a organizacje, których to dotyczy, powinny rozpocząć przygotowania od utworzenia dedykowanych zespołów ds. zgodności z AI. Ten krótki harmonogram podkreśla pilność, z jaką UE zajmuje się ewolucją technologiczną i potrzebę odpowiednich regulacji. Data różni się o miesiąc od tej, którą ogłosił w zeszłym miesiącu Parlament Europejski.