Oczekiwanie na adopcję„Ustawa Unii Europejskiej o sztucznej inteligencji nadal się wydłuża. Wbrew oczekiwaniom droga do wspólnych regulacji dotyczących sztucznej inteligencji w Europie wydaje się wciąż otwarta długie i kręte. Utrzymują się podziały wśród europejskich prawodawców co do regulacji podstawowych modeli, a wraz z końcem 2023 r. możliwość podpisania ustawy o sztucznej inteligencji w tym roku wydaje się coraz bardziej odległa.
Tematyka tego artykułu:
Nieporozumienia wśród legislatorów
Debata na temat ustawy o AI jest wciąż gorąca wśród europejskich legislatorów, którzy wydają się nie być zgodni co do sposobu regulowania podstawowych modeli. Jak Podawane da ReutersHiszpania nalega na bardziej regularne sprawdzanie luk w zabezpieczeniach i utworzenie systemu regulacyjnego warstwowego w zależności od liczby użytkowników modelu.
Scenariusz ten doprowadził do trzech rozmów trójstronnych, czyli rozmów trójstronnych między UE Parlament EuropejskiThe Rada Unii Europejskiej i Komisja Europejska, a czwarte posiedzenie zaplanowano na ten tydzień. Jeżeli nie zostanie osiągnięte porozumienie, kolejne spotkanie wyznaczono na grudzień, co wzbudziło obawy, że jakakolwiek decyzja może zostać przełożona na przyszły rok.
Zobacz także: Ustawa o rynkach cyfrowych i ustawa o usługach cyfrowych: dobrze wyjaśniono, czym one są
Kluczowe propozycje ustawy o AI
Jeden z projektów ustawy o AI proponuje, aby Twórcy podstawowych modeli oceniają potencjalne ryzyko, testuj modele przez cały proces rozwoju, a po wypuszczeniu na rynek zbadaj błąd w danych treningowych, zweryfikuj dane i opublikuj dokumenty techniczne przed wydaniem. Podejście to ma na celu zapewnienie, że innowacje w zakresie sztucznej inteligencji będą wprowadzane w ramach bezpieczeństwa i przejrzystości.
Błędy (lub błędy) w sztucznej inteligencji odnoszą się do systematycznego trendu w danych lub wzorcach, do którego prowadzi nieuczciwe lub niedokładne wyniki. Błędy te mogą wynikać z różnych źródeł, w tym z danych szkoleniowych wykorzystywanych do „uczenia” modeli sztucznej inteligencji.
Jeśli dane szkoleniowe zawierają błąd, na przykład odbicie stereotypy społeczne o dyskryminacja, model sztucznej inteligencji będzie uczyć się i odtwarzać te błędy w swoich przewidywaniach lub decyzjach. Eliminowanie lub łagodzenie stronniczości ma kluczowe znaczenie dla zapewnienia uczciwego i niezawodnego działania systemów sztucznej inteligencji.
A co z małymi firmami?
Niektóre firmy zajmujące się oprogramowaniem typu open source nalegały, aby UE to zrobiła rozważ w dyskusji małe przedsiębiorstwa, argumentując, że dla niektórych zastosowanie się do proponowanych przepisów może być trudne. Na arenie międzynarodowej wielu, w tym niektórzy urzędnicy rządu USA, postrzega unijną ustawę o sztucznej inteligencji jako mającą potencjał przykład do naśladowania przy opracowywaniu rozporządzeń dotGeneratywna sztuczna inteligencja.
Chociaż jednak UE była jednym z pierwszych regionów, które omawiały proponowane przepisy, postępowała ona wolniej niż inne podmioty międzynarodowe, takie jak Chiny która wprowadziła swoje zasady już w sierpniu tego roku.