Czy jesteś nimi zainteresowany? OFERTY? Oszczędzaj dzięki naszym kuponom WhatsApp o TELEGRAM!

Ustawa o sztucznej inteligencji w Europie: adopcja napotyka przeszkody. Jaka jest aktualna sytuacja?

Oczekiwanie na adopcję„Ustawa Unii Europejskiej o sztucznej inteligencji nadal się wydłuża. Wbrew oczekiwaniom droga do wspólnych regulacji dotyczących sztucznej inteligencji w Europie wydaje się wciąż otwarta długie i kręte. Utrzymują się podziały wśród europejskich prawodawców co do regulacji podstawowych modeli, a wraz z końcem 2023 r. możliwość podpisania ustawy o sztucznej inteligencji w tym roku wydaje się coraz bardziej odległa.

Nieporozumienia wśród legislatorów

Debata na temat ustawy o AI jest wciąż gorąca wśród europejskich legislatorów, którzy wydają się nie być zgodni co do sposobu regulowania podstawowych modeli. Jak Podawane da ReutersHiszpania nalega na bardziej regularne sprawdzanie luk w zabezpieczeniach i utworzenie systemu regulacyjnego warstwowego w zależności od liczby użytkowników modelu.

Scenariusz ten doprowadził do trzech rozmów trójstronnych, czyli rozmów trójstronnych między UE Parlament EuropejskiThe Rada Unii Europejskiej i Komisja Europejska, a czwarte posiedzenie zaplanowano na ten tydzień. Jeżeli nie zostanie osiągnięte porozumienie, kolejne spotkanie wyznaczono na grudzień, co wzbudziło obawy, że jakakolwiek decyzja może zostać przełożona na przyszły rok.

Infografika aktu AI z flagą europejską i gwiazdami krajów europejskich

Zobacz także: Ustawa o rynkach cyfrowych i ustawa o usługach cyfrowych: dobrze wyjaśniono, czym one są

Kluczowe propozycje ustawy o AI

Jeden z projektów ustawy o AI proponuje, aby Twórcy podstawowych modeli oceniają potencjalne ryzyko, testuj modele przez cały proces rozwoju, a po wypuszczeniu na rynek zbadaj błąd w danych treningowych, zweryfikuj dane i opublikuj dokumenty techniczne przed wydaniem. Podejście to ma na celu zapewnienie, że innowacje w zakresie sztucznej inteligencji będą wprowadzane w ramach bezpieczeństwa i przejrzystości.

Błędy (lub błędy) w sztucznej inteligencji odnoszą się do systematycznego trendu w danych lub wzorcach, do którego prowadzi nieuczciwe lub niedokładne wyniki. Błędy te mogą wynikać z różnych źródeł, w tym z danych szkoleniowych wykorzystywanych do „uczenia” modeli sztucznej inteligencji.

Jeśli dane szkoleniowe zawierają błąd, na przykład odbicie stereotypy społeczne o dyskryminacja, model sztucznej inteligencji będzie uczyć się i odtwarzać te błędy w swoich przewidywaniach lub decyzjach. Eliminowanie lub łagodzenie stronniczości ma kluczowe znaczenie dla zapewnienia uczciwego i niezawodnego działania systemów sztucznej inteligencji.

A co z małymi firmami?

Niektóre firmy zajmujące się oprogramowaniem typu open source nalegały, aby UE to zrobiła rozważ w dyskusji małe przedsiębiorstwa, argumentując, że dla niektórych zastosowanie się do proponowanych przepisów może być trudne. Na arenie międzynarodowej wielu, w tym niektórzy urzędnicy rządu USA, postrzega unijną ustawę o sztucznej inteligencji jako mającą potencjał przykład do naśladowania przy opracowywaniu rozporządzeń dotGeneratywna sztuczna inteligencja.

Chociaż jednak UE była jednym z pierwszych regionów, które omawiały proponowane przepisy, postępowała ona wolniej niż inne podmioty międzynarodowe, takie jak Chiny która wprowadziła swoje zasady już w sierpniu tego roku.

Gianluca Cobucci
Gianluca Cobucci

Pasjonat kodu, języków i języków, interfejsów człowiek-maszyna. Interesuje mnie wszystko, co jest ewolucją technologiczną. Staram się jak najdokładniej przekazywać swoją pasję, opierając się na rzetelnych źródłach, a nie „na pierwszym przejściu”.

Subskrybować
zawiadamiać
gość

0 Komentarze
Informacje zwrotne w linii
Wyświetl wszystkie komentarze
XiaomiToday.it
logo