Podział na kategorie ryzyka w sztucznej inteligencji
Unia Europejska chce uregulować sztuczną inteligencję (AI) w sposób zapewniający lepsze warunki do rozwoju i wykorzystania tej technologii. W kwietniu 2021 r. Komisja Europejska zaproponowała pierwsze unijne ramy legislacyjne dotyczące sztucznej inteligencji. Unijny projekt dzieli rodzaje sztucznej inteligencji według ryzyka, jakie stwarzają. Dokonuje podziału sztucznej inteligencji na kilka kategorii: niedopuszczalnego ryzyka, wysokiego ryzyka oraz ograniczonego ryzyka. Różne poziomy ryzyka będą niosły ze sobą mniej lub więcej obowiązków.
Zakazane systemy sztucznej inteligencji o niedopuszczalnym ryzyku
Systemy sztucznej inteligencji stwarzające niedopuszczalne ryzyko, czyli uważane za zagrożenie dla ludzi, zostaną zakazane. Wśród przykładów takich systemów Unia Europejska podaje:
- Poznawczo-behawioralną manipulację ludźmi lub określonymi wrażliwymi grupami: na przykład zabawki aktywowane głosem, które zachęcają dzieci do niebezpiecznych zachowań.
- Scoring (klasyfikacja punktowa) obywateli: klasyfikację ludzi na podstawie ich zachowań, statusu społeczno-ekonomicznego lub cech osobistych.
- Systemy identyfikacji biometrycznej działające w czasie rzeczywistym i zdalnie, takie jak rozpoznawanie twarzy. Dopuszczalnym wyjątkiem może być wykorzystywanie tych systemów do identyfikacji przestępców, ale wyłącznie po uzyskaniu decyzji sądu.
Wysokie ryzyko – systemy AI pod specjalnym nadzorem
Systemami wysokiego ryzyka będą systemy negatywnie wpływające na bezpieczeństwo lub prawa podstawowe. Wyróżnione zostaną dwie kategorie takich systemów. Do pierwszej kategorii zaliczymy systemy sztucznej inteligencji stosowane w produktach objętych unijnymi przepisami dotyczącymi bezpieczeństwa produktów. To np. zabawki, lotnictwo, samochody, urządzenia medyczne i windy. Do drugiej kategorii systemy sztucznej inteligencji należące do ośmiu konkretnych obszarów, które będą musiały zostać zarejestrowane w unijnej bazie danych:
- biometryczna identyfikacja i kategoryzacja osób fizycznych;
- zarządzanie i eksploatacja infrastruktury krytycznej;
- edukacja i szkolenie zawodowe;
- zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia;
- dostęp do i korzystanie z podstawowych usług prywatnych oraz usług i korzyści publicznych;
- ściganie przestępstw;
- zarządzanie migracją, azylem i kontrolą granic;
- pomoc w interpretacji prawnej i stosowaniu prawa.
Ograniczone ryzyko – generatywna sztuczna inteligencja
Generatywna sztuczna inteligencja zostanie zaliczona do kategorii ograniczonego ryzyka. Do generatywnej sztucznej inteligencji zaliczamy ChatGPT. Takie narzędzia będą musiały spełnić wymogi dotyczące przejrzystości, takie jak:
- ujawnienie, że treść została wygenerowana przez sztuczną inteligencję,
- zaprojektowanie modelu tak, aby nie generował on nielegalnych treści,
- publikowanie streszczeń chronionych prawem autorskim danych wykorzystywanych do szkoleń.
Kontrowersyjnym narzędziem zaliczanym do tej kategorii jest tzw. deepfake (łudząco realistyczne ruchome obrazy). Korzystanie z aplikacji generujących deepfake będzie dozwolone pod warunkiem, że po interakcji z tymi aplikacjami użytkownik będzie mógł następnie zdecydować, czy chce z nich dalej korzystać. Użytkownicy powinni być świadomi, że interakcja odbywa się ze sztuczną inteligencją. Pojawiają się jednak opinie, że technologia deepfake powinna zostać zaliczona do kategorii systemu stwarzającego niedopuszczalne ryzyko i zostać zakazana.
Sprawdź: Prawnik ochrona dóbr osobistych
Pierwsze globalne przepisy dotyczące sztucznej inteligencji
Zakończenie prac nad aktem prawnym Unia Europejska przewidziała do końca roku 2023. Gdy akt zostanie przyjęty, będą to pierwsze na świecie przepisy dotyczące sztucznej inteligencji.
Data publikacji: 08 sierpień 2024
Autor: Justyna Gumuła-Kędracka