Komentarz Grzegorza Wiśniewskiego, CEO Soluma Group.
Narzędzia sztucznej inteligencji dosłownie wdzierają się w naszą codzienność. Mnóstwo osób nie ma zielonego pojęcia, że kupiło już coś tylko dlatego, że reklamował to sztucznie wygenerowany model lub za sprawą przeczytania atrakcyjnego tekstu sprzedażowego od A do Z napisanego przez bota. Sprawy zaczęły się wymykać spod kontroli, natomiast jest szansa, że rynek usług AI zostanie ucywilizowany. Na początek zabrała się za to Rada Unii Europejskiej, która właśnie przyjęła AI Act. Przenalizowałem ten dokument, a wnioskami dzielę się w moim komentarzu.
AI Act jest pierwszym zbiorem przepisów, które regulują podstawowe kwestie związane z ingerowaniem narzędzi sztucznej inteligencji w nasze życie. Podkreślam tutaj słowo „podstawowe”, ponieważ z pewnością nie możemy jeszcze mówić o kompleksowym uporządkowaniu działalności podmiotów korzystających z AI oraz sprzedających usługi i produkty oparte o sztuczną inteligencję, w szczególności modele językowe.
Najważniejszym, co wprowadzają nowe przepisy, jest podzielenie narzędzi AI na cztery kategorie, czyli:
Klasyfikacja odnosi się więc do poziomów ryzyka, jakie niesie ze sobą korzystanie z poszczególnych narzędzi AI.
Do kategorii oprogramowania o minimalnym ryzyku zaliczono przede wszystkim chatboty i gry wideo. AI Act nakłada na twórców tych narzędzi jedynie podstawowe wymogi dotyczące przejrzystości – m.in. chodzi o informowanie użytkowników wprost, że mają do czynienia z wytworem sztucznej inteligencji.
Bardzo istotnym przepisem jest ten, który nakłada obowiązek wyraźnego oznaczania treści zmanipulowanych, czyli tzw. deepfakek’ów.
W unijnych przepisach za technologie wysokiego ryzyka uznaje się te, które są wykorzystywane na cele edukacji, przede wszystkim do analizowania podań o stypendia czy przyjęcie na studia. Każdy producent takiego oprogramowania będzie musiał ocenić ryzyko pomyłek, a osoby, które zostaną odrzucone na podstawie analizy przeprowadzonej przez AI, będą mieć prawo do zaskarżenia tej decyzji.
Na terytorium Unii Europejskiej całkowicie zakazane będą natomiast systemy, które w wyraźny sposób zagrażają podstawowym prawom użytkowników. Mogą to być m.in. aplikacje monitorujące, szpiegujące czy wykorzystujące wrażliwe dane, chociażby do oceny efektywności pracy (tego typu rozwiązania stosuje się już m.in. w Chinach).
Zabronione będą również programy służące do tzw. punktowania społecznego, co znów jest inspiracją zaczerpniętą z Chin (gdzie rząd posunął się stanowczo za daleko, za pretekst wykorzystując pandemię COVID-19).
Zakazem będą objęte również technologie służące monitorowaniu ludzkich emocji oraz rozpoznawaniu twarzy – tutaj jednak zostawiono szeroko otwartą furtkę, wskazując na sytuacje związane z przeciwdziałaniem terroryzmowi.
W ramach AI Act powstanie również urząd ds. sztucznej inteligencji przy Komisji Europejskiej, a także rada do spraw sztucznej inteligencji złożona z przedstawicieli państw członkowskich.
Pełne wdrożenie nowych przepisów nastąpi DOPIERO za 2 lata. I to jest największy zgrzyt w całym tym pomyśle, któremu jak najbardziej wypada przyklasnąć, natomiast tempo wprowadzania tak ważnego prawa jest żenująco wolne.
Co z tego, że UE jako pierwsza opracowała skonsolidowane przepisy dotyczące sztucznej inteligencji, skoro powolny proces legislacyjny spowoduje, że niemal na pewno podobne lub lepsze rozwiązania zdążą wprowadzić np. Stany Zjednoczone. Może się wówczas okazać, że przepisy amerykańskie wprost zablokują część tych unijnych z uwagi na konflikt interesów (USA mają ambicję bycia głównym dostawcą technologii AI).