Łukasz Borowiecki on Linkedin
Łukasz Borowiecki
Co-founder and CEO at 10 Senses | AI Sector Expert at Digital Poland Foundation
Delivering value with data & AI

 

  • Komisja Europejska rozpoznaje ryzyka prawne związane z wykorzystaniem AI
  • Planowane jest wyróżnienie aplikacji AI wiążących się z wysokim ryzykiem
  • Przedstawiony jest zarys wymagań wobec aplikacji AI wysokiego ryzyka

—————

Dokument „On Artificial Intelligence – A European approach to excellence and trust” został opublikowany w lutym i przynosi garść ciekawych informacji odnośnie do kierunku, jaki Komisja Europejska chce przyjąć w kwestii regulacji technologii AI. Owszem, nawiązuje też do strategii AI przedstawionej w 2018 roku i jest w nim trochę informacji odnośnie do dalszych działań w obszarze AI w tym finansowania. Jednak najważniejsze rzeczy dotyczą regulacji i to na nich skupię uwagę w poniższym wpisie.

Na moment obecny AI nie jest regulowana i stanowi to problem

Aktualnie brakuje regulacji prawnych dotyczących wykorzystania modeli AI. Wiele osób na pewno przyklaśnie wskazując, że jest to sytuacja, która daje dużo swobody i pomaga startupom rozwijać nowe technologie i wprowadzać je na rynek.

Jednak sytuacja ta stanowi też źródło niepewności natury prawnej związanych z prowadzeniem biznesu. W przypadku incydentów związanych z AI określenie odpowiedzialności zazwyczaj jest trudne. Co więcej, problem ten jest potęgowany przez fakt, że w sektorze publicznym brakuje ekspertów koniecznych do dokonania inspekcji tego rodzaju systemów.

W tej sytuacji Komisja Europejska proponuje określenie obramowań prawnych w takich kwestiach:

  • Odpowiedzialność prawna – tutaj istotną kwestią jest fakt, że AI są systemami o charakterze czarnej skrzynki, przez co kwestie prawne i odpowiedzialność często są niejednoznaczne i trudne do zweryfikowania. Np. jak rozdzielić odpowiedzialność prawną pomiędzy producentami produktu oraz oprogramowania AI.
  • Przepisy dot. bezpieczeństwa – UE narzuca przepisy w odniesieniu do bezpieczeństwa produktów, jednak generalnie nie czyni tak w kwestii usług. Rozwiązania AI często rozmywają te dwa obszary (np. czym jest Alexa lub autonomiczne auto). Dlatego kwestią otwartą jest, czy AI powinna podlegać regulacji i jeśli tak, to w jakich sytuacjach (np. gdy nie stanowi ona części produktu, lecz jest dodana już po sprzedaży).
  • Zmiana funkcjonalności AI – Zmiany w AI mogą modyfikować lub dodawać kolejne funkcjonalności produktu a tym samym generować nowe ryzyka.

Aplikacje AI o wysokim ryzyku

Nie wszystkie zastosowania AI wymagają silnych regulacji. Gry komputerowe są czymś innym niż autonomiczne auta. Dlatego planowane jest określenie aplikacji AI o wysokim ryzyku („high-risk”). Aplikacje te określa się jako spełniające jedną lub kilka z poniższych charakterystyk:

  • Sektor gospodarki: aplikacja dla sektora obarczonego ryzykiem, takiego jak ochrona zdrowia, transport, energetyka czy niektóre obszary sektora publicznego
  • Rodzaj działania: aplikacja jest wykorzystywana w sposób, który może stwarzać ryzyko – np. konsekwencje prawne, urazy fizyczne itp.
  • Równe prawa: aplikacja wpływa na proces rekrutacji, prawa pracownicze itd.
  • Biometria: wykorzystanie AI do celów identyfikacji biometrycznej

Wymagania stawiane modelom AI o wysokim ryzyku

Komisja Europejska przewiduje, że modele AI o wysokim ryzyku powinny spełniać kilka wymagań. Na ten moment nie są one szczegółowo sprecyzowane, jednak już punkty przedstawione w białej księdze AI pokazują, w jakim kierunku będą takie regulacje podążać.

  1. Dane treningowe – dane, na których trenowany jest model AI mają kluczowe znaczenie dla jego działania. Powinny spełniać poniższe wymogi:
    • Bezpieczeństwo – aby spełniać wymogi bezpieczeństwa systemy AI muszą być trenowane na danych wystarczająco bogatych oraz uwzględniających wszystkie potencjalne scenariusze
    • Równość – modele AI nie mogą dyskryminować ze względu na płeć, pochodzenie etniczne itp. Dlatego dane muszą być reprezentatywne w tych wymiarach.
    • Prywatność – Gwarantują bezpieczeństwo oraz prywatność danych
  2. Zachowanie rekordów oraz danych – w sytuacjach krytycznych konieczne jest ustalenie przyczyn awarii lub wypadku. Dlatego podczas budowy modelu konieczne jest zachowanie:
    • Informacji o danych treningowych (opis danych, metodyki ich zbierania)
    • W szczególnych przypadkach przechowywanie samych danych testowych
    • Zachowanie dokumentacji metodyki trenowania modelu, zastosowanych technik.

Oprócz powyższych wymagań związanych z danymi, systemy AI mają gwarantować następujące rzeczy:

  1. Czytelna informacja – o posiadanych możliwościach systemu AI i jego ograniczeniach. Użytkownik ma być informowany o fakcie interakcji z AI.
  2. Dokładność – wyniki muszą być dokładne, powtarzalne, a system dobrze radzić sobie z błędami i nieścisłościami w całym cyklu życia.
  3. Nadzór ludzki – AI nie może podminować autonomii człowieka, dlatego może zostać uruchomiony dopiero po przeglądzie i walidacji. Gwarantowane są monitoring w czasie rzeczywistym oraz możliwość interwencji człowieka. Mają być również wprowadzone ograniczenia na etapie rozwoju systemu AI (np. w przypadku aut autonomicznych)
  4. Biometria – ograniczenia przy wykorzystaniu danych biometrycznych

Regulacja AI będzie skutkować barierami dla MŚP

Regulacje proponowane przez Komisję Europejską są koniecznością. Obszar AI wymaga porządku prawnego. Dla dobra konsumentów oraz przedsiębiorstw.

Mimo to regulacje będą pewnie stanowić barierę dla mniejszych firm. I to zarówno dla twórców systemów AI, jak i firm, które chcą z tych systemów korzystać. Korzystanie z AI będzie się wiązać z koniecznością spełnienia wielu wymogów, będzie to kosztować czas i pieniądze. Można argumentować, że wymogi dotyczą tylko branż wysokiego ryzyka, ale przecież to właśnie są branże, gdzie jest najwięcej możliwości stosowania AI.

Komisja przewiduje, że wsparciem dla MŚP w rozwoju w obszarze AI będą Ośrodki Innowacji Cyfrowych („Digital Innovation Hub”). Jednak trudno oczekiwać, aby była to wystarczająca przeciwwaga dla szeregu barier prawnych wynikających z regulacji.

Aktualnie pozostaje czekać na kolejne informacje w sprawie regulacji UE. W czwartym kwartale 2020 roku ma zostać przedstawiona kontynuacja białej księgi AI.

 

 

 

Łukasz Borowiecki on Linkedin
Łukasz Borowiecki
Co-founder and CEO at 10 Senses | AI Sector Expert at Digital Poland Foundation
Delivering value with data & AI

 


Jeżeli zainteresował Cię artykuł i zastanawiasz się w jaki sposób 10 Senses może wspomóc pracę w Twojej organizacji to skontaktuj się z nami. Chętnie przeprowadzimy, krótką rozmowę i odpowiemy na wszystkie pytania: