Marco Civil zatwierdzony przez Senat ustanawia bardziej rygorystyczne zasady dotyczące sztucznej inteligencji w przypadkach, gdy ma ona wpływ na życie ludzkie
Pojazdy autonomiczne, diagnostyka medyczna i kontrola ruchu to tylko niektóre z systemów sklasyfikowanych jako „wysokiego ryzyka”; we wniosku ustanawia się również standardy ochrony praw autorskich
Systemy „wysokiego ryzyka”, np. mające bezpośredni wpływ na życie ludzkie lub prawa podstawowe, będą podlegały bardziej rygorystycznym przepisom. Ponadto wykorzystanie sztucznej inteligencji w kontekstach takich jak pojazdy autonomiczne, selekcja studentów i polityka publiczna będzie bardziej ograniczone. Systemy o „nadmiernym ryzyku”, takie jak systemy wykorzystujące broń autonomiczną i techniki podprogowe, są również zabronione.
Jedną z głównych innowacji projektu jest wprowadzenie wstępnej oceny ryzyka, obowiązkowej dla systemów generatywnych i ogólnego przeznaczenia, w celu zmierzenia potencjalnego wpływu przed udostępnieniem ich na rynku. We wniosku ustanawia się również przepisy dotyczące ochrony praw autorskich, umożliwiające wykorzystywanie chronionych treści do szkolenia sztucznej inteligencji w kontekście badawczym i edukacyjnym, bez szkody dla interesów gospodarczych twórców.
W zakresie praw obywatelskich projekt zapewnia ochronę prywatności i dóbr osobistych. Stosowanie sztucznej inteligencji do identyfikacji biometrycznej i innych technologii musi odbywać się z poszanowaniem uprzedniej zgody i unikać dyskryminacji lub naruszenia prywatności. W przypadku systemów, które mogą bezpośrednio wpływać na prawa pracowników, takich jak zautomatyzowane decyzje dotyczące rekrutacji i zwolnień, zagwarantowane zostanie prawo do kontroli decyzji przez człowieka.
Krajowy organ ochrony danych (ANPD) będzie odpowiedzialny za regulację i monitorowanie sztucznej inteligencji w Brazylii, a w razie potrzeby za nakładanie sankcji i kar. ANPD będzie także koordynować Krajowy System Regulacji i Zarządzania Sztuczną Inteligencją (SIA), zintegrowany przez organy państwowe i podmioty samoregulacyjne, w celu harmonizacji polityk publicznych i promowania przejrzystości w wykorzystaniu sztucznej inteligencji.
Ponadto projekt zapewnia, że obywatele dotknięci systemami wysokiego ryzyka będą mieli prawo do wyjaśnień dotyczących decyzji podejmowanych przez sztuczną inteligencję, możliwość ich zakwestionowania i zażądania weryfikacji przez człowieka, zwłaszcza gdy decyzje te będą miały istotne skutki prawne. Substytut ma także na celu zrównoważenie ochrony praw indywidualnych i społecznych z postępem technologicznym, stymulowaniem innowacji, zwłaszcza w mikroprzedsiębiorstwach i krajowych start-upach, oraz promowaniem umiejętności cyfrowych społeczeństwa w celu lepszego wykorzystania technologii.
Opublikowane przez Felipe Dantasa
*Raport wyprodukowany przy pomocy sztucznej inteligencji