Kluczowe informacje o AI Act:
- Zakazane praktyki: Od 2 lutego 2025 roku zakazane będzie używanie i wprowadzanie do obrotu systemów AI, które spełniają kryteria zakazanych praktyk. Za naruszenie tego zakazu grożą wysokie kary pieniężne (do 35 mln euro lub 7% rocznego światowego obrotu).
- Kryteria zakazu: Szczegółowe informacje na temat tego, jakie systemy AI zostaną uznane za zakazane, opublikuje Komisja Europejska. Jednak zdaniem Ministerstwa Cyfryzacji „zanim jednak to nastąpi, konieczne jest podjęcie działań, które pozwolą przedsiębiorcom, urzędnikom czy obywatelom zrozumieć nowe przepisy oraz przygotować się na ich wejście w życie”.
- Obowiązki dla wszystkich: Przepisy Aktu o AI dotyczą zarówno osób fizycznych, jak i prawnych, co oznacza, że będą musieli ich przestrzegać zarówno pracownicy sektora publicznego, obywatele, jak i przedsiębiorcy.
Co to oznacza dla odbiorców?
- Przedsiębiorcy: Jeśli Twoja firma korzysta z systemów AI, musisz upewnić się, że nie naruszają one przepisów Aktu. W szczególności, należy unikać stosowania systemów AI, które wykorzystują zakazane praktyki.
- Urzędnicy: W sektorze publicznym również należy zwrócić szczególną uwagę na stosowanie systemów AI, aby zapewnić ich zgodność z Aktem.
- Obywatele: Warto być świadomym, jakie systemy AI mogą być niebezpieczne lub naruszać prawa podstawowe.
Zakazane praktyki w obszarze użycia systemów AI zostały wymienione w art. 5 Aktu i zalicza się do nich:
- Techniki podprogowe, manipulacyjne lub wprowadzające w błąd: Wykorzystywanie technik, które działają na podświadomość, manipulują lub wprowadzają w błąd, mogąc zniekształcać zachowanie osób, grup i prowadzić do szkód.
- Wykorzystywanie słabości: Wykorzystywanie słabości fizycznej lub psychicznej osoby, grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną.
- Klasyfikacja osób (scoring społeczny): Klasyfikowanie osób fizycznych na podstawie ich zachowań społecznych lub cech osobistych, jeśli prowadzi to do krzywdzącego lub niekorzystnego traktowania.
- Oceny ryzyka popełnienia przestępstwa: Przeprowadzanie ocen ryzyka w odniesieniu do osób fizycznych, w celu przewidzenia ryzyka popełnienia przestępstwa, wyłącznie na podstawie profilowania osoby fizycznej lub oceny jej cech osobowości i cech charakterystycznych.
- Rozpoznawanie twarzy: Tworzenie lub rozbudowywanie bazy danych służącej rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie wizerunków twarzy z Internetu lub nagrań z telewizji przemysłowej.
- Wyciąganie wniosków na temat emocji: Wyciąganie wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkami dotyczącymi medycyny i bezpieczeństwa.
- Kategoryzacja biometryczna: Kategoryzacja biometryczna osób fizycznych służąca wydedukowaniu lub wywnioskowaniu informacji na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej.
- Zdalna identyfikacja biometryczna w czasie rzeczywistym: Zdalna identyfikacja biometryczna w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, z wyjątkami dotyczącymi sytuacji, w których jest to bezwzględnie konieczne i spełnione są określone warunki.
Wejście w życie Aktu o AI ma to być ważny krok w kierunku uregulowania rynku sztucznej inteligencji, ale czy na pewno?
Napisz komentarz
Komentarze