Anonimizacja zdjęć i nagrań wideo – kompendium wiedzy

Poniższy artykuł, to prawdopodobnie jedyne w polskim internecie kompendium wiedzy na temat anonimizacji fotografii i nagrań wideo. Temat jest istotny zarówno w kontekście prywatności jak i bezpieczeństwa informacji oraz przestrzegania przepisów o ochronie danych osobowych. Wymóg anonimizacji dotyczy głównie organizacji, które przechowują zdjęcia i nagrania wideo, udostępniają je osobom lub podmiotom trzecim, a także wykorzystują […]

Mar 13, 2025 - 21:17
 0
Anonimizacja zdjęć i nagrań wideo – kompendium wiedzy

Poniższy artykuł, to prawdopodobnie jedyne w polskim internecie kompendium wiedzy na temat anonimizacji fotografii i nagrań wideo. Temat jest istotny zarówno w kontekście prywatności jak i bezpieczeństwa informacji oraz przestrzegania przepisów o ochronie danych osobowych. Wymóg anonimizacji dotyczy głównie organizacji, które przechowują zdjęcia i nagrania wideo, udostępniają je osobom lub podmiotom trzecim, a także wykorzystują je np. do trenowania modeli AI. Na przykład niewiele firm budowlanych zdaje sobie sprawę, że wykonując dokumentację zdjęciową i filmową w ramach projektów, powinny wykonywać anonimizację zebranych materiałów jeśli pojawiają się w nich ludzie.

Ryzyka prawne związane z niewdrożeniem procedur i technicznych środków anonimizacji z każdym rokiem są coraz większe. Przybliżymy tę kwestię odwołując się do wiedzy zapytanych prawników. Następnie przedstawimy różne rozwiązania techniczne służące do anonimizacji, jakie są obecnie dostępne na rynku. Przedstawimy ich wady i zalety w przystępny sposób, aby osoby potrzebujące tego rodzaju rozwiązań zdobyły  w temacie podstawowe rozeznanie. Na koniec odpowiemy na najczęściej zadawane pytania w tym zakresie.

Zamazywanie twarzy i tablic rejestracyjnych w firmach od strony prawnej i technicznej

Jeszcze do niedawna o ochronie danych osobowych i bezpieczeństwie informacji mówiliśmy głównie w kontekście rekordów tekstowych. Anonimizacja materiałów wizualnych, czyli mówiąc potocznie “zamazywanie twarzy i tablic rejestracyjnych” kojarzy nam się z usługą Google Maps oraz telewizyjnymi relacjami ze spraw kryminalnych. Choć nie zawsze trzeba stosować taką anonimizację, to ci, którzy muszą, a tego nie zrobią narażają się na sporą odpowiedzialność. Z czasem anonimizacja różnych danych, nie tylko twarzy będzie wymagana od  coraz większej liczby organizacji. Postaraliśmy się możliwie najpełniej omówić tę tematykę odwołując się do aktualnej, praktycznej wiedzy prawników oraz ekspertów w dziedzinie zautomatyzowanej anonimizacji. Zaczynamy!

SPIS TREŚCI:

Czy wizerunek twarzy i obraz tablic rejestracyjnych stanowi dane osobowe?

W przypadku twarzy nie ma co do tego żadnych wątpliwości. W tej kwestii panuje wśród ekspertów konsensus.

Należy przyjąć, że zgodnie z RODO  jeżeli dana osoba jest rozpoznawalna na zdjęciu, zdjęcie może być traktowane jako dane osobowe, a tym samym podlegać ochronie.” – wyjaśnia mecenas Mikołaj Śniatała z kancelarii Andersen Tax & Legal.

Wynika z tego, że udostępnianie i przechowywanie tego rodzaju danych podlega tym samym przepisom, które od dawna stosujemy do imion, nazwisk, PESELi albo dat urodzenia. Od tej zasady istnieją wyjątki, które omówimy w dalszej części tekstu. Natomiast w sprawie tablic rejestracyjnych sprawa nie jest już taka oczywista. W Europie Zachodniej, a zwłaszcza w Niemczech, ich anonimizacja jest powszechną praktyką. W Polsce jednak Naczelny Sąd Administracyjny w wyroku z 3 listopada 2022 r. (sygn. akt III OSK 1522/21) orzekł, że nie są one danymi osobowymi.

Czy zatem możemy uznać, że przechowywanie i udostępnianie niezanonimizowanych materiałów z tablicami rejestracyjnymi jest bezpieczne? Poprosiliśmy o komentarz Dominikę Królik, adwokatkę, właścicielkę kancelarii Królik Legal, certyfikowaną audytorkę norm bezpieczeństwa z zakresu danych osobowych i sztucznej inteligencji, specjalizującą się w prawnych zagadnieniach nowych technologii:

Zgodnie z powołanym stanowiskiem NSA same numery rejestracyjne, w oderwaniu od innych danych, nie umożliwiają bezpośredniej identyfikacji właściciela pojazdu. Wynika to z faktu, że numer rejestracyjny identyfikuje pojazd, a nie osobę fizyczną.

Choć tablice rejestracyjne same w sobie nie są klasyfikowane jako dane osobowe, ich potencjalne połączenie z innymi informacjami rodzi ryzyko naruszenia ochrony danych. Warto zwrócić uwagę na kontekst, w jakim dane te są przetwarzane, oraz na dynamiczny rozwój technologii, który znacznie ułatwia łączenie i powiązywanie różnych informacji. Dzięki nowoczesnym narzędziom, których dostarczają sztuczna inteligencja i projekty IoT, coraz częściej możliwa staje się identyfikacja właściciela pojazdu na podstawie numerów rejestracyjnych. Przykładem mogą być systemy automatycznej płatności parkingowej, które wykorzystują numery rejestracyjne do powiązania ich z danymi osobowymi użytkowników. (Albo, w przypadku wyróżników indywidualnych, zdjęcie samego właściciela umieszczone na jego profilu w mediach społecznościowych i namierzone dzięki technikom OSINT-owym – dop. red.)

Ocena ryzyka naruszenia praw lub wolności osób fizycznych powinna być przeprowadzana indywidualnie, z uwzględnieniem kontekstu, podstawy prawnej oraz celu przetwarzania danych osobowych. Jej wyniki mogą wskazywać, że anonimizacja stanowi środek zabezpieczenia, który skutecznie ograniczy potencjalne zagrożenia”.

Które przepisy wymagają stosowania anonimizacji materiałów i zdjęć?

Potrzeba ta wynika zarówno z RODO, prawa autorskiego i Kodeksu cywilnego.

“Zgodnie z art. 23 KC wizerunek jest dobrem osobistym człowieka, które to dobro jest chronione przez prawo. Utrwalony wizerunek w postaci zdjęć i ich ponowne użycie jest również regulowane przez art. 81 prawa autorskiego, które co do zasady wymagają uzyskania zgody osoby uwidocznionej na fotografii” – komentuje mecenas Mikołaj Śniatała z Andersen Tax & Legal. 

Od tej zasady jest kilka wyjątków: “Na przykład wizerunek osoby utrwalony podczas relacji z wydarzeń sportowych może być udostępniany bez zgody osoby utrwalonej na zdjęciu. Stanowi o tym ust. 2 art. 81 prawa autorskiego który precyzuje, że wykorzystanie wizerunku osoby stanowiący jedynie szczegół całości takiej jak zgromadzenie, krajobraz, publiczna impreza nie wymaga zgody” – zaznacza mecenas.

Z kolei RODO nakłada na administratorów danych osobowych obowiązek minimalizacji wykorzystania danych osobowych. “Generalnie wszystko co wychodzi poza uzasadniony interes w wykorzystaniu danych na potrzeby wykonania celu przetwarzania wymaga zgody osoby, której wizerunek ma być wykorzystany”. Tak więc “anonimizacja zapobiega powstawaniu ryzyka naruszenia przepisów, a tym samym jest korzystna z punktu widzenia administratora, gdyż po jej wykonaniu nie mamy już do czynienia z danymi osobowymi, a tym samym wymagania RODO nie obowiązują”. Jak podkreśla mecenas: “analiza ryzyka prowadzenia biznesu w tych warunkach regulacyjnych i sankcji za niewłaściwe przetwarzanie danych osobowych prowadzi do wniosku, że lepiej nie mieć danych osobowych niż mierzyć się z  ich właściwym przetwarzaniem” (tzw. dane toksyczne – dop. red.).

Podsumowując ekspert stwierdza: “chociaż nie ma obowiązku prewencyjnego wykonywania anonimizacji materiałów i zdjęć, brak anonimizacji w przypadku uznania, że utrwalony wizerunek stanowi daną osobową wymusza na administratorze spełniania wymogów RODO i stanowi ryzyko naruszenia przepisów”. Pogląd ten podziela też adwokatka Dominika Królik, zdaniem której: “anonimizacja może stanowić kluczowy środek zarządzania ryzykiem w projektowaniu systemów zarządzania nim, który dodatkowo przyczyni się do zapewnienia transparentności w działaniu systemów sztucznej inteligencji”.

Czy ochrona wizerunku i danych osobowych są jedynymi przesłankami do zamazywania twarzy i tablic rejestracyjnych w zbiorach materiałów wideo i zdjęć?

Zdecydowanie nie – twierdzi Tomasz Ochocki, wiceprezes firmy ODO24, od lat specjalizującej się w szkoleniach i doradztwie w zakresie RODO, inspektor ochrony danych osobowych i audytor standardów ISO – a następnie rozwija:

“Zasadność lub konieczność stosowania anonimizacji może wynikać z wymogów umów biznesowych, stanowić dodatkową ochronę prywatności oraz zabezpieczać interesy firmy przed wykorzystaniem tych danych przez konkurencję. Biorąc pod uwagę dynamiczny rozwój systemów sztucznej inteligencji, zamazywanie twarzy, pozwala ograniczyć ryzyko nieautoryzowanego wykorzystania wizerunków np. do trenowania algorytmów bez zgody osób, których dane dotyczą. W przypadku trenowania modeli AI anonimizacja może pomóc ograniczać potencjalne naruszenia podstawowych praw osób.”

Jakie ryzyka niesie ze sobą brak anonimizacji fotografii i materiałów wideo?

W Polsce jest to nadal temat, do którego firmy i instytucje często podchodzą w sposób lekceważący, niemniej zagrożenie związane z takim podejściem staje się z roku na rok coraz bardziej realne (świadczy o tym chociażby kara w wysokości blisko pół miliona złotych nałożona na placówkę medyczną. Nawiążemy do tego w kolejnym akapicie). Tymczasem w całej Europie firmy i instytucje od dawna przekonują się, że lekkomyślność może drogo kosztować. Najczęściej firmy uchylają się z wypełnienia artykułu 15 RODO, czyli udostępnienia nagrań z monitoringu wideo na żądanie osoby fizycznej (omawiamy to dokładniej w dalszej części artykułu). Jako wymówkę często przywołuje się fakt, że nagranie zawiera wizerunek innych osób, a zatem nie może zostać udostępnione bez pogwałcenia ich prawa do prywatności. Szczególnie w tym ostatnim przypadku organy nadzorcze coraz częściej nie mają wątpliwości, będąc świadome istnienia technicznych możliwości, jakie daje anonimizacja.

W przypadku serii kar wymierzonych w Rumunii sieci sklepów Kaufland, organ nadzorczy podkreślił, iż zgodnie z prawem administrator nie tylko zobowiązany jest do udostępnienia nagrania monitoringu osobie, której ono dotyczy. W uzasadnieniu podkreślono, że administrator danych zobowiązany jest ponadto do zastosowania szeregu środków technicznych i organizacyjnych, aby nie naruszać praw innych osób fizycznych. Dlatego twarze wszystkich osób pojawiających się na nagraniu powinny być zamazane. To samo dotyczy tablic rejestracyjnych. W podobnej sprawie mały sklep osiedlowy na Węgrzech musiał pogodzić się z karą w wysokości 54 800 euro (orzeczenie odwoływało się w tym przypadku do kilku artykułów RODO).

Tomasz Ochocki z ODO24 przywołuje sprawę, która miała miejsce w 2020 roku w Austrii, gdzie operator systemu kamer w jednym z największych centrów handlowych w Wiedniu naraził się na poważne zarzuty. Kamery były zainstalowane w przebieralniach, a nagrania, które powinny być ściśle chronione, nie były odpowiednio anonimizowane. Efekt? Nagrania klientów, w tym nieletnich, trafiły w niepowołane ręce. Austriacki organ ochrony danych (DSB) nałożył wysoką karę, a sprawa odbiła się szerokim echem, przypominając wszystkim o potrzebie odpowiednich zabezpieczeń w miejscach publicznych.

Ten sam ekspert opisuje jako przestrogę historię, która wydarzyła się we Francji w 2019 roku. Tamtejsza sieć sklepów detalicznych używała systemu monitoringu wideo do analizy zachowań klientów w celach marketingowych, ale nie zadbano o odpowiednią anonimizację materiałów. CNIL, francuski organ ochrony danych, interweniował, wskazując, że system identyfikował konkretne osoby, co stanowiło naruszenie przepisów RODO. W rezultacie firma została ukarana grzywną, a przypadek wywołał szeroką dyskusję o etycznym wykorzystaniu technologii do analizy klientów w przestrzeni komercyjnej.

Pod tym linkiem można znaleźć krótkie zestawienie wybranych kar nałożonych w ostatnich latach w związku z monitoringiem wizyjnym w różnych krajach europejskich. Prawdopodobnie części z nich udałoby się uniknąć, gdyby podmiot przetwarzający wdrożył procedury i techniczne środki związane z anonimizacją.

Jakie mogą być konsekwencje wycieku takich danych?

Krótko mówiąc – takie same jak w przypadku wycieku PESELI czy innych danych osobowych. “Wyciek danych stanowi poważne zagrożenie, które może mieć daleko idące skutki na wielu płaszczyznach”. – wskazuje adwokatka Dominika Królik, a następnie rozwija: “Takie naruszenie prywatności może prowadzić do ujawnienia wizerunku i zachowań osób, predykcji ich postępowania, profilowania lub pozyskania informacji o know-how organizacji. W konsekwencji może dojść nie tylko do popełnienia przestępstw, ale przede wszystkim do powstania ogromnych strat finansowych i wizerunkowych. Każde tego typu zdarzenie wpływa na zaufanie do podmiotu stosującego monitoring, co może nadszarpnąć jego reputację i odbić się na relacjach z klientami lub partnerami. Zgodnie z RODO, kara za naruszenie przepisów tego rozporządzenia może wynosić do 20 000 000 EUR, a w przypadku przedsiębiorstwa – w wysokości do 4% jego całkowitego rocznego światowego obrotu. Jak pokazuje nam praktyka, do takich wycieków dochodzi systematycznie, a firmy nie dopełniając obowiązków należytej ochrony danych osobowych zostają ukarane”.

Na marginesie warto wspomnieć o karze, wnoszącej blisko pół miliona złotych, nałożonej przez UODO na placówkę medyczną w Krakowie w związku z zagubieniem lub kradzieżą kart pamięci z urządzeń monitoringu. Kamery zainstalowane były na oddziale dla noworodków. “Po przeprowadzeniu czynności wyjaśniających ustalono, że karty pamięci, na których znajdowały się nagrania nie zostały zaszyfrowane. Dodatkowo przekazana przez Centrum Medyczne analiza ryzyka nie obejmowała ryzyka będącego przyczyną wystąpienia incydentu oraz nie określała środków bezpieczeństwa, które mogłyby zapobiec jego wystąpieniu” (cyt. decyzja UODO nr DKNY. 5131.4.2024 z 17 stycznia 2025 r.). Czy posiadanie wdrożonych procedur i technicznych środków anonimizacji nagrań przechowywanych na takich nośnikach mogłoby ograniczyć wymiar kary? Odwołując się od decyzji organu można by na pewno wskazać, że utracone nośniki nie zawierały danych osobowych, które zostały zawczasu usunięte.

Kto w organizacji odpowiada za potrzebę anonimizacji? 

Sprawa jest jasna i nie podlega wątpliwości. “Za ten obszar odpowiada Inspektor Ochrony Danych Osobowych o ile został wyznaczony. Zasadą generalną jest odpowiedzialność administratora. W przypadku niewłaściwego realizowania obowiązków w tym zakresie, odpowiedzialność tę może ponieść kierownik jednostki będącej administratorem danych osobowych” – Podkreśla Mikołaj Śniatała z Andersen Tax & Legal.

W praktyce brak odpowiedniej ochrony danych to także ryzyko dla kierowników lub prezesów.

Kiedy w praktyce występuje potrzeba zamazywania twarzy i tablic rejestracyjnych?

1. Przechowywanie znacznej ilości nagrań lub kolekcji zdjęć

Ta potrzeba pojawia się np. przy projektach budowlanych, pracach geodezyjnych czy w branży GIS. Przed przystąpieniem do budowy np. gazociągu czy autostrady, powstaje dokumentacja fotograficzna terenu. Niekiedy zapisy kontraktu wymagają udowodnienia postępów prac na każdym etapie budowy. Najczęściej nie da się przy tym uniknąć “złapania w obiektywie” pracowników, osób postronnych lub przypadkowych pojazdów. Czasem zdjęcia trzeba przekazać firmom zewnętrznym w ramach konsorcjum lub dostawcom. RODO nie precyzuje czasu przechowywania danych. Zamiast tego wskazuje, że czas ten powinien być ograniczony do tego, co niezbędne, aby zrealizować cel, w jakim dane zostały zebrane.

Teoretycznie zdjęcia i filmy powinny więc zostać usunięte natychmiast po tym, jak ustanie bezpośrednia biznesowa potrzeba ich wykorzystania. W tym miejscu pojawia się jednak problem – zebranie takiej ilości materiału to spory koszt (szczególnie przy dużych projektach infrastrukturalnych). Coraz częściej wykorzystywany jest do tego drogi sprzęt (samochody z systemem kamer używane w branży mobile mapping), a istnieje możliwość, że zdjęcia i nagrania mogą się jeszcze kiedyś przydać. Dlatego firmy dążą do tego, by móc je zachować na później. Skuteczna anonimizacja to umożliwia. W momencie, gdy zdjęcia lub nagrania zostaną “wyczyszczone” z danych osobowych, można dużo swobodniej się z nimi obchodzić.

2. Udostępnianie nagrań na żądanie podmiotu przetwarzania

To bardzo popularny przypadek, do którego nawiązaliśmy już wcześniej w tym kompendium.

Chodzi tu przede wszystkim o dopełnienie obowiązku zgodnie z artykułem 15 RODO, mówiącym o obowiązku udostępnienia danych na żądanie przez administratora osobie, której dane dotyczą (szerzej piszę o tym w osobnym artykule). W praktyce, jeśli zostaniemy gdziekolwiek uchwyceni przez kamerę monitoringu, mamy prawo wystąpić do jego operatora (będącego w tym przypadku administratorem danych) o udostępnienie nam nagrania, w którym się pojawiamy. W Polsce jeszcze niewiele osób zdaje sobie z tego sprawę, natomiast świadomość ta wzrasta z każdym rokiem.

Dotychczas właściciele i operatorzy systemów CCTV zasłaniali się wymyślonymi wymówkami. Jedna z popularniejszych to, że nie mają prawa przekazywać nagrań o tak po prostu przypadkowym osobom “z ulicy”, ponieważ wolno im to robić wyłącznie na wniosek służb (np. policji), firm ubezpieczeniowych, czy na podstawie nakazu sądowego. Jest to oczywiście nieprawda, bo prawo do otrzymania nagrania gwarantuje nam artykuł 15 RODO. Druga często przywoływana (sprytna) wymówka polega na stwierdzeniu, że w nagraniu pojawiają się również inne osoby i dlatego nie można go udostępnić, albowiem wiązałoby się to z zagrożeniem prywatności tychże osób. Również w tym przypadku tłumaczenia są absurdalne a organy nadzoru nie wahają się uderzać w takich nieuczciwych operatorów wysokimi karami (opisaliśmy to wcześniej w sekcji: “Jakie ryzyka niesie ze sobą brak anonimizacji fotografii i materiałów wideo?”).

Tomasz Ochocki z ODO24 podkreśla, że w kontekście żądania dostępu do danych dotyczących nagrań monitoringu, Europejska Rada Ochrony Danych (EROD) i krajowe organy nadzorcze, zajmowały jasne stanowisko, jak te kwestie powinny być traktowane w praktyce. EROD  wyraźnie wskazuje, że przy realizacji prawa dostępu kluczowe jest zachowanie równowagi między prawem do informacji, a prywatnością innych osób. W Europie Zachodniej organy nadzorcze takie jak francuski CNIL i brytyjski ICO idą o krok dalej mówiąc o konieczności zastosowania anonimizacji dla ochrony praw osób postronnych.

3. Przekazywanie danych podmiotom zewnętrznym

Nierzadko zdarza się, że zebrane dane osobowe stanowią jedynie zbędny dodatek materiału wizualnego, którym potrzebujemy podzielić się z innymi podmiotami. Przypadkowo uchwycone w kadrze osoby stanowią “szum”, nie ważący na merytorycznej wartości materiału. W tym przypadku anonimizacja pozwala dodatkowo się zabezpieczyć, a czasem wręcz uniknąć uciążliwości (i kosztów) związanych z podpisywaniem umów o powierzaniu danych osobowych. W praktyce, nawet zawierając takie umowy, to na nas jako na podmiocie powierzającym spoczywa obowiązek upewnienia się, czy nowy administrator odpowiednio otrzymane dane przetwarza, a więc między innymi chroni je, prowadzi rejestr czynności przetwarzania a na koniec usuwa je w sposób nieodwracalny. Pomimo dołożenia najlepszych starań, aby powyższe wyegzekwować, rozsądnym podejściem jest zachowanie marginesu zaufania. I tu z pomocą przychodzi anonimizacja.

4. Publikacja

W tym przypadku możemy odwołać się do tego, co zostało już powiedziane w punkcie “Które przepisy wymagają stosowania anonimizacji materiałów i zdjęć?”. W skrócie: wizerunki (np. twarzy) pozwalające zidentyfikować danego człowieka stanowią dane osobowe i powinny być chronione jak każde inne dane osobowe – potrzebujemy każdorazowo zgody na publikację. Wyjątkiem od tej reguły są np. imprezy masowe, gdzie możemy dowodzić, że pojedynczy wizerunek stanowi element “scenerii”. Pomiędzy tymi dwoma skrajnościami istnieje jednak wiele odcieni szarości. Doskonale wiedzą o tym firmy zajmujące się mobile mappingiem, wirtualnymi wycieczkami (virtual tours), twórcy cyfrowi czy portale ogłoszeniowe.

W przypadku usług podobnych do Google Street View moglibyśmy bez trudu mówić, że uchwycone w obiektywie osoby i pojazdy są “częścią sceny”, ale przy ogromnej skali nietrudno o liczne przypadki poważnego naruszenia prywatności, mogące mieć konkretne skutki materialne lub stworzyć dla postronnych osób problemy osobiste. Uzasadnionym jest zatem, że firmy działające w tej branży szeroko stosują anonimizację jako sprawdzony środek prewencyjny.


Przezorność wskazana jest również w przypadku umieszczania w Internecie fotografii swojego samochodu (np. na portalach aukcyjnych czy w social media) z widocznymi tablicami rejestracyjnymi – oszuści mogą to wykorzystać do popełnienia przestępstwa. Sprawdza się tu złota zasada, że ostrożności nigdy za wiele i że nie należy przekazywać więcej informacji, niż jest to konieczne.

5. Przygotowywanie zbiorów danych do trenowania AI

Gdy mowa o wykorzystaniu naszych zwykłych danych osobowych prawo zazwyczaj jest szczególnie restrykcyjne w dwóch przypadkach – kiedy mowa o działaniach marketingowych oraz o trenowaniu modeli sztucznej inteligencji.

To drugie zastosowanie występuje obecnie na szeroką skalę np. w branży motoryzacyjnej dążącej do tego aby produkować coraz bardziej autonomiczne pojazdy. Droga do tego jest obecnie tylko jedna – zbieranie ogromnej ilości materiału filmowego na drogach i ulicach miast, aby następnie “nakarmić” nim algorytmy AI w celu ich trenowania (takie zbiory danych występują pod anglojęzyczną nazwą ADAS datasets).“Warto zaznaczyć, że dla firm motoryzacyjnych najlepszą praktyką jest wdrożenie procesów anonimizacji jeszcze na etapie pozyskiwania danych, by uniknąć późniejszych problemów prawnych” – stwierdza adwokatka Dominika Królik, specjalizująca się między innymi w tej materii. Branża motoryzacyjna oczywiście dopiero przeciera szlak. Możemy sobie wyobrazić, że w niedalekiej przyszłości anonimizacja materiałów wideo i fotografii będzie koniecznością przy trenowaniu modeli AI w innych branżach. Akt o Sztucznej Inteligencji przyjęty przez Parlament i Radę Europejską dnia 13 czerwca 2024 r. wyraźnie potwierdza prawo do prywatności i ochrony danych osobowych jednostki na każdym etapie życia systemu AI, a więc również podczas jego tworzenia. 

6. Inne przypadki

W firmach bardzo często występuje potrzeba zachowania jakiegoś nagrania, aby następnie pokazywać je pracownikom w celach szkoleniowych z zakresu bezpieczeństwa i higieny pracy lub tzw. ‘loss prevention’. Mogą to być np. nagrania z hal magazynowych, ukazujące potencjalnie niebezpieczne sytuacje, wypadki, czy kosztowne pomyłki.

Po anonimizacji materiał taki można swobodnie wykorzystywać w różnych działach firmy na szkoleniach dla pracowników. Ostatnio coraz popularniejsze jest też instalowanie w służbowych pojazdach kamerek (czyli popularnych tzw. “dash-cams”, “kamerek samochodowych”). Pozwala to działom bezpieczeństwa i BHP na analizę niebezpiecznych incydentów i podnoszenie na szkoleniach kwalifikacji kierowców. Niemieckie koleje National Express wykorzystują zanonimizowany materiał z kamer montowanych w kabinach maszynistów na porannych odprawach dla załogi, pokazując zmiany organizacji ruchu, remonty i utrudnienia na trasie.

Dużą i bardzo szybko rosnącą grupę podmiotów korzystających z anonimizacji zdjęć i nagrań wideo stanowią szkoły i placówki edukacyjne, a także podmioty współpracujące (np. zajmujące się transportem dzieci do szkół). Prym wiodą tu organizacje zajmujące się edukacją specjalną – a więc posiadające tzw. dane szczególnie wrażliwe. 

Anonimizacja materiałów wideo i filmów – dostępne na rynku opcje

Na szczęście na rynku istnieje wiele rozwiązań, które możemy podzielić na kilka kategorii, w zależności od tego, jak zaawansowane algorytmy AI wykorzystują, w jaki sposób następuje anonimizacja oraz na jakim sprzęcie działają. 

1. Manualna edycja materiałów

Jak do tej pory niedościgniona pod względem dokładności, ale też najdroższa. Potrzebujemy wykwalifikowanego, przeszkolonego pracownika, a także licencji na odpowiednie oprogramowanie (no chyba, że wystarczają nam rozwiązania open source). Niezaprzeczalną zaletą jest całkowita dowolność graficznego efektu maskowania (od zwykłego czarnego kwadratu poprzez niezliczoną liczbę wzorów pikselizacji i rozmycia), jego kształtu, jak również co do samego obiektu, który powinien być zanonimizowany. Można w ten sposób zamazywać nie tylko twarze czy tablice rejestracyjne, ale również np. logo firmowe, nazwy ulic, tabliczki z imieniem i nazwiskiem, tatuaże – cokolwiek, co pozwala na identyfikację. To rozwiązanie ma jednak tyle samo wad co zalet. Przede wszystkim jest drogie w utrzymaniu i sprawdza się tylko tam, gdzie liczba danych do anonimizacji jest ograniczona. Manualna anonimizacja nagrania CCTV ze stacji kolejowej w godzinach szczytu, gdzie przez kadr przewalają się setki ruchomych twarzy, to ekonomiczny nonsens.

2. Rozwiązania wbudowane w kamery (tzw. “on edge”)

Można je spotkać w topowych (a coraz częściej również tych ze średniej półki) modelach wiodących producentów. Ich niezaprzeczalną zaletą jest to, że obraz anonimizowany jest “u źródła” i w takiej formie przekazywany dalej, co jest swoistym “Świętym Graalem” korporacyjnych prawników odpowiadających za ochronę danych osobowych i prywatności. Wady? Jest ich całkiem sporo. Po pierwsze działa ona wyłącznie w określonych modelach kamer (tych nowszych) podczas gdy potrzeba anonimizacji występuje często w obiektach, gdzie infrastruktura CCTV składa się z kamer rozmaitego typu, pochodzących od różnych dostawców i montowanych partiami w różnym czasie.

Po drugie, kamery z “wbudowaną” anonimizacją  wykorzystują przeważnie tzw. klasyczne algorytmy przetwarzania obrazu (wywodzące się często z ubiegłego wieku) o ograniczonej skuteczności, zwykle nieprzekraczającej poziomu 80 procent (mówiąc obrazowo, anonimizacja bywa “dziurawa”). Daleko im do dokładności detekcji i zamazywania obiektów osiąganej przez najnowsze generacje algorytmów AI, które z kolei wymagają dużo większej mocy obliczeniowej, niż ta, jaką dysponują niskonapięciowe procesory kamer. I tu dochodzimy do kolejnej wady – gdybyśmy chcieli w czasie rzeczywistym anonimizować obraz ze wszystkich kamer przemysłowych i tych w przestrzeni publicznej, jak chcieliby tego niektórzy ustawodawcy czy prawnicy – oznaczałoby to generowanie olbrzymiego dodatkowego śladu węglowego (oraz rachunków za energię). To sytuacja, gdzie jeden społecznie pożyteczny cel, jakim jest ochrona prywatności, stoi w nieredukowalnej sprzeczności z innym, jakim jest ochrona środowiska i walka z ociepleniem klimatu.

3. Rozwiązania będące częścią VMS

Dostawcy infrastruktury CCTV najczęściej, oprócz sprzętu, oferują własne systemy do kontroli i zarządzania obrazem z kamer (tzw. Video Management System). Często są to ogromne “kombajny” posiadające rozmaite funkcje i moduły. Nierzadko zdarza się, że jednym z takich dodatków jest możliwość anonimizacji materiałów o różnej dokładności. Ponieważ jest to najczęściej dodatek do większej całości, trudno oczekiwać takich rezultatów, jak w przypadku produktów firm wyspecjalizowanych wyłącznie w anonimizacji materiałów. Gdy komuś zależy tylko na anonimizacji, nie potrzebuje systemu VMS.

4. Rozwiązania chmurowe

Wykorzystują zazwyczaj najnowszą generację algorytmów AI, tak zwane konwolucyjne sieci neuronowe, będące zasobochłonne, ale oferujące niedoścignioną dokładność anonimizacji. Moc obliczeniowa nie jest tu jednak problemem, albowiem w chmurze jest dostępna od ręki. Nic dziwnego, że zdecydowana większość dostępnych dla szerokiego odbiorcy rozwiązań oferujących anonimizację, opiera się na serwisach online, za którymi stoi chmura. Wady? Choć anonimizacja odbywa się szybko, to cały proces jest spowalniany przez przesyłanie surowego i pobieranie gotowego materiału do i z chmury, a także obciążenia samego dostawcy, który nierzadko musi kolejkować zadania. Ponadto – i to chyba największa wada rozwiązań chmurowych – o ile nie jest to nasza chmura prywatna, potrzebujemy podpisać osobne umowy powierzenia danych. Mamy nad nimi mniejszą kontrolę. Ryzyko wycieku czy dostania się w niepowołane ręce bywa większe. W końcu – trzeba mieć pewność, że po zanonimizowaniu oryginalny materiał będzie usunięty. To wszystko sprawia, że korporacje i sektor publiczny niechętnie korzystają z tego typu rozwiązań.

5. Anonimizacja zdjęć i nagrań wideo na lokalnym serwerze

Najczęściej opiera się na tych samych, bardzo dokładnych algorytmach co rozwiązania działające w chmurze (konwolucyjne sieci neuronowe). To dobry wybór dla firm i instytucji potrzebujących anonimizować partie materiału w ilościach przemysłowych (np. filmy w rozdzielczości 4k lub większej, zdjęcia panoramiczne etc.), a przy tym chcących utrzymać najwyższe standardy bezpieczeństwa informacji. Korzystają z niego przedsiębiorstwa anonimizujące nagrania ADAS oraz zbiory zdjęć dla mobile mapping. Minusem jest konieczność zainwestowania we własną infrastrukturę i jej utrzymania. W praktyce, zamiast płacić za rozwiązanie chmurowe zewnętrznej firmy, ponosimy koszty własnego sprzętu i jego utrzymania, a także personelu IT. Do tego dochodzi opłata licencyjna za oprogramowanie do anonimizacji. Odpada natomiast dodatkowy czas związany z przesyłaniem danych do chmury, a następnie ich pobieraniem w formie zanonimizowanej.

6. Aplikacje desktopowe oparte o AI

Ich niezaprzeczalną zaletą jest możliwość łatwej instalacji i uruchomienia praktycznie wszędzie, gdzie jest komputer czy laptop klasy biurowej. Jeśli takie oprogramowanie ma łatwy w użyciu i nieskomplikowany interfejs użytkownika, to można założyć, że nie potrzebujemy dodatkowego personelu (np. kogoś ze znajomością edytorów wideo, czy utrzymania infrastruktury serwerowe). Korzystają więc z nich więc nie tylko korporacje, ale również np. szkoły, zakłady przemysłowe, organizacje pozarządowe, samorządy, koleje, komisariaty policji, niewielkie firmy geodezyjne i budowlane, szpitale oraz wszystkie te instytucje, które mają potrzebę anonimizacji, lecz jej zakres nie uzasadniałby stawiania dedykowanego serwera.

W pełni lokalne przetwarzanie pozwala anonimizować dane wrażliwe. Aplikacje desktopowe tego typu mogą wykorzystywać klasyczne algorytmy AI (szybkie, lecz mniej dokładne), lub konwolucyjne sieci neuronowe (bardzo dokładne, lecz powolne na zwykłym komputerze).

7. Rozwiązania typu “zrób to sam”

Jeśli dysponujemy własnym zespołem developerów, możemy pokusić się o stworzenie własnego oprogramowania do anonimizacji w oparciu o dostępne w sieci biblioteki typu open source. Na pierwszy rzut oka wydaje się to kuszące rozwiązanie i rzeczywiście niektóre firmy sięgają po nie. Tu pojawia się jednak dodatkowy koszt utrzymania i aktualizowania takiego oprogramowania (również koszt alternatywny angażowania zasobów firmowych, które mogłyby być wykorzystane przy innych projektów). Ponadto istniejące w otwartym dostępie modele AI służące do detekcji twarzy i tablic rejestracyjnych mogą nie dorównywać dokładnością działania tym rozwijanym od lat przez firmy specjalizujące się tylko i wyłącznie w tej dziedzinie.

Podsumowanie

Idealne rozwiązania nie istnieją. Każda organizacja musi samodzielnie podjąć decyzję o tym, czy i jakie środki anonimizacji zastosować, dobierając je do skali działalności, rodzaju ryzyka i dostępnego budżetu. Z jednej strony mogą to być minimalne uzasadnione działania, np. anonimizacja tylko wybranych nagrań i zbiorów zdjęć na serwerze; z drugiej, możemy sobie wyobrazić kompleksowe rozwiązania łączące podejście \”u źródła\” z dokładniejszymi technologiami anonimizacyjnymi na poziomie serwerów. “Taki dwustopniowy proces zwiększa szanse na pełną ochronę danych osobowych, szczególnie w branżach, które przetwarzają materiały o dużym znaczeniu wrażliwym, jak np. w sektorze zdrowotnym” – podsumowuje Tomasz Ochocki z ODO24.

Rodzaje anonimizacji – efekty graficzne

Pomijając manualną edycję materiałów, gdzie możliwe jest zastosowanie dowolnego efektu graficznego i anonimizacja dowolnego obiektu, rozwiązania zautomatyzowane pozwalają na wykorzystanie jednego z kilku rodzajów zamazywania. Najpopularniejsze jest zakrycie twarzy lub jej części albo tablicy rejestracyjnej jednolitym kolorem (popularne “czarne paski” na oczach osób podejrzanych o przestępstwo). Ma to jedną wadę – zamazanie z jednolitego koloru jest mało subtelne i bardzo rzuca się w oczy (zwłaszcza gdy ma dodatkowo jasno odcinające się od tła krawędzie). Powoduje to, że gdy oprogramowanie do zautomatyzowanej anonimizacji nie zdoła zamazać obiektu na pojedynczej klatce, obserwatorowi bardzo łatwo jest to zauważyć, a następnie cofnąć film do tego momentu i dokonać identyfikacji obiektu. Tu lepiej sprawdzają się efekty rozmycia obrazu, najlepiej z krawędziami płynnie przechodzącymi w otoczenie. W takim przypadku istnieje szansa, że nie zauważymy kiedy program polegnie w wychwyceniem i zanonimizowaniem na kilku klatkach twarzy czy tablicy rejestracyjnej znajdującej się na drugim planie. Niektórzy preferują pośredni efekt pikselizacji o różnej granulacji, będący trochę bardziej wyrazisty od rozmycia.

Najbardziej zaawansowane technologicznie rozwiązania generują wyimaginowane twarze – bądź to całkiem losowo, bądź poprzez przekształcenie tej realnej – i nakładają je dynamicznie na anonimizowany wizerunek (tzw. tzw. DNAT – Deep Natural Anonymisation).

Źródło: S. Klomp, From deepfakes to Safe Fakes, Eidhoven University of Technology (https://www.tue.nl/en/news-and-events/news-overview/31-08-2021-from-deepfakes-to-safe-fakes).

Co więcej, te sztucznie wykreowane facjaty mogą się naturalnie poruszać, zachowując oryginalną mimikę. Problemy z takim podejściem są dwa. Po pierwsze – wymaga jeszcze większej mocy obliczeniowej, dodatkowo spowalniając cały proces. Po drugie – istnieje prawdopodobieństwo (nikłe, lecz nie zerowe), że taka losowo wygenerowana przez maszynę twarz będzie podobna do jakiejś realnie istniejącej osoby i wówczas nieświadomie naruszymy jej prawo do prywatności.

A co jeśli nie chcielibyśmy anonimizować jedynie twarzy, lecz całą sylwetkę lub np. kontury pojazdu? Istnieje oprogramowanie oferujące tego typu możliwości, lecz jest zdecydowanie rzadziej spotykane. Z praktycznego punktu widzenia mamy tu do czyniania z istotnym niuansem. Zakrywając twarz, usuwamy formalnie dane osobowe. Natomiast zakrywając całą sylwetkę, uniemożliwiamy również określenie takich cech, jak np. kolor skóry. Daną osobę nadal można w dużej mierze zidentyfikować na podstawie sylwetki i danych, takich jak np. wzrost czy wymiary części ciała a nawet charakterystyczny strój.

Wybierając dostawcę oprogramowania do anonimizacji, warto zwrócić uwagę, czy pozwala ono na regulację domyślnego obszaru, który jest zamazywany. Jeśli oprogramowanie wykrywa twarze (a nie całe głowy), to czasem – głównie kiedy osoba nie spogląda prosto w obiektyw – obszar zamazania nie pokrywa np. kawałka ucha. Każdy, kto posiadał poprzednie wersje paszportów i dowodów osobistych, na pewno pamięta wymóg, by twarz na zdjęciu była lekko obrócona w taki sposób, by widać na niej było ucho osoby. Jest to bowiem dość unikalna cecha, której dobrze wyszkolony personel służb używał do identyfikacji danej osoby. Nawet dziś w ten sposób specjaliści próbują analizować nagrania z np. Władimirem Putinem, by stwierdzić czy na nagraniu bądź zdjęciach mają do czynienia z prawdziwym dyktatorem, czy jednym z jego wielu sobowtórów.

Automatyczna anonimizacja obrazu przy użyciu AI – wyzwania technologiczne

Choć technologia ta istnieje już od dłuższego czasu, świadomość tego, jak naprawdę działa, jest wśród potencjalnych klientów bardzo niska. Prowadzi to często do rozczarowania u osób chcących pozyskać takie rozwiązanie. Dzieje się tak, ponieważ zewsząd jesteśmy bombardowani newsami o coraz to większych możliwościach sztucznej inteligencji. W telefonach mamy zainstalowane aplikacje dla dzieci, potrafiące np. w czasie rzeczywistym przeistoczyć naszą, skierowaną w przednią kamerkę, twarz w postać z bajek czy zwierzątko, przy zachowaniu naturalnej mimiki. Sęk w tym, że w takim przypadku telefon po prostu “wie” gdzie tej twarzy szukać. Nierzadko nawet mamy w centrum kadru owalny kontur, do którego mamy się dopasować. W przypadku anonimizacji obrazu rzecz ma się inaczej. Wyobraźmy sobie typowe nagranie z kamery przemysłowej na fabrycznym parkingu. W kadrze przemieszcza się kilka postaci. Jedne są na pierwszym planie, inne w oddaleniu. Twarze widoczne są pod różnymi kątami, które dynamicznie się zmieniają. Do tego oświetlenie jest niejednorodne. Osoby coraz to wchodzą i wychodzą z półcienia. Do tego pada deszcz, obiektyw szerokokątnej kamery zniekształca obraz, dodając efekt “rybiego oka”. Algorytmy sztucznej inteligencji, mające wykryć, a następnie zakryć twarze, stoją w takiej sytuacji przed niezwykle trudnym zadaniem. Ale pomimo wszystko radzą sobie – lepiej lub gorzej.

Czy tego chcemy, czy nie, przy obecnym stanie technologii, anonimizacja nigdy nie będzie w 100% skuteczna. Wbrew naszym intuicyjnym przekonaniom komputer “rozumuje” w zupełnie odmienny sposób niż człowiek. Wyobraźmy sobie na chwilę, że jesteśmy operatorem kamery przemysłowej. W pole widzenia wchodzi postać. Nasz mózg identyfikuje ją jako osobę i przypisuje jej “łatkę” – “to jest człowiek”. Kiedy ta osoba przemieszcza się po pomieszczeniu, nie powtarzamy już tego procesu. Jest to dla nas cały czas ten sam człowiek, który porusza się po polu widzenia. W przypadku algorytmów AI sprawa ma się zgoła inaczej. One każdą klatkę obrazu analizuję oddzielnie, niejako “od nowa”, jakby zobaczyły całą scenę po raz pierwszy. Przeszukują ją w postaci obiektów pasujących do wcześniej ustalonego wzorca (np. twarzy człowieka) posługując się zaawansowanymi obliczeniami prawdopodobieństwa. Siedmiominutowe nagranie z takiej kamery w standardowym kinowym formacie 24 klatek na sekundę zawiera łącznie ponad 10 tysięcy klatek. Godzina nagrania to już ponad 86 tysięcy klatek. Każdą z nich komputer analizuje “od nowa”, jakby była ona jedną jedyną wyizolowaną z całości. Nic dziwnego, że czasem polegnie i przeoczy to, co miał wykrywać i anonimizować.

Co więcej, algorytmy dokonujące analizy obrazu nie są w 100% deterministyczne. Oznacza to, że po wykonaniu operacji anonimizacji kilka razy, istnieje możliwość uzyskania trochę innych efektów. W cały proces jest wbudowany element losowości.

Paradoksalnie, z technicznego punktu widzenia anonimizacja nagrań może być trudniejsza w wykonaniu niż samo rozpoznawanie twarzy (tzw. facial recognition). W tym drugim przypadku wystarczy, jeśli jedna z owych dziesięciu tysięcy klatek z naszego przykładu zawiera dobrze widoczną twarz, porządnie oświetloną, o należytej rozdzielczości i zwróconą mniej więcej w stronę kamery, to… bingo! Cel, jakim jest rozpoznanie twarzy, może zostać osiągnięty. W przypadku anonimizacji jest odwrotnie – jeśli w ogromie pojedynczych klatek znajdzie się taka, gdzie twarz jest słabo widoczna, program może ją “przeoczyć” i proces nie jest w pełni skuteczny. Pełne bezpieczeństwo informacji nie jest zapewnione.

Do tego dochodzi jeszcze kilka innych wyzwań. Np. nam, ludziom, z łatwością przychodzi rozpoznanie uciętej w połowie twarzy (częsty przypadek, gdy ktoś wchodzi w kadr lub opuszcza go). Dla modelu AI wytrenowanego na całych twarzach, taki obiekt jest zupełnie pomijany. A co jeśli widoczna jest jeszcze mniejsza część twarzy?
Ktoś powie – moglibyśmy wytrenować maszynę do detekcji również niepełnych części twarzy. Jednakże, czyniąc to i dorzucając takie zdjęcia do zbioru danych, na którym “uczymy” maszynę, znacząco obniżymy skuteczność detekcji “pełnych” twarzy. Moglibyśmy oczywiście wytrenować dwa osobne modele AI, jeden do detekcji twarzy widocznych w całości, drugi do twarzy częściowo “przyciętych”. Używanie obu spowolniłoby proces anonimizacji dwa razy.

Dobre oprogramowanie do anonimizacji posiada dodatkową warstwę analityczno-predykcyjną, zwiększającą skuteczność i eliminującą większość klatek, gdzie twarze lub tablice rejestracyjne nie zostały wykryte i zamazane. Nie ma jednak róży bez kolców. Owe dodatkowe algorytmy AI  mogą niekiedy powodować nadmiarowe zamazanie w miejscach, gdzie nie jest to konieczne, a ponadto stanowią dodatkowe obciążenie dla sprzętu, spowalniając cały proces.

Firmy poszukujące rozwiązań do automatycznej anonimizacji wideo bardzo często wymagają, aby zakupione oprogramowanie potrafiło anonimizować imiona i nazwiska pojawiające się na korporacyjnych wideokonferencjach albo tabliczkach przypinanych na piersi. Aby to osiągnąć, rozwiązanie musiałoby nie tylko posiadać dodatkową funkcję OCR (ang. optical text recognition – rozpoznawanie tekstu), ale również umieć odróżnić imiona i nazwiska od reszty napisów, opierając się na kontekście. Czasem klient oczekuje, aby program zamazywał wyłącznie napisy zawierające rekordy medyczne, pozostawiając pozostałe nienaruszone. Naturalnie wszystko to przy zachowaniu 100% skuteczności, co jest delikatnie mówiąc zupełnie nierealne.

Bywa, że od oprogramowania do anonimizacji wymaga się, by zamazywało tatuaże jako unikalną cechę pozwalającą zidentyfikować daną osobę. Ten przypadek jest jeszcze trudniejszy w realizacji niż zamazywanie imion i nazwisk. Tatuaże mogą być różne – bywają napisami (niekiedy dość nietypową czcionką), symbolami, abstrakcyjnymi wzorami lub przedstawiać wizerunki zwierząt czy nawet krajobrazów. Mogą zajmować obszar kilku centymetrów lub pokrywać znaczną część ciała. Nauczenie maszyny, by rozpoznawała je z zadowalającą dokładnością (aby dokonać maskowania), wykorzystując przy tym rozsądną moc obliczeniową (powiedzmy taką, która jest ekonomicznie rozsądna), a przy tym robiła to w akceptowalnym czasie – to zadanie na razie pozostające w sferze marzeń.

Oprogramowanie do automatycznego zamazywania twarzy i tablic rejestracyjnych – często zadawane pytania

1. Czy oprogramowanie wykorzystuje dane biometryczne?

Może, ale nie musi. Rozwiązania takie jak Gallio PRO wykorzystują w procesie uczenia maszynowego i detekcji algorytmy stworzone dla szerokiej gamy obiektów. To znaczy można za ich pomocą równie dobrze wykrywać twarze co także rdzę na powierzchni rurociągu, dziury w drodze, okna etc. Dane biometryczne, takie jak np. rozstaw źrenic czy długość nosa lub szerokość kącików ust, nie są wtedy brane pod uwagę w ogóle i nie są potrzebne. Ich użycie może być potrzebne gdy mówimy o rozwiązaniach dokonujących anonimizacji poprzez zastąpienie oryginalnego wizerunku sztucznie, losowo wygenerowaną twarzą, która porusza się w sposób naturalny (wspomniana wcześniej DNAT – Deep Natural Anonymisation).

2. Czy oprogramowanie do anonimizacji działa w czasie rzeczywistym?

Żadne oprogramowanie nie działa w czasie rzeczywistym. Nawet jeśli producent chwali się, że jego kamery są wyposażone w coś takiego – najzwyczajniej mija się z prawdą. Z technicznego punktu widzenia obraz musi zostać gdzieś przesłany (np. do procesora, karty graficznej), następnie poddany analizie, obróbce i zwrócony. Tak więc pewne opóźnienie zawsze istnieje. Inna sprawa, że im dokładniej chcielibyśmy anonimizować obraz, tym większej mocy obliczeniowej (i większego zasilania) potrzebujemy. Przy obecnym stanie technologii, aby efekt był zadowalający dla bardziej wymagających, musielibyśmy podpiąć do każdej kamery dobrą kartę graficzną. A to znów dodatkowe koszty i większy ślad węglowy. 

3. Czy zamazywanie twarzy jest odwracalne?

Jeśli wykorzystamy stosunkowo proste algorytmy (np. tzw. Gaussa) – jak najbardziej jest. Autorzy wysokiej klasy rozwiązań są jednak tego świadomi i stosują dodatkowe zabezpieczenia, dzięki którym informacja zostaje całkowicie zniszczona na obrazie, a zatem “blurowanie” jest nieodwracalne. 

4. Chciałbym uzyskać od dostawcy certyfikat poświadczający skuteczność anonimizacji.

Na to pytanie można odpowiedzieć jednoznacznie – to nie jest możliwe. Każdy, kto ma choć mgliste pojęcie, jak działają algorytmy computer vision (rodzaju sztucznej inteligencji stosowanej do analizy i interpretacji obrazów) wie doskonale, że bazują one na prawdopodobieństwie – a ściślej rzecz biorąc, na miarach takich jak “dokładność” i “precyzja”. Aby lepiej to zrozumieć, posłużmy się przykładem

Jakiś czas temu w światku prawników zajmujących się zagadnieniami z zakresu prywatności, głośne stały się sprawy spowodowane tzw. “racial bias” w algorytmach rozpoznawania twarzy, stosowanych na lotniskach i w innych podobnych miejscach (patrz tutaj i tutaj). Systemy informatyczne wykorzystywane do identyfikacji konkretnych osób na podstawie ich fotografii lub obrazu z kamery (tzw. systemy facial recognition) mają pewną inherentną cechę – ich algorytmy popełniają więcej pomyłek w przypadku ludzi, których cechy szczególne były rzadziej reprezentowane w bazach danych, na których owe algorytmy uczono. Tak więc systemy te mają mają inną skuteczność w zależności od wieku, płci, rasy i karnacji danej osoby. Mogą być bardzo dokładne w stosunku do białych mężczyzn w średnim wieku i znacznie częściej mylić się w np. w przypadku latynoskich seniorek lub afroamerykańskich dzieci. W rezultacie osoby te mogą statystycznie częściej lub rzadziej doświadczać przykrych bądź uciążliwych procedur podczas kontroli.

W przypadku oprogramowania do anonimizacji jest podobnie. Dajmy na to, że skuteczność detekcji (która jest potrzebna do zamazania) twarzy białych kobiet w średnim wieku wynosi 99,9%, a ciemnoskórych mężczyzn “tylko” 98,5%. Trudno w takiej sytuacji wydać miarodajny certyfikat poświadczający skuteczność. Wystarczy, że na lotnisku pojawi się amerykańska drużyna koszykarska, a skuteczność oprogramowania zacznie przesuwać się w dół. Analogicznie: niemieckie standardowe tablice rejestracyjne mogą być anonimizowane z (dajmy na to) 99,9% skutecznością, a holenderskie tablice rejestracyjne przyczep kempingowych już tylko z 93%. Jeśli w danym momencie autostradą będzie podróżować bardzo dużo takich pojazdów (np. jadących na zlot), całkowita skuteczność anonimizacji obniży się. Ponadto skuteczność anonimizacji różni się w stosunku do rozdzielczości analizowanego obrazu. Wszystko powyższe sprawia, że należy z dużą rezerwą i ostrożnością podchodzić do firm, które chwalą się “certyfikatem poświadczającym skuteczność anonimizacji”. To raczej marketingowy chwyt, niż gwarancja jakości.

Zakończenie

Jeszcze parę lat temu w firmach i instytucjach nikt nie słyszał o anonimizowaniu zdjęć i materiałów wideo. Jeśli już ktoś poruszał ten temat, nie traktowano go poważnie. Był to jakiś egzotyczny wymysł. To się jednak bardzo szybko zmienia. Po pierwsze dlatego, że powstają techniczne możliwości automatycznego usuwania wizerunku, po drugie rośnie społeczna świadomość dotycząca ochrony prywatności. W ślad za nią powstają nowe regulacje,a więc również obowiązki nakładane na organizacje. W wielu przetargach dotyczących infrastruktury wizyjnej, a dofinansowywanych ze środków publicznych, pojawia się wręcz wymóg, dostarczenia narzędzia do anonimizacji.


Technologia to miecz obosieczny. Algorytmy sztucznej inteligencji mogą być wykorzystywane przez przestępców. Są oni w stanie użyć naszego wizerunku do stworzenia deep fake, lub używać technologii facial recognition, aby przeczesywać nielegalnie pozyskane zbiory zdjęć lub nagrań w poszukiwaniu konkretnych osób, aby następnie np. móc je wykorzystać do szantażu. Nie są to wcale oderwane od życia wymysły.  Np. w Holandii wyposażone w drony kamery latają dookoła budynków, skanując elewacje w poszukiwaniu uszkodzeń (siłą rzeczy rejestrując przy tym przez okna to, co dzieje się w ich wnętrzu). Przeciętny londyńczyk pojawia się na obrazie kamer monitoringu ponad 300 razy dziennie. Anonimizacja obrazów będzie więc w coraz  większym zakresie wykorzystywana, aby minimalizować ryzyka związane z przechowywaniem, pokazywaniem czy przekazywaniem takich danych.

Autorem poradnika jest Łukasz Bonczol, współtwórca Gallio PRO, jednego z wiodących rozwiązań do zautomatyzowanej anonimizacji materiałów wideo i zdjęć wykorzystywanego przez korporacje, samorządy i NGO. Działa zawodowo na styku ochrony prywatności, bezpieczeństwa danych osobowych oraz sztucznej inteligencji w analizie obrazów.

Jeśli chcesz dowiedzieć się więcej o anonimizacji zdjęć i nagrań wideo – napisz na hello[małpa]gallio.pro

Ten artykuł jest artykułem sponsorowanym i za jego publikację otrzymaliśmy wynagrodzenie.