Etyka zdjęć dzieci w erze AI: kiedy rodzinne fotografie stają się paliwem dla algorytmów

Redakcja
19.10.2025

Robimy zdjęcie, wysyłamy do babci, wrzucamy do chmury „na pamiątkę”. Niewinne gesty codzienności. Tylko że dziś każde ujęcie żyje dłużej i intensywniej niż kiedykolwiek: trafia do baz danych, treningów modeli, systemów rozpoznawania twarzy, rekomendacji i nieprzewidzianych „użyć wtórnych”. Zdjęcia dzieci są szczególnie delikatne, bo łączą w sobie prywatność, bezpieczeństwo i przyszłą autonomię człowieka, który nie miał możliwości świadomie wyrazić zgody. Ten felieton nie jest alarmem przeciw technologiom. Jest wołaniem o elementarną etykę: zanim naciśniesz „opublikuj”, zapytaj, kogo naprawdę chronisz – siebie przed ciszą czy dziecko przed nieodwracalną ekspozycją.

„Sharenting” czyli miłość, która nieproszona wychodzi do ludzi

Rodzicielskie dzielenie się – zdjęciami, anegdotami, filmikami – często płynie z dumy i czułości. Ale wraz z lajkami rośnie ryzyko: profil dziecka staje się mapą na całe życie. Ujęcia z przedszkola, zdjęcia z wakacji z widoczną lokalizacją, koszulka z nazwą szkoły, metadane z aparatu. W erze AI każda cząstka tej układanki może zostać „przeżuta” przez algorytm i złączona w obraz osoby, która dopiero uczy się mówić „ja”. Dziecko nie ma mechanizmu „cofnij” dla dzisiejszych publikacji – a jutro to ono będzie musiało dźwigać ich konsekwencje.

Nowy scenariusz ryzyka: od memów po modele

Ryzyko nie kończy się na podszywaniu i „kradzieży zdjęć”. Sztuczna inteligencja dokłada nowe wektory: syntetyczne przeróbki (deepfake), profilowanie emocjonalne, trenowanie systemów rozpoznawania twarzy, automatyczne łączenie tożsamości z miejscem, zwyczajami i siecią kontaktów. To, co kiedyś było „tylko” wyciekiem do wyszukiwarki obrazów, dziś może skończyć jako element zbioru uczącego – a to oznacza dyfuzję poza kontrolę, często bez świadomości rodzica i instytucji.

„Zgoda” dziecka, które nie może jej udzielić

Prawo próbuje ratować sytuację, ale jest z natury spóźnione wobec technologii. Ramy ochrony danych uznają szczególny status informacji o dzieciach i wymagają wzmocnionej ostrożności. Tyle że codzienność dzieje się w strefie miękkiej: rodzinnej, szkolnej, „wśród znajomych”. To właśnie tam powstaje większość zdjęć, które później trafiają do mechanizmów, o których nie myśleliśmy w chwili publikacji. Zgoda prawna rodzica to jedno. Zgoda etyczna – „czy moje dziecko będzie chciało, by ta scena była publiczna, kiedy będzie miało piętnaście lat?” – to drugie. I to drugie bywa trudniejsze.

„Prawo do bycia niewidocznym”

Dorosły ma prawo zniknąć z internetu – w praktyce bywa to trudne, ale idea istnieje. Dziecko takiego realnego prawa nie ma, jeśli przez lata budowaliśmy za nie jego wizerunek. Nawet usunięcie posta nie cofa udostępnień, zrzutów ekranu, kopii w cudzych chmurach i – co dziś najważniejsze – treningów modeli, których reużycie jest nieprzejrzyste. Dlatego odpowiedzialność przesuwa się „przed kliknięcie”: mądrzej nie publikować lub publikować mniej i inaczej, niż potem toczyć bój z cieniem, którego nie widać, a który wpływa.

Szkoła, klub, parafia, fundacja – instytucje też mają swój dług etyczny

To instytucje produkują masowo wizerunki dzieci: akademie, zawody, wyjazdy, kroniki. Często „na pamięć” i w dobrej wierze. Etyka w erze AI wymaga zmiany nawyków: zgody powinny być granularne (na wydarzenie, na kanał, na okres), polityki retencji zdjęć – krótkie i czytelne, mechanizmy wycofania zgody – proste i realne. A przede wszystkim: domyślnie prywatne zbiory, a nie domyślnie publiczne. Jeśli coś naprawdę ma trafić do sieci, niech będzie świadomym wyjątkiem, nie bezmyślną rutyną.

„Czy to komuś zaszkodzi?” – zbyt małe pytanie

Standardowy test publikacji brzmi: „czy to nie naraża?”. W epoce AI potrzebujemy szerszego pytania: „czy to jest moje do opowiadania?” oraz „czy to jest potrzebne w przestrzeni publicznej – dziś i za pięć lat?”. Szkoda nie musi być spektakularna. Czasem jest miękka: poczucie bycia towarem; wstyd z powodu żartobliwego filmiku, który kolegom nie wydaje się niewinny; niechęć do rozmowy z rodzicem, bo rodzic jest też wydawcą i PR-owcem domowego życia.

Minimalny kodeks dobrych praktyk (dla rodziców i instytucji)

  • Intymność out-of-scope – żadnych scen choroby, nagości, łez, kar czy „wpadek”. To nie jest nasz materiał do publikacji.
  • Geolokalizacja i identyfikacja – wyłączaj lokalizację w zdjęciach; nie publikuj nazw szkół, nazwisk, numerów startowych; rozważ opóźnienie czasowe publikacji (np. po powrocie z wyjazdu).
  • Granularna zgoda – pytaj dziecko (w miarę wieku) przed publikacją; w instytucjach zgody rozdzielaj: kanał, zakres, czas.
  • Domyślna prywatność – albumy rodzinne w zamkniętych kręgach, rotacja linków, krótkie okresy dostępności; publiczne tylko to, co naprawdę ma sens publiczny.
  • Retencja – kasuj „nadmiar”. Zdjęcia z wydarzeń szkolnych nie muszą wisieć w sieci latami; w organizacjach wprowadź harmonogram czyszczeń.
  • Uwaga na generatory – nie wrzucaj zdjęć dzieci do „magicznych” edytorów i aplikacji z niejasnym regulaminem; nie karm darmowymi danymi modeli, których nie kontrolujesz.
  • Mechanizm wycofania – umożliw dziecku veto; jeśli mówi „nie”, to „nie” – bez negocjacji.

„Ale przecież wszyscy tak robią”

Normalizacja nie jest legitymizacją. Fakt, że feed pełen jest dziecięcych twarzy, nie oznacza, że tak powinno zostać. Etyka zaczyna się od różnicy: od spokojnej decyzji, by nie dokładać swojego „małego” ryzyka do wielkiego zbioru. W praktyce to nie jest wyrzeczenie, tylko inna forma miłości: taka, która chroni przyszłe „ja” dziecka przed naszym dzisiejszym głodem „tu i teraz”.

Co zostawić w albumie, co w głowie

Nie chodzi o to, by nie robić zdjęć. Chodzi o to, by nie mylić pamięci z publikacją. Najważniejsze obrazy są zbyt kruche, by wrzucać je do maszynowego młyna. Zostawmy je w miejscach bez algorytmów: w domowym albumie, w prywatnej chmurze z szyfrowaniem end-to-end, w naszej własnej, nierejestrowanej pamięci. To w niej dziecko przestaje być „treścią”, a znów staje się osobą, która ufa, że dorośli potrafią utrzymać granicę.

Podsumowanie: „najpierw nie szkodzić” w wersji cyfrowej

Świat algorytmów nie jest wrogi z definicji. Ale jest nienasycony. Im mniej nakarmimy go cudzym dzieciństwem, tym więcej przyszłej wolności zostawimy naszym dzieciom. Zamiast pytać: „co złego może się stać, jeśli opublikuję?”, spróbujmy inaczej: „co dobrego może się stać, jeśli zostawię to dla nas?”. W epoce, w której dane są paliwem, prawdziwym luksusem staje się prywatność. Zwłaszcza ta najmłodszych.

Autor: Grzegorz Wiśniewski, red. naczelny Mindly.pl,  CEO Soluma Group, CEO Soluma Interactive.

Źródła

  • https://www.unicef.org/innocenti/reports/policy-guidance-ai-children — UNICEF: Policy Guidance on AI for Children (ramy „child-rights-by-design” i 9 wymagań dla AI przyjaznej dzieciom).
  • https://www.unicef.org/innocenti/projects/good-governance-childrens-data — UNICEF: projekt nt. lepszego zarządzania danymi dzieci (manifest i luki w praktyce).
  • https://ico.org.uk/for-the-public/schools/photos/ — ICO (UK): praktyczne wskazówki dot. fotografowania dzieci w szkołach (polityki, ryzyka, sfera prywatna).
  • https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/childrens-information/children-and-the-uk-gdpr/how-does-the-right-to-erasure-apply-to-children/ — ICO: prawo do usunięcia danych („bycia zapomnianym”) w odniesieniu do dzieci – ograniczenia i wyjątki.
  • https://gdpr-info.eu/art-8-gdpr/ — Art. 8 GDPR: warunki zgody dziecka w usługach społeczeństwa informacyjnego; kontekst zgody rodzicielskiej.
  • https://www.healthychildren.org/English/family-life/Media/Pages/Sharenting-5-Questions-to-Ask-Before-You-Post.aspx — American Academy of Pediatrics: „Sharenting – 5 pytań zanim opublikujesz”.
  • https://pmc.ncbi.nlm.nih.gov/articles/PMC11290302/ — Conti i in. (2024), przegląd badań nt. sharentingu: motywacje rodziców, świadomość ryzyk, konsekwencje.
  • https://www.jpeds.com/article/S0022-3476%2823%2900018-5/fulltext — The Journal of Pediatrics (2023): „Online Sharenting” – ujęcie kliniczne i ostrzeżenia dla pediatrów.
Zgłoś swój pomysł na artykuł

Więcej w tym dziale Zobacz wszystkie