Zanim zaczniemy, krótka scena.
Jest późny wieczór. Chcesz wyciszyć się przed snem z aplikacją do medytacji. Klikasz „Pomiń przypomnienie”, ale ekran nie znika. Zamiast migawki wyłączanego smartfona pojawia się pytanie: „Czy na pewno chcesz zrezygnować z pracy nad sobą?”
Na moment się wahasz. Przecież chcesz być „tą osobą, która dba o siebie”. Brzmi jak Twój terapeuta po bardzo kiepskim dniu. Klikasz „Anuluj”, choć miałaś już odłożyć telefon.
To nie duchy straszą nas w smartfonach, tylko dark patterns – mroczne wzorce projektowe. Niewidzialne ręce UX-owców, którzy projektują udawaną troskę o zdrowie, a w rzeczywistości wyciągają dane, pieniądze i cierpliwość.
Czym są dark patterns i dlaczego są „ciemne”?
Dark patterns, czy deceptive design patterns, to manipulacyjne techniki projektowania aplikacji i stron internetowych. Ich celem jest skłonienie użytkownika do wykonania określonej czynności, często sprzecznej z jego intencją lub interesem.
W praktyce może to oznaczać:
- kliknięcie zgody na udostępnienie danych,
- wykupienie subskrypcji bez pełnej świadomości,
- przyciski „Odrzuć” w kolorze popiołu, których nie widać,
- komunikaty zawstydzające użytkownika („Nie, dziękuję, wolę pozostać zestresowana”),
- domyślnie zaznaczone zgody marketingowe,
- trudność w usunięciu konta lub zmianie ustawień prywatności.
To nie są błędy w procesie projektowym, lecz celowe decyzje oparte na wiedzy psychologicznej. To model biznesowy, który żywi się naszą nieuwagą. Projektanci korzystają z heurystyk i skrótów myślowych, które rządzą ludzkim zachowaniem: presji czasu, niechęci do strat, zaufania do autorytetu czy unikania wysiłku poznawczego.
W aplikacjach zdrowotnych, gdzie użytkownicy szukają wsparcia emocjonalnego lub medycznego, te mechanizmy stają się wyjątkowo niebezpieczne. W grę wchodzą bowiem dane wrażliwe. O zdrowiu psychicznym, płodności, a nawet życiu seksualnym.
Nie chodzi już tylko o zapis do niechcianego newslettera. Chodzi o to, że aplikacja do śledzenia cyklu, ciąży czy nastroju może sprzedawać Twoje dane, wykorzystywać je do reklamy produktów lub – w niektórych krajach – stać się dowodem w postępowaniu sądowym.
Kapitalizm inwigilacji: czyje dane są więcej warte i dlaczego?
Większość aplikacji zdrowotnych jest „darmowa”. Ale jak mawiają ekonomiści: jeśli nie płacisz pieniędzmi, płacisz danymi. Twoje cykle miesiączkowe, nastroje, kroki i puls tworzą portret predykcyjny. Zestaw informacji, który można sprzedać firmom reklamowym, ubezpieczycielom i brokerom danych.
Zjawisko to określa się mianem kapitalizmu inwigilacji (ang. surveillance capitalism). W tym modelu surowcem jest człowiek: jego zachowania, słabości, rutyny. Dane przeciętnej osoby w USA są warte ok. 0,10 USD. Dane kobiety w ciąży – 1,50 USD. Piętnaście razy więcej.
Dlaczego? Firmy doskonale wiedzą, że zachowania zakupowe kobiet, które spodziewają się dziecka, gwałtownie się zmieniają. Zamiast szalonego haulu w sklepach z damską odzieżą, ciężarna wybiera łóżeczko, fotelik, pampersy i inne akcesoria. Na dziecku nie będzie oszczędzać. Trzeba ją złapać właśnie w tym momencie. Później może być za późno.
Dlatego aplikacje z branży FemTech (oferujące śledzenie cyklu, ciąży, płodności) tak gorliwie zachęcają do wprowadzania kolejnych informacji. Dla użytkowniczki to sposób na kontrolę ciała; dla firmy sposób na monetyzację. Wystarczy kilka kliknięć, byś trafiła do kategorii reklamowej „kobieta w ciąży, podatna na stres, zainteresowana terapią online”.
Typowe ciemne wzorce w aplikacjach zdrowotnych
Niektóre z nich są subtelne jak dżingielek powiadomienia. Inne – tak widoczne, że aż zastanawiasz się, jak przeszły testy UX.
Oto najczęstsze kategorie „ciemnych” tricków stosowanych przez firmy w aplikacjach medycznych i wellness.
1. Zachłanność na dane (Data Grab)
Aplikacja zbiera znacznie więcej informacji, niż potrzebuje. Prosi o dostęp do galerii zdjęć, kontaktów, lokalizacji GPS – nawet jeśli nie ma to żadnego związku z jej podstawową funkcjonalnością.
Przykład: aplikacja ciążowa, która po aktualizacji wymagała utworzenia konta w chmurze. Kobiety, które tego nie zrobiły, traciły całą historię ciąży.
To klasyczny przykład przymusowego „przekierowania lojalności”. Dane zostają na serwerze, więc użytkowniczka nie ma wyboru: musi zostać.
2. Hotel California: łatwo wejść, trudno wyjść
Nazwa pochodzi od piosenki zespołu The Eagles: You can check out any time you like, but you can never leave.
Aplikacje mindfulness, fitness i mental health często stosują ten wzorzec, zwany też jako Roach Motel, czyli pułapka subskrypcji. Rejestracja jest błyskawiczna, ale rezygnacja wymaga:
- przejścia do przeglądarki,
- wypełnienia formularza z pytaniem „Dlaczego rezygnujesz?”,
- przewinięcia kilku ekranów z ofertami specjalnymi,
- kliknięcia w szary, niemal niewidoczny przycisk „Potwierdź anulowanie”,
- w skrajnych przypadkach: kontaktu z pracownikiem, może nawet wielokrotnego i wielu dni oczekiwania.
Cel jest jeden: zniechęcić.
3. Sterowanie emocjonalne (ang. emotional steering)
To wzorzec, który gra na naszych emocjach: lęku, poczuciu winy, nadziei. Aplikacja wysyła powiadomienia w stylu:
Nie odpuszczaj. Twoje zdrowie na Ciebie liczy!
albo
Część ciebie krzyczy o spokój – odpowiedz na ten głos, wykup subskrypcję.
Kiedy jesteś w gorszym momencie, takie komunikaty nie motywują. One żerują na bezsilności. Psychologia w służbie KPI.
4. Paywall w kryzysie
Niektóre aplikacje blokują kluczowe funkcje dokładnie wtedy, gdy najbardziej ich potrzebujesz. Najbardziej ekstremalny przypadek, o jakim czytałam, użytkowniczka w momencie porodu chciała uruchomić licznik skurczów w aplikacji do śledzenia rozwoju ciąży, z której do tej pory korzystała. Wyskoczył ekran z informacją o konieczności wykupienia subskrypcji.
Zacytuję tę użytkowniczkę:
Poczułam się, jakbyście próbowali wykorzystać kobietę w trakcie porodu. To nie było miłe.
Trudno o lepszy przykład digital predation – cyfrowego drapieżnictwa, prawda?
5. Ukryte zgody i zgody pakietowe
Zaznaczasz jedno pole wyboru, a w praktyce akceptujesz wszystko: regulamin, marketing, przetwarzanie danych i udział w badaniach naukowych. Brak możliwości wyboru poszczególnych zgód sprawia, że albo godzisz się na wszystko, albo nie korzystasz wcale.
Tego typu dark patterns to naruszenie zasady przejrzystości, którą w Unii Europejskiej chroni teraz Digital Services Act (DSA).
Kiedy tekst manipuluje?
Nie każdy dark pattern wymaga zaawansowanego interfejsu. Czasem wystarczy… dobrze (czyli źle) napisane microcopy.
Trick wording – język, który wprowadza w błąd
Sformułowania typu „Odznacz to pole, jeśli nie chcesz zrezygnować” stanowią lingwistyczne bryły ołowiu, których uniesienie przegrzewa nam obwody. Badania pokazują, że przy trzech negacjach nasz mózg przestaje nadążać – a my klikamy domyślną opcję.
Confirm- lub clickshaming – wstyd jako narzędzie sprzedaży
„Nie, dziękuję, wolę pozostać zestresowana.” Brzmi zabawnie? W rzeczywistości to mikroprzemoc. Język ma nas zawstydzić tym, że nie wybieramy płatnej opcji. Więcej o tym przeczytasz w moim tekście na temat języka straty.
Reklama udająca poradę
W niektórych aplikacjach nie da się odróżnić artykułów sponsorowanych o „zdrowym stylu życia” od treści medycznych. Granica między informacją a perswazją się zaciera. Użytkownik wierzy, że to porada eksperta, a nie marketing.
Eufemizmy i zatarte granice
„Udostępnij dane, aby ulepszyć doświadczenie” w praktyce oznacza „zgódź się na marketing”. „Zostańmy w kontakcie” – „wyrażam zgodę na e-maile reklamowe”.
W języku dark patterns każde słowo brzmi przyjaźnie, ale ma jeden cel: sprzedać.
Jak dark patterns działają na osoby neuroróżnorodne?
Ciemne wzorce są szczególnie problematyczne dla osób z ADHD, w spektrum autyzmu czy innymi formami neuroróżnorodności. Dlaczego? Bo wykorzystują dokładnie te mechanizmy, z którymi te osoby zmagają się na co dzień:
- nadwrażliwość na bodźce,
- trudność w utrzymaniu uwagi,
- impulsywność decyzyjną,
- przeciążenie poznawcze.
Badania pokazują, że osoby z ADHD częściej klikają opcje domyślne i rzadziej kończą proces rezygnacji z subskrypcji. W efekcie są nieproporcjonalnie obciążone finansowo i emocjonalnie.
Dla niektórych neuroinkluzywność jest trendem lub dodatkowym obowiązkiem, ale dla mnie to warunek konieczny tworzenia etycznych projektów. Interfejs, który chroni osoby z mniejszą kontrolą uwagi, jest po prostu lepszy dla wszystkich.
Masowy odpływ użytkowniczek
W 1973 roku Sąd Najwyższy USA w sprawie Roe kontra Wade uznał prawo kobiety do aborcji za konstytucyjne. W 2022 roku ten precedens został obalony, co oznacza, że poszczególne stany mogły wprowadzić własne zakazy.
Od tego momentu dane z aplikacji do śledzenia cyklu, płodności i ciąży zaczęły być postrzegane jako potencjalny dowód w sprawach karnych.
W sieci pojawiły się historie kobiet, które usuwały swoje konta, prosiły o skasowanie danych lub przestawały używać aplikacji. W recenzjach pojawiały się komentarze:
Nie chcę, żeby ktoś wiedział, że moja miesiączka się spóźnia.
Niektóre firmy (jak Flo) wprowadziły „tryb anonimowy”, ale to wyjątki. Większość aplikacji wciąż przechowuje dane w chmurach poza Europą, gdzie ochrona prawna jest słabsza.
W kontekście obalenia wyroku w sprawie Roe kontra Wade prywatność cyfrowa staje się kwestią bezpieczeństwa.
Ukryta „kamera” w seks-zabawkach
Internet Rzeczy (IoT) dotarł nawet do sfery intymnej. Seks-zabawki łączą się z aplikacjami, zbierają dane o sposobie użytkowania, częstotliwości, a czasem także lokalizacji.
Słynna sprawa We-Vibe ujawniła, że producent przechowywał dane użytkowe z wibratora i wykorzystywał je do analizy. Po pozwie zbiorowym firma wypłaciła odszkodowanie, ale temat otworzył dyskusję o tym, gdzie kończy się innowacja, a zaczyna inwigilacja.
Dane intymne są bardziej wrażliwe niż dane finansowe. Ich wyciek może prowadzić do szantażu, przemocy w związkach lub publicznego zawstydzenia. To nie jest scenariusz odcinka nowej serii Black Mirror. To już miało miejsce.
A prawo na to: koniec rumakowania!
Od 17 lutego 2024 r. w całej Unii Europejskiej obowiązuje Digital Services Act (DSA) – rozporządzenie, które po raz pierwszy wprost zakazuje stosowania dark patterns.
Firmy nie mogą:
- utrudniać rezygnacji z usług,
- domyślnie zaznaczać zgód,
- ukrywać opcji „Odrzuć”,
- tworzyć fałszywego poczucia pilności,
- wprowadzać w błąd poprzez kolory, język lub układ.
Obowiązuje prosta zasada symetrii: skoro możesz zapisać się jednym kliknięciem, musisz móc też się wypisać jednym kliknięciem.
Naruszenie przepisów może kosztować firmę nawet 6% jej globalnego obrotu. Smutne, że jedynym, co motywuje firmy do wprowadzania zmian, są kary finansowe, ale dobre i to.
Jak się bronić? Kompas dla użytkownika
- Zanim pobierzesz aplikację, przeczytaj opinie.
Szukaj komentarzy o problemach z prywatnością, płatnościami i anulowaniem. Regulamin wyłącznie w obcym języku, to też sygnał alarmowy. - Zwracaj uwagę na język zgód.
„Ulepszenie doświadczenia” to często eufemizm potrzebny do uzyskania zgody na marketing. - Uważaj na fałszywe alarmy.
Komunikaty typu „oferta kończy się za 3 minuty” to klasyczny wzorzec wykorzystania mechanizmu presji czasu. - Zachowuj kopie danych lokalnie.
W razie wymuszonej rejestracji nie stracisz swojej historii. - Zgłaszaj aplikacje łamiące zasady.
W App Store i Google Play można raportować nadużycia.
Mini-podsumowanie: kiedy troska zamienia się w krzywdę
Okazuje się, że nie trzeba maski i peleryny, żeby kogoś porządnie nastraszyć. Wystarczy odpowiednio zaprojektowany interfejs.
Ciemne wzorce sączą truciznę kropla po kropli:
Zgódź się, to tylko dane.
Nie rezygnuj, zrobisz krok wstecz.
Prawdziwie wspierająca świadome wybory zdrowotne technologia to taka, która daje spokój, a nie wzbudza obawy. Troska o zdrowie na pewno też nie powinna zaczynać się od kliknięcia „Zgadzam się na wszystko”.