Zanim zaczniemy, krótka scena.

Jest późny wieczór. Chcesz wyciszyć się przed snem z aplikacją do medytacji. Klikasz „Pomiń przypomnienie”, ale ekran nie znika. Zamiast migawki wyłączanego smartfona pojawia się pytanie: „Czy na pewno chcesz zrezygnować z pracy nad sobą?”

Na moment się wahasz. Przecież chcesz być „tą osobą, która dba o siebie”. Brzmi jak Twój terapeuta po bardzo kiepskim dniu. Klikasz „Anuluj”, choć miałaś już odłożyć telefon.

To nie duchy straszą nas w smartfonach, tylko dark patterns – mroczne wzorce projektowe. Niewidzialne ręce UX-owców, którzy projektują udawaną troskę o zdrowie, a w rzeczywistości wyciągają dane, pieniądze i cierpliwość.

Czym są dark patterns i dlaczego są „ciemne”?

Dark patterns, czy deceptive design patterns, to manipulacyjne techniki projektowania aplikacji i stron internetowych. Ich celem jest skłonienie użytkownika do wykonania określonej czynności, często sprzecznej z jego intencją lub interesem.

W praktyce może to oznaczać:

  • kliknięcie zgody na udostępnienie danych,
  • wykupienie subskrypcji bez pełnej świadomości,
  • przyciski „Odrzuć” w kolorze popiołu, których nie widać,
  • komunikaty zawstydzające użytkownika („Nie, dziękuję, wolę pozostać zestresowana”),
  • domyślnie zaznaczone zgody marketingowe,
  • trudność w usunięciu konta lub zmianie ustawień prywatności.

To nie są błędy w procesie projektowym, lecz celowe decyzje oparte na wiedzy psychologicznej. To model biznesowy, który żywi się naszą nieuwagą. Projektanci korzystają z heurystyk i skrótów myślowych, które rządzą ludzkim zachowaniem: presji czasu, niechęci do strat, zaufania do autorytetu czy unikania wysiłku poznawczego.

W aplikacjach zdrowotnych, gdzie użytkownicy szukają wsparcia emocjonalnego lub medycznego, te mechanizmy stają się wyjątkowo niebezpieczne. W grę wchodzą bowiem dane wrażliwe. O zdrowiu psychicznym, płodności, a nawet życiu seksualnym.

Nie chodzi już tylko o zapis do niechcianego newslettera. Chodzi o to, że aplikacja do śledzenia cyklu, ciąży czy nastroju może sprzedawać Twoje dane, wykorzystywać je do reklamy produktów lub – w niektórych krajach – stać się dowodem w postępowaniu sądowym.

Kapitalizm inwigilacji: czyje dane są więcej warte i dlaczego?

Większość aplikacji zdrowotnych jest „darmowa”. Ale jak mawiają ekonomiści: jeśli nie płacisz pieniędzmi, płacisz danymi. Twoje cykle miesiączkowe, nastroje, kroki i puls tworzą portret predykcyjny. Zestaw informacji, który można sprzedać firmom reklamowym, ubezpieczycielom i brokerom danych.

Zjawisko to określa się mianem kapitalizmu inwigilacji (ang. surveillance capitalism). W tym modelu surowcem jest człowiek: jego zachowania, słabości, rutyny. Dane przeciętnej osoby w USA są warte ok. 0,10 USD. Dane kobiety w ciąży – 1,50 USD. Piętnaście razy więcej.

Dlaczego? Firmy doskonale wiedzą, że zachowania zakupowe kobiet, które spodziewają się dziecka, gwałtownie się zmieniają. Zamiast szalonego haulu w sklepach z damską odzieżą, ciężarna wybiera łóżeczko, fotelik, pampersy i inne akcesoria. Na dziecku nie będzie oszczędzać. Trzeba ją złapać właśnie w tym momencie. Później może być za późno. 

Dlatego aplikacje z branży FemTech (oferujące śledzenie cyklu, ciąży, płodności) tak gorliwie zachęcają do wprowadzania kolejnych informacji. Dla użytkowniczki to sposób na kontrolę ciała; dla firmy sposób na monetyzację. Wystarczy kilka kliknięć, byś trafiła do kategorii reklamowej „kobieta w ciąży, podatna na stres, zainteresowana terapią online”.

Typowe ciemne wzorce w aplikacjach zdrowotnych

Niektóre z nich są subtelne jak dżingielek powiadomienia. Inne – tak widoczne, że aż zastanawiasz się, jak przeszły testy UX.

Oto najczęstsze kategorie „ciemnych” tricków stosowanych przez firmy w aplikacjach medycznych i wellness.

1. Zachłanność na dane (Data Grab)

Aplikacja zbiera znacznie więcej informacji, niż potrzebuje. Prosi o dostęp do galerii zdjęć, kontaktów, lokalizacji GPS – nawet jeśli nie ma to żadnego związku z jej podstawową funkcjonalnością.

Przykład: aplikacja ciążowa, która po aktualizacji wymagała utworzenia konta w chmurze. Kobiety, które tego nie zrobiły, traciły całą historię ciąży.

To klasyczny przykład przymusowego „przekierowania lojalności”. Dane zostają na serwerze, więc użytkowniczka nie ma wyboru: musi zostać.

2. Hotel California: łatwo wejść, trudno wyjść

Nazwa pochodzi od piosenki zespołu The Eagles: You can check out any time you like, but you can never leave.

Aplikacje mindfulness, fitness i mental health często stosują ten wzorzec, zwany też jako Roach Motel, czyli pułapka subskrypcji. Rejestracja jest błyskawiczna, ale rezygnacja wymaga:

  • przejścia do przeglądarki,
  • wypełnienia formularza z pytaniem „Dlaczego rezygnujesz?”,
  • przewinięcia kilku ekranów z ofertami specjalnymi,
  • kliknięcia w szary, niemal niewidoczny przycisk „Potwierdź anulowanie”,
  • w skrajnych przypadkach: kontaktu z pracownikiem, może nawet wielokrotnego i wielu dni oczekiwania.

Cel jest jeden: zniechęcić.

3. Sterowanie emocjonalne (ang. emotional steering)

To wzorzec, który gra na naszych emocjach: lęku, poczuciu winy, nadziei. Aplikacja wysyła powiadomienia w stylu:

Nie odpuszczaj. Twoje zdrowie na Ciebie liczy!
albo
Część ciebie krzyczy o spokój – odpowiedz na ten głos, wykup subskrypcję.

Kiedy jesteś w gorszym momencie, takie komunikaty nie motywują. One żerują na bezsilności. Psychologia w służbie KPI.

4. Paywall w kryzysie

Niektóre aplikacje blokują kluczowe funkcje dokładnie wtedy, gdy najbardziej ich potrzebujesz. Najbardziej ekstremalny przypadek, o jakim czytałam, użytkowniczka w momencie porodu chciała uruchomić licznik skurczów w aplikacji do śledzenia rozwoju ciąży, z której do tej pory korzystała. Wyskoczył ekran z informacją o konieczności wykupienia subskrypcji.

Zacytuję tę użytkowniczkę:

Poczułam się, jakbyście próbowali wykorzystać kobietę w trakcie porodu. To nie było miłe.

Trudno o lepszy przykład digital predation – cyfrowego drapieżnictwa, prawda?

5. Ukryte zgody i zgody pakietowe

Zaznaczasz jedno pole wyboru, a w praktyce akceptujesz wszystko: regulamin, marketing, przetwarzanie danych i udział w badaniach naukowych. Brak możliwości wyboru poszczególnych zgód sprawia, że albo godzisz się na wszystko, albo nie korzystasz wcale.

Tego typu dark patterns to naruszenie zasady przejrzystości, którą w Unii Europejskiej chroni teraz Digital Services Act (DSA).

Kiedy tekst manipuluje?

Nie każdy dark pattern wymaga zaawansowanego interfejsu. Czasem wystarczy… dobrze (czyli źle) napisane microcopy.

Trick wording – język, który wprowadza w błąd

Sformułowania typu „Odznacz to pole, jeśli nie chcesz zrezygnować” stanowią lingwistyczne bryły ołowiu, których uniesienie przegrzewa nam obwody. Badania pokazują, że przy trzech negacjach nasz mózg przestaje nadążać – a my klikamy domyślną opcję.

Confirm- lub clickshaming – wstyd jako narzędzie sprzedaży

„Nie, dziękuję, wolę pozostać zestresowana.” Brzmi zabawnie? W rzeczywistości to mikroprzemoc. Język ma nas zawstydzić tym, że nie wybieramy płatnej opcji. Więcej o tym przeczytasz w moim tekście na temat języka straty.

Reklama udająca poradę

W niektórych aplikacjach nie da się odróżnić artykułów sponsorowanych o „zdrowym stylu życia” od treści medycznych. Granica między informacją a perswazją się zaciera. Użytkownik wierzy, że to porada eksperta, a nie marketing.

Eufemizmy i zatarte granice

„Udostępnij dane, aby ulepszyć doświadczenie” w praktyce oznacza „zgódź się na marketing”. „Zostańmy w kontakcie” – „wyrażam zgodę na e-maile reklamowe”.

 W języku dark patterns każde słowo brzmi przyjaźnie, ale ma jeden cel: sprzedać.

Jak dark patterns działają na osoby neuroróżnorodne?

Ciemne wzorce są szczególnie problematyczne dla osób z ADHD, w spektrum autyzmu czy innymi formami neuroróżnorodności. Dlaczego? Bo wykorzystują dokładnie te mechanizmy, z którymi te osoby zmagają się na co dzień:

  • nadwrażliwość na bodźce,
  • trudność w utrzymaniu uwagi,
  • impulsywność decyzyjną,
  • przeciążenie poznawcze.

Badania pokazują, że osoby z ADHD częściej klikają opcje domyślne i rzadziej kończą proces rezygnacji z subskrypcji. W efekcie są nieproporcjonalnie obciążone finansowo i emocjonalnie.

Dla niektórych neuroinkluzywność jest trendem lub dodatkowym obowiązkiem, ale dla mnie to warunek konieczny tworzenia etycznych projektów. Interfejs, który chroni osoby z mniejszą kontrolą uwagi, jest po prostu lepszy dla wszystkich.

Masowy odpływ użytkowniczek

W 1973 roku Sąd Najwyższy USA w sprawie Roe kontra Wade uznał prawo kobiety do aborcji za konstytucyjne. W 2022 roku ten precedens został obalony, co oznacza, że poszczególne stany mogły wprowadzić własne zakazy.

Od tego momentu dane z aplikacji do śledzenia cyklu, płodności i ciąży zaczęły być postrzegane jako potencjalny dowód w sprawach karnych.

W sieci pojawiły się historie kobiet, które usuwały swoje konta, prosiły o skasowanie danych lub przestawały używać aplikacji. W recenzjach pojawiały się komentarze:

Nie chcę, żeby ktoś wiedział, że moja miesiączka się spóźnia.

Niektóre firmy (jak Flo) wprowadziły „tryb anonimowy”, ale to wyjątki. Większość aplikacji wciąż przechowuje dane w chmurach poza Europą, gdzie ochrona prawna jest słabsza.

W kontekście obalenia wyroku w sprawie Roe kontra Wade prywatność cyfrowa staje się kwestią bezpieczeństwa.

Ukryta „kamera” w seks-zabawkach

Internet Rzeczy (IoT) dotarł nawet do sfery intymnej. Seks-zabawki łączą się z aplikacjami, zbierają dane o sposobie użytkowania, częstotliwości, a czasem także lokalizacji.

Słynna sprawa We-Vibe ujawniła, że producent przechowywał dane użytkowe z wibratora i wykorzystywał je do analizy. Po pozwie zbiorowym firma wypłaciła odszkodowanie, ale temat otworzył dyskusję o tym, gdzie kończy się innowacja, a zaczyna inwigilacja.

Dane intymne są bardziej wrażliwe niż dane finansowe. Ich wyciek może prowadzić do szantażu, przemocy w związkach lub publicznego zawstydzenia. To nie jest scenariusz odcinka nowej serii Black Mirror. To już miało miejsce.

A prawo na to: koniec rumakowania!

Od 17 lutego 2024 r. w całej Unii Europejskiej obowiązuje Digital Services Act (DSA) – rozporządzenie, które po raz pierwszy wprost zakazuje stosowania dark patterns.

Firmy nie mogą:

  • utrudniać rezygnacji z usług,
  • domyślnie zaznaczać zgód,
  • ukrywać opcji „Odrzuć”,
  • tworzyć fałszywego poczucia pilności,
  • wprowadzać w błąd poprzez kolory, język lub układ.

Obowiązuje prosta zasada symetrii: skoro możesz zapisać się jednym kliknięciem, musisz móc też się wypisać jednym kliknięciem.

Naruszenie przepisów może kosztować firmę nawet 6% jej globalnego obrotu. Smutne, że jedynym, co motywuje firmy do wprowadzania zmian, są kary finansowe, ale dobre i to.

Jak się bronić? Kompas dla użytkownika

  1. Zanim pobierzesz aplikację, przeczytaj opinie.
    Szukaj komentarzy o problemach z prywatnością, płatnościami i anulowaniem. Regulamin wyłącznie w obcym języku, to też sygnał alarmowy.
  2. Zwracaj uwagę na język zgód.
    „Ulepszenie doświadczenia” to często eufemizm potrzebny do uzyskania zgody na marketing.
  3. Uważaj na fałszywe alarmy.
    Komunikaty typu „oferta kończy się za 3 minuty” to klasyczny wzorzec wykorzystania mechanizmu presji czasu.
  4. Zachowuj kopie danych lokalnie.
    W razie wymuszonej rejestracji nie stracisz swojej historii.
  5. Zgłaszaj aplikacje łamiące zasady.
    W App Store i Google Play można raportować nadużycia.

Mini-podsumowanie: kiedy troska zamienia się w krzywdę

Okazuje się, że nie trzeba maski i peleryny, żeby kogoś porządnie nastraszyć. Wystarczy odpowiednio zaprojektowany interfejs.

Ciemne wzorce sączą  truciznę kropla po kropli:
Zgódź się, to tylko dane.
Nie rezygnuj, zrobisz krok wstecz.

Prawdziwie wspierająca świadome wybory zdrowotne technologia to taka, która daje spokój, a nie wzbudza obawy. Troska o zdrowie na pewno też nie powinna zaczynać się od kliknięcia „Zgadzam się na wszystko”.