Úvod

Etika designu v kontextu UX a informačních systémů (IS) zkoumá, jak navrhujeme digitální produkty tak, aby byly nejen použitelné a efektivní, ale také spravedlivé, bezpečné, transparentní a společensky odpovědné. V praxi jde o to, že kvalita UX se nevyčerpává „příjemným ovládáním“, ale zahrnuje i důvěru uživatelů, prevenci škod, respekt k autonomii a naplnění právních povinností, zejména v oblasti ochrany osobních údajů podle GDPR. Téma proto propojuje profesní etické standardy, udržitelnost, etiku výzkumu a ochranu soukromí jako čtyři pilíře, které se v reálných produktech neustále střetávají s obchodními cíli a technologickými možnostmi.

Definice: Etika je systematická reflexe toho, co je správné jednání, a proč, včetně posuzování důsledků, povinností a hodnot, které naše jednání realizuje nebo porušuje.

Definice: UX design je disciplína navrhování uživatelské zkušenosti, která zahrnuje porozumění potřebám lidí, návrh interakcí a ověřování řešení tak, aby produkt podporoval cíle uživatele i organizace.

Definice: Stakeholdeři jsou jednotlivci či skupiny, které jsou produktem ovlivněny nebo jej ovlivňují, typicky uživatelé, zákazníci, zaměstnanci, regulátoři, partneři a širší společnost.

Definice: Hodnoty (values) jsou žádoucí principy a cíle, které aktéři považují za důležité, například autonomie, bezpečí, spravedlnost, soukromí nebo udržitelnost.

Definice: Odpovědnost v designu znamená přijmout, že návrhová rozhodnutí mají důsledky, a aktivně řídit rizika a dopady na uživatele i společnost.

Definice: Due diligence je náležitá péče, tedy prokazatelný postup, kterým organizace identifikuje, hodnotí a zmírňuje rizika, aby předcházela škodám a plnila povinnosti.

Kontext (Background / Context)

Etika v designu má dlouhou institucionální tradici, která se v digitálním prostředí projevuje zejména skrze profesní kodexy, standardy a regulace. Zatímco v „klasickém“ designu se etická otázka často vztahovala k bezpečnosti výrobků či pravdivosti komunikace, v UX se etické dilema rozšiřuje o datovou stopu, personalizaci, platformní ekonomiku a síťové efekty. Z toho plyne posun od čistě „user-centered“ přístupu, který optimalizuje zkušenost konkrétního uživatele v rámci daného produktu, k „human-centered“ a dále k „society-centered“ perspektivě, která bere vážně dopady na komunitu, instituce a veřejný prostor. Právě v sociotechnických systémech, kde se technologie prolíná s chováním lidí, pravidly organizací a mocenskými strukturami, se etika stává součástí governance (správy a řízení), řízení rizik a dlouhodobé legitimacy produktu.

Definice: Profesní etický kodex je soubor závazků a principů, které daná profese považuje za minimální či žádoucí standard chování, a které slouží k ochraně veřejnosti i reputace oboru.

Definice: Compliance je soulad s právními a regulačními požadavky, interními pravidly a závaznými standardy.

Definice: Governance (správa a řízení) je soubor rolí, procesů a kontrol, kterými organizace řídí rozhodování, odpovědnosti a rizika v produktu či systému.

Definice: Risk management (řízení rizik) je systematická identifikace, hodnocení a řízení rizik tak, aby se snížila pravděpodobnost nebo dopad nežádoucích událostí.

Závažnost etických dilemat v UX roste s datifikací každodenního života, s využíváním AI, s přesnější personalizací a s ekonomickou logikou platforem, které maximalizují pozornost, interakce a monetizaci. Prakticky to znamená, že designéři stále častěji pracují s volbami, jež nejsou neutrální: jaké údaje sbírat, jak nastavovat výchozí volby, jak měřit „úspěch“, jaký typ doporučení poskytnout a komu, nebo jak definovat hranici mezi přesvědčováním a manipulací. Současně je nutné rozlišovat etiku a právo. Právo typicky stanovuje minimální povinné standardy, zatímco etika nabízí aspirativní rámec, který pomáhá řešit situace, kde je zákon nejasný, pomalý, nebo sice něco dovoluje, ale legitimita takového kroku je sporná.

Definice: Dark patterns jsou návrhové vzory v uživatelském rozhraní, které uživatele klamou, tlačí nebo znevýhodňují tak, aby udělal volbu výhodnou pro poskytovatele, nikoli pro sebe.

Definice: Předsudky (bias) jsou systematické odchylky v datech, modelech nebo rozhodování, které vedou k neférovým nebo nepřesným výsledkům pro určité skupiny.

Definice: Digitální práva jsou práva a svobody lidí v digitálním prostředí, například právo na soukromí, přístup k informacím, nediskriminaci a kontrolu nad vlastními daty.

Definice: Sociotechnický systém je systém, v němž se technologické komponenty nedají oddělit od lidských aktérů, organizací, pravidel a kulturních norem, protože společně formují výsledné chování a dopady.

1) Proč etika v UX (a v IS) a komu slouží

Etika v UX slouží primárně uživatelům a společnosti, ale současně chrání i organizaci, která produkt vytváří. Důvěra je totiž kapitál: uživatelé sdílejí data, rozhodují se podle doporučení, svěřují produktu své finance, zdraví nebo vztahy, a pokud se setkají s klamáním či zneužitím, důvěru ztrácejí rychleji, než ji lze obnovit. Etická praxe proto podporuje bezpečí uživatele, respektuje jeho autonomii a snižuje pravděpodobnost škod, které mohou mít podobu finanční ztráty, psychické zátěže, diskriminace, ztráty soukromí nebo závislostního chování vyvolaného designem.

Definice: Autonomie je schopnost člověka rozhodovat se podle vlastních preferencí a informací bez nátlaku či skryté manipulace.

Definice: Informovaný souhlas je souhlas založený na srozumitelném vysvětlení účelu, rizik a možností volby, přičemž účastník či uživatel má reálnou možnost odmítnout bez negativních důsledků.

Definice: Asymetrie moci je nerovnováha mezi aktéry, kdy jedna strana má výrazně více informací, kontroly nebo možností než druhá, typicky platforma vůči uživateli.

Definice: Harm/benefit je etický rámec posuzování, který zvažuje možné škody a přínosy pro různé skupiny a snaží se maximalizovat přínosy a minimalizovat škody.

V digitálních produktech se etická problematika vyostřuje „ekonomikou pozornosti“, kde metriky jako engagement či retence mohou vytvářet tlak na návyky a dlouhé setrvání v aplikaci i za cenu zhoršení well-beingu. UX tým pak stojí před otázkou, zda optimalizuje krátkodobé metriky, nebo dlouhodobou hodnotu pro uživatele, což je zároveň otázka reputace, udržitelnosti byznysu i regulatorního rizika. Etika tak není „měkké“ téma, ale součást kvality a spolehlivosti systému, protože škody se promítají do incidentů, stížností, odchodů uživatelů, soudních sporů i do nákladů na krizové řízení.

2) Etika vs. právo vs. politika organizace

V praxi je užitečné uvažovat o třech vrstvách: právu, interních politikách organizace a etických závazcích profese. Právo vymezuje legalitu, tedy co je dovolené a co zakázané, zatímco etika řeší legitimitu, tedy zda je jednání obhajitelné vůči dotčeným lidem a společnosti i v situaci, kdy je formálně legální. Interní politika organizace pak často konkretizuje, jak se právní a etické požadavky promítají do procesů, například jak se provádí audity, kdo schvaluje experimenty, jak se spravují souhlasy nebo jak se zachází s citlivými daty.

Definice: Legalita je soulad s právem; legitimita je širší společenská a morální přijatelnost jednání, která nemusí být zaručena pouhou legalitou.

Definice: Accountability je prokazatelná odpovědnost, tedy schopnost doložit, kdo rozhodl, na základě čeho, s jakým posouzením rizik a jaké kontrolní mechanismy byly použity.

Definice: Audit je nezávislé nebo strukturované ověření, že procesy a výsledky odpovídají požadavkům, například právním, bezpečnostním či etickým standardům.

V organizacích se etika obvykle institucionalizuje skrze role typu DPO, bezpečnostní týmy, právní oddělení či etické komise. Důležité je, aby etika nebyla pouze „brzdou“ na konci projektu, ale součástí rozhodování od začátku. Jinak se redukuje na formální compliance, která sice minimalizuje sankce, ale nezajišťuje férovost a důvěru. Zralé prostředí proto kombinuje standardy a audity s kulturou otevřené diskuse o rizicích a s jasnou možností eskalace, když návrh ohrožuje uživatele.

3) Typické zdroje etických rizik v UX

Zdroje etických rizik v UX se opakují napříč produkty. Prvním je sběr a propojování dat, protože i zdánlivě neškodné údaje mohou v kombinaci odhalit citlivé informace. Druhým je experimentování, zejména A/B testování, které může bez dostatečné kontroly vystavit část uživatelů horší variantě nebo manipulativnímu podnětu. Třetím je manipulativní návrh volby, který zneužívá kognitivní zkreslení, typicky skrze falešnou urgenci, skrytá nastavení nebo složité odhlašování. Dalším zdrojem rizik je práce se zranitelnými skupinami, například dětmi, seniory, lidmi v dluhové situaci nebo s psychickým onemocněním, kde se běžné „optimalizace konverze“ mohou stát vysoce škodlivými. Specifickou kategorii pak tvoří algoritmické doporučování a gamifikace, které mohou vytvářet závislostní smyčky nebo diskriminační dopady.

Definice: Zranitelné skupiny jsou skupiny osob, které mají z různých důvodů sníženou schopnost rozpoznat rizika, bránit se nátlaku nebo nést důsledky rozhodnutí, což vyžaduje zvýšenou ochranu.

Definice: Manipulace je záměrné ovlivnění rozhodnutí tak, aby člověk jednal proti vlastním zájmům nebo bez odpovídajícího porozumění, často skrze klamání či skryté náklady.

Definice: Nudging je jemné „postrčení“ v architektuře volby, které zachovává možnost odmítnout a má typicky deklarovaný prospěch; sludge je naopak „zahuštění“ procesu, které záměrně komplikuje nežádoucí volbu uživatele.

Definice: Algoritmické rozhodování je použití modelů a pravidel pro automatizované nebo poloautomatizované vyhodnocení, doporučení či rozhodnutí, které má dopad na uživatele.

Hlavní pojmy (Core Concepts)

Etika designu se opírá o normativní etické teorie a o praktické metodiky, které převádějí abstraktní principy do rozhodnutí o rozhraní, datech a procesech. V UX proto typicky kombinujeme více perspektiv: posuzujeme povinnosti a práva uživatele, hodnotíme důsledky pro různé skupiny a zároveň se ptáme, jaké profesní ctnosti a odpovědnost má UX designér nebo UX výzkumník. Smyslem není „najít jedinou správnou odpověď“, ale učinit rozhodnutí transparentně, s argumentací, s minimem škod a s možností revize, pokud se ukáže, že dopady jsou horší, než jsme předpokládali.

Definice: Deontologie je etický přístup, který klade důraz na povinnosti a pravidla, například respekt k právům a důstojnosti člověka bez ohledu na užitek.

Definice: Utilitarismus je etický přístup, který hodnotí správnost jednání podle důsledků, typicky snahou maximalizovat celkový prospěch a minimalizovat celkovou škodu.

Definice: Etika ctností je přístup, který zdůrazňuje charakter a profesní kvality jednajícího, například poctivost, střídmost, odvahu či odpovědnost.

Definice: Spravedlnost v etice znamená férové rozdělení přínosů a zátěží a nediskriminaci, v UX se často projevuje v přístupnosti a férovosti personalizace.

Definice: Neškodit (non-maleficence) je princip minimalizace škod; beneficence je princip aktivní podpory prospěchu a blaha uživatelů.

A) Etické rámce a principy pro rozhodování v designu

Normativní etika poskytuje jazyk pro dilemata, která UX praxe běžně produkuje. Deontologická perspektiva se v UX projevuje zejména v respektu k soukromí, v pravdivém informování a v požadavku, aby uživatel nebyl prostředkem k cíli, například aby nebyl klamán jen kvůli konverzi. Utilitaristická perspektiva se uplatní při rozhodování o dopadech v měřítku, například když zvažujeme, zda personalizace zlepší užitek většiny, ale současně může poškodit menšinu. Etika ctností připomíná, že ani nejlepší procesy nenahradí profesní integritu: UX designér či UX výzkumník se musí umět postavit tlaku na škodlivé řešení, protože „tak to chce byznys“.

Definice: Normativní etika je oblast etiky, která formuluje kritéria správného jednání a hodnotí, co bychom měli dělat.

Z těchto teorií se v designu odvozují praktické principy, které slouží jako „kompas“: respekt k osobám, autonomie, neškodit, spravedlnost, transparentnost a odpovědnost. Důležité je chápat etické dilema jako konflikt hodnot, nikoli jako konflikt „dobra a zla“. Typicky jde o trade-off mezi růstem metrik a well-beingem, mezi bezpečností a pohodlím, mezi personalizací a soukromím. Eticky zralé rozhodnutí pak spočívá v tom, že konflikt hodnot explicitně pojmenujeme, zohledníme asymetrii moci a vybereme variantu, která je obhajitelná před těmi, kdo nesou největší riziko.

Definice: Hodnotový konflikt je situace, kdy nelze současně maximalizovat dvě či více důležitých hodnot, a je nutné rozhodnout o prioritách a kompenzacích.

Definice: Trade-off je vědomá volba mezi konkurenčními cíli, kdy zlepšení jedné dimenze zhorší jinou.

Definice: Well-being je celková pohoda a prosperita člověka, včetně psychického zdraví, autonomie, smysluplnosti a schopnosti vést vyvážený život.

Definice: Paternalismus je přístup, kdy systém rozhoduje „v zájmu“ uživatele i proti jeho volbě; v UX je legitimní jen omezeně, například při ochraně před zjevnou škodou a s transparentním odůvodněním.

Příklad: Produktový tým zvažuje zavedení nekonečného scrollování, protože zvýší čas v aplikaci. Etická analýza přidává otázku, zda tím podporujeme návykové chování a únavu, a zda existuje alternativa, která zachová užitečnost obsahu bez maximalizace „prosezeného“ času.

B) Etické standardy a profesní kodexy v UX

Etické standardy v UX se obvykle opírají o profesní, organizační a technické závazky. Profesní standardy vycházejí z komunitních či oborových kodexů a zdůrazňují pravdivost, respekt, neškodění a odpovědnost vůči společnosti; v praxi se často odkazuje například na ACM Code of Ethics, standardy IEEE nebo na výzkumné zásady ESOMAR, které bývají relevantní zejména pro práci s účastníky a výzkumnými daty. Organizační standardy pak konkretizují, jak se v dané firmě nakládá s daty, jak se schvalují experimenty, jak se řeší incidenty a kdo má rozhodovací pravomoci. Technické standardy, například přístupnost či bezpečnost, vytvářejí minimální laťku kvality, která má přímý etický význam, protože chrání práva a bezpečí uživatelů.

Definice: Kodex je formální vyjádření etických závazků profese nebo organizace, které stanovuje očekávané chování a často i mechanismy odpovědnosti.

Definice: Standard je sdílená norma nebo specifikace, která definuje minimální či doporučené postupy pro dosažení kvality, bezpečnosti nebo interoperability.

Definice: Best practice je soubor osvědčených postupů, které se v praxi opakovaně ukázaly jako účinné, i když nemusí mít právní závaznost.

Etika se zároveň rozděluje mezi role. UX designér rozhoduje o architektuře volby a o srozumitelnosti rozhraní, UX výzkumník o zacházení s účastníky a daty, produktový manažer o prioritách, metrikách a rozsahu experimentů a datový specialista o modelech a jejich dopadech. Propojujícím tématem je etika metrik: co měříme, proč to měříme a jaké chování tím odměňujeme. Pokud jsou KPI nastaveny tak, že odměňují nátlak a maximalizaci pozornosti, tým bude systematicky vyrábět škodlivé vzory i bez zlého úmyslu. Z tohoto důvodu se v praxi prosazuje koncept hlavní metriky („North Star metric“) chápaný nikoli jen jako růstový ukazatel, ale jako metrika, která odráží hodnotu pro uživatele.

Definice: KPI jsou klíčové ukazatele výkonnosti, které organizace používá k řízení a hodnocení úspěchu.

Definice: North Star metric (hlavní metrika) je hlavní metrika, která má reprezentovat dlouhodobou hodnotu produktu; eticky zralá volba ji váže na užitek pro uživatele, ne pouze na monetizaci.

Definice: Governance model (model správy a řízení) je způsob, jakým jsou v organizaci nastaveny role, rozhodovací pravomoci a kontrolní procesy, aby byla zajištěna kvalita a odpovědnost.

C) Dark patterns a manipulativní design

Dark patterns jsou jedním z nejviditelnějších etických problémů UX, protože se přímo vtělují do rozhraní a mění svobodnou volbu na vynucenou nebo zmanipulovanou. Jejich motivace je často ekonomická, typicky snaha zvýšit konverzi, získat více dat, udržet předplatné nebo maximalizovat reklamní výnos. Z etického hlediska je podstatné, že uživatel není pouze „přesvědčován“, ale je znevýhodněn informační asymetrií a záměrně veden do rozhodnutí, které by při plné informovanosti a férové volbě neudělal.

Definice: Deceptive design (klamavý design) je klamavý design, který využívá zavádějící informace, skrytá nastavení nebo záměrně obtížné cesty k odmítnutí.

Definice: Choice architecture (architektura volby) je způsob, jakým je volba strukturována, například pořadí možností, výchozí nastavení nebo míra tření v procesu.

V praxi se dark patterns projevují jako skryté odhlášení, předzaškrtnuté souhlasy, falešná urgence typu „zbývá poslední kus“ bez opory v realitě, nebo „roach motel“, kdy je vstup do služby snadný, ale odchod neúměrně složitý. Dopady nejsou jen etické, ale často i právní. Například souhlas podle GDPR musí být svobodný a jednoznačný, což je neslučitelné s předzaškrtnutými volbami nebo s nátlakovým designem, který odmítnutí prakticky znemožňuje. Detekce a prevence dark patterns vyžaduje více než individuální intuici UX designéra: pomáhá designová revize (design review), heuristiky zaměřené na transparentnost a férovost a knihovny „good patterns“, které ukazují, jak navrhnout volbu srovnatelně jednoduchou pro přijetí i odmítnutí.

Definice: Sludge je návrhová strategie, která záměrně zvyšuje tření a administrativní zátěž pro volbu, kterou poskytovatel nechce, aby uživatel provedl.

Příklad: Uživatel chce zrušit předplatné. Aplikace nabízí zrušení pouze přes telefon v omezených hodinách, zatímco aktivace byla na dvě kliknutí. Takové asymetrické tření je typickým „roach motel“ a je obtížně obhajitelné eticky i regulatorně.

D) Udržitelnost v designu (environmentální, sociální, ekonomická)

Udržitelnost v digitálním designu znamená brát v úvahu, že i „neviditelný“ software má materiální stopu. Datová centra spotřebovávají energii, sítě přenášejí objemy dat, zařízení se opotřebovávají a uživatelské chování je formováno tak, že může podporovat nadměrnou spotřebu obsahu, zařízení i služeb. Environmentální dimenze se proto týká energetické náročnosti, datové efektivity, optimalizace médií a promyšleného životního cyklu. Sociální dimenze se vztahuje k dopadům na komunity, k digitální propasti a k tomu, zda produkt neznevýhodňuje uživatele s horším připojením, staršími zařízeními nebo nižší digitální gramotností. Ekonomická dimenze pak souvisí s tím, zda je byznys model dlouhodobě férový, transparentní a nevytváří tlak na škodlivé praktiky monetizace.

Definice: Udržitelnost je schopnost uspokojovat současné potřeby bez toho, aby se omezila schopnost budoucích generací uspokojovat své potřeby; v UX se promítá do dopadů na životní prostředí, společnost i ekonomiku.

Definice: LCA (life cycle assessment) je hodnocení dopadů produktu v celém životním cyklu, od výroby přes používání až po likvidaci; u digitálních produktů zahrnuje i zařízení, infrastrukturu a datové přenosy.

Definice: Digitální uhlíková stopa je odhad emisí spojených s provozem digitálních služeb, včetně spotřeby energie při výpočtech, přenosu dat a používání zařízení.

Definice: Inkluzivní design je přístup, který zohledňuje rozmanitost uživatelů a snaží se minimalizovat vyloučení, a to i v kontextech omezených zdrojů, schopností či přístupových podmínek.

Definice: Cirkulární ekonomika je model, který podporuje opravitelnost, dlouhověkost a opětovné využití zdrojů, místo krátkého životního cyklu a odpadu.

Koncept „Sustainable UX“ se často konkretizuje v digitální střízlivosti, tedy v návrhu, který respektuje pozornost uživatele i zdroje infrastruktury. Nejde o to „dělat méně UX“, ale dělat UX, které neodměňuje bezúčelné scrollování, redundantní notifikace a těžké multimediální prvky, pokud nejsou nezbytné. Udržitelnost ale zároveň přináší typické trade-offy: například vyšší komprese může zlepšit výkon a snížit přenos dat, ale může zhoršit čitelnost obrazových informací a tím i inkluzi; podobně může „odlehčení“ UI snížit kognitivní zátěž, ale v některých doménách (zdravotnictví, bezpečnost) nesmí vést k nebezpečnému zjednodušení. Důležitý je i rebound efekt: když se služba zrychlí a zlevní na data, může to paradoxně zvýšit celkovou spotřebu, protože lidé ve službě stráví více času nebo začnou častěji konzumovat video. V produktové praxi proto dává smysl udržitelnost také měřit, například sledovat objem přenesených dat, dobu aktivního používání, energetickou náročnost klíčových toků na zařízení, nebo u AI náročnost modelů a frekvenci volání nákladných výpočtů.

Příklad: Zpravodajská aplikace zavede režim úspory dat, v němž se obrázky načítají až na vyžádání a video se nespouští automaticky. Výsledkem je nejen nižší datová zátěž a energetická spotřeba, ale také lepší použitelnost pro uživatele na pomalém připojení.

E) Etika UX výzkumu (Research Ethics)

Etika UX výzkumu vychází z principu, že účastníci nejsou „zdroj dat“, ale osoby s právy a důstojností. Základ tvoří dobrovolnost, informovaný souhlas, minimalizace rizik a zvláštní ochrana zranitelných účastníků. V UX výzkumu jsou rizika často psychologická a sociální: stud, stres, odhalení citlivé situace, nebo sekundární dopady, pokud by data unikla. Eticky správný výzkum proto předem promýšlí, jaké údaje jsou nezbytné, jak budou zabezpečeny, jak dlouho budou uchovány a kdo k nim bude mít přístup.

Definice: Anonymizace je úprava dat tak, aby nebylo možné identifikovat osobu ani nepřímo; pseudonymizace nahrazuje identifikátory, ale umožňuje zpětné přiřazení za použití dodatečných informací. Z hlediska GDPR platí, že skutečně anonymizovaná data (pokud je anonymizace nevratná) do GDPR nespadají, zatímco pseudonymizovaná data jsou stále osobními údaji a GDPR se na ně vztahuje.

Definice: Zvláštní kategorie osobních údajů (GDPR) jsou přesně vymezené údaje, například o zdraví, genetické a biometrické údaje pro jednoznačnou identifikaci, politické názory nebo náboženské vyznání. Citlivé údaje v běžném UX slovníku mohou být širší pojem pro data, jejichž zneužití by mohlo způsobit významnou újmu, i když nespadají do „zvláštních kategorií“ podle GDPR.

Rekrutace a incentivy vyžadují férovost. Příliš vysoká odměna může působit jako koercion, zejména u lidí v ekonomické tísni, a může zpochybnit dobrovolnost. Střet zájmů vzniká, pokud se účastník obává, že odmítnutí ovlivní jeho vztah s institucí, například se zaměstnavatelem nebo školou. U citlivých témat je klíčový debriefing, tedy závěrečné vysvětlení, možnost klást otázky a poskytnutí kontaktu pro případnou podporu. V online výzkumu etická rizika rostou kvůli nahrávání obrazovky, hlasu, biometrie nebo eye-trackingu, protože taková data mohou odhalit více, než účastník očekává. Zde je nutná mimořádně srozumitelná komunikace a možnost volby méně invazivní varianty.

Definice: Debriefing je závěrečná fáze výzkumu, ve které se účastníkovi vysvětlí účel, průběh, případná manipulace či experimentální podmínky a poskytne se prostor pro otázky a stažení souhlasu tam, kde to dává smysl.

Definice: IRB/etická komise je orgán, který posuzuje etické aspekty výzkumu, zejména rizika pro účastníky, adekvátnost souhlasu a ochranu dat.

V akademickém prostředí se schvalování výzkumu často opírá o IRB nebo fakultní etické komise, zatímco v komerčním UX výzkumu takový formální orgán mnohdy neexistuje a je nahrazen interním etickým posouzením, designovou revizí nebo governance procesem (například „research review“ s účastí právníka, bezpečnosti a DPO). Pro státnicové vysvětlení je důležité ukázat, že principy zůstávají stejné, ale mechanismus kontroly se liší: firma má odpovědnost nastavit srovnatelně robustní interní kontrolu, pokud nemá externí či akademický dohled.

Specifickou oblastí jsou experimenty a A/B testy v produkci. Zde se hranice mezi „výzkumem“ a „optimalizací produktu“ často rozmazává, ale dopad na uživatele může být stejný. Eticky je relevantní, zda experiment může způsobit újmu, zda je uživatel přiměřeně informován, zda existuje možnost opt-out a zda je experiment monitorován s předem definovanými „kill criteria“, tedy podmínkami pro zastavení při negativních signálech.

Příklad: Aplikace testuje dvě varianty notifikací: jedna je neutrální, druhá využívá pocit viny („Zase jste to dnes vzdal/a?“). I když metrika otevření stoupne, varianta může zvyšovat stres a být nevhodná pro zranitelné uživatele. Etický review by měl takový experiment zastavit nebo přinejmenším přeformulovat copy a přidat ochranné mechanismy.

F) GDPR a ochrana osobních údajů v UX

GDPR je pro UX zásadní, protože velká část požadavků se realizuje přímo v rozhraní a v uživatelských tocích. Základní pojmy začínají u toho, co je osobní údaj a co znamená zpracování. Osobní údaj je jakákoli informace vztahující se k identifikované nebo identifikovatelné osobě, přičemž identifikovatelnost zahrnuje i nepřímé identifikátory, jako jsou online identifikátory či kombinace atributů. Zpracování je prakticky jakákoli operace s daty, od sběru po ukládání, analýzu a předání třetí straně. UX se zde dotýká i rolí správce a zpracovatele, protože produktový tým často rozhoduje o účelech a prostředcích, a tím ovlivňuje, kdo nese odpovědnost.

Definice: GDPR je evropské nařízení o ochraně osobních údajů, které stanoví pravidla pro zpracování osobních údajů, práva subjektů údajů a povinnosti správců a zpracovatelů.

Definice: Osobní údaj je informace o identifikované nebo identifikovatelné fyzické osobě; identifikovatelná je osoba, kterou lze určit přímo či nepřímo, zejména odkazem na identifikátor.

Definice: Správce je subjekt, který určuje účely a prostředky zpracování osobních údajů; zpracovatel zpracovává údaje pro správce na základě jeho pokynů.

Definice: Právní titul je právní základ, na němž je zpracování osobních údajů oprávněné, například plnění smlouvy, právní povinnost, oprávněný zájem nebo souhlas.

GDPR stojí na principech zpracování, které mají přímé UX důsledky. Minimalizace dat znamená sbírat jen to, co je nezbytné; účelové omezení vyžaduje jasně sdělit, proč data potřebujeme; transparentnost vyžaduje srozumitelné informace; omezení uložení vede k promyšlené retention politice; integrita a důvěrnost se promítají do bezpečnosti a do omezení přístupů. UX je klíčové i pro realizaci práv subjektů údajů, protože tato práva se často vykonávají v účtu uživatele a musí být skutečně použitelná, nikoli jen formálně existující.

Definice: Privacy by design je princip, podle něhož se ochrana soukromí zabudovává do návrhu systému od začátku; privacy by default znamená, že výchozí nastavení je nejšetrnější k soukromí.

Právní tituly: plnění smlouvy, oprávněný zájem, souhlas a jejich UX důsledky

Pro státnicově „nepropustné“ pochopení GDPR je zásadní rozlišit, kdy se opřít o plnění smlouvy, kdy o oprávněný zájem a kdy o souhlas, protože UX často rozhoduje o tom, zda je volba uživatele svobodná a zda je zpracování přiměřené účelu. Plnění smlouvy se typicky použije pro data, která jsou skutečně nezbytná k poskytnutí služby, kterou si uživatel objednal, například doručovací adresa pro doručení zboží nebo e-mail pro zaslání potvrzení objednávky. UX důsledek je, že takové zpracování nelze „maskovat“ jako volitelný souhlas, ani naopak nelze podmínit poskytování služby souhlasem s něčím, co pro smlouvu nezbytné není.

Oprávněný zájem je titul, který může být legitimní například u prevence podvodů, základní bezpečnosti nebo určité míry interní analytiky, pokud je přiměřená, očekávatelná a nezasahuje nepřiměřeně do práv uživatele. Klíčový je zde test oprávněného zájmu (balancing test), který se typicky skládá z posouzení legitimního účelu, nezbytnosti zpracování a vyvážení proti právům a svobodám subjektu údajů. UX se zde promítá do transparentnosti (uživatel musí rozumět, co se děje), do očekávání (co je v daném kontextu „rozumně očekávatelné“) a do možnosti snadno uplatnit právo vznést námitku; právo na námitku je pro oprávněný zájem typicky klíčové a mělo by být v rozhraní řešené tak, aby nebylo „schované“ nebo prakticky nepoužitelné.

Souhlas je naopak titul vhodný tam, kde je zpracování volitelné a není nezbytné pro smlouvu ani dostatečně podložené oprávněným zájmem, typicky u marketingu, personalizované reklamy, některých typů trackingu nebo u sekundárních účelů. Aby byl souhlas platný, musí být svobodný, konkrétní, informovaný a jednoznačný, a musí být stejně snadné jej odvolat jako udělit. Pro UX to znamená navrhnout férovou volbu bez nátlaku a bez asymetrie „jedním klikem přijmout, pěti kliky odmítnout“, a také jasně oddělit účely, aby uživatel chápal, s čím souhlasí.

Souhlas je obzvlášť citlivý i proto, že v praxi bývá nadužíván jako „nejbezpečnější“ volba, což je častá zkoušková chyba: souhlas není univerzální ani automaticky bezpečný, protože pokud není svobodný a informovaný, je neplatný a organizace se vystavuje riziku. Z pohledu designu je proto stejně důležité umět vysvětlit, proč něco na souhlas nepatří, jako umět navrhnout souhlas korektně.

Práva subjektů údajů a jak se realizují v UX

Z hlediska státnic se obvykle očekává, že student vyjmenuje základní práva subjektů údajů a dovysvětlí jejich UX dopad. Právo na informace (transparentnost) se promítá do srozumitelných oznámení o zpracování, ideálně vrstvených a doplněných o „just-in-time“ vysvětlení v okamžiku, kdy je údaj poprvé využit. Právo na přístup znamená, že uživatel má získat informaci, jaká data o něm organizace má a jak jsou používána; v praxi se to často řeší exportem dat nebo přehledem v účtu. Právo na opravu (rectification) vyžaduje umožnit opravit nepřesné údaje, což se v UX typicky realizuje editací profilu, nastavení či kontaktních údajů, ale u některých dat (například odvozené profily) vyžaduje promyšlené vysvětlení, co je možné upravit a co je pouze interní odhad.

Právo na výmaz („být zapomenut“) vyžaduje nejen UI pro smazání účtu, ale i procesní a technickou schopnost data skutečně vymazat tam, kde to právně jde; UX zde musí férově vysvětlit výjimky, například povinné uchování kvůli účetnictví. Právo na omezení zpracování se uplatní například při sporu o přesnost údajů nebo při námitce, kdy se zpracování dočasně „pozastaví“; v UX se může projevit stavem účtu, notifikací a jasným popisem, co je omezené a jak dlouho. Právo na přenositelnost znamená poskytnout data ve strukturovaném, běžně používaném a strojově čitelném formátu, typicky v exportu, což je relevantní pro služby, kde uživatel může přecházet ke konkurenci. Právo vznést námitku je zásadní zejména u oprávněného zájmu a přímého marketingu; UX zde často selhává, když je námitka ukryta do právního textu místo toho, aby byla reálně dostupná jako volba v nastavení.

Pro oblast AI a personalizace je navíc důležité právo nebýt předmětem výhradně automatizovaného rozhodování s právními nebo obdobně významnými účinky (čl. 22 GDPR). Pokud systém rozhoduje například o úvěru, pojištění, přijetí do zaměstnání nebo jiném zásadním výsledku bez lidského zásahu, uživatel má mít typicky možnost vyžádat si lidské přezkoumání, vyjádřit svůj názor a napadnout rozhodnutí. Z hlediska UX to znamená nejen „někde v podmínkách“ napsat, že rozhodnutí je automatizované, ale nabídnout srozumitelnou cestu, jak se dovolat člověka a jak rozhodnutí zpochybnit.

Povinnosti organizace: porušení zabezpečení, DPIA a provozní disciplína

Vedle práv uživatelů se u státnic často zkouší i základní povinnosti správce, které mají přímý dopad do procesů a někdy i do UX komunikace. Typickým příkladem je porušení zabezpečení osobních údajů (data breach): organizace musí umět incident vyhodnotit, zdokumentovat a v relevantních případech oznámit dozorovému orgánu bez zbytečného odkladu, zpravidla do 72 hodin od okamžiku, kdy se o porušení dozví. Pokud je pravděpodobné vysoké riziko pro práva a svobody lidí, je nutné informovat i dotčené osoby srozumitelným způsobem, což klade nároky na jasnou a nepanikařící komunikaci v rozhraní nebo e-mailem. V praxi se zde propojuje bezpečnost, právní povinnosti a UX, protože právě srozumitelnost sdělení a doporučených kroků ovlivní, zda uživatel dokáže minimalizovat škodu.

Definice: DPIA (posouzení vlivu na ochranu osobních údajů) je proces posouzení rizik zpracování pro práva a svobody osob, který se vyžaduje u zpracování s vysokým rizikem.

Definice: DPO je pověřenec pro ochranu osobních údajů, který organizaci radí, monitoruje soulad a slouží jako kontaktní bod pro dozorový orgán i subjekty údajů.

Příklad: Registrace do aplikace vyžaduje datum narození. Eticky i z hlediska minimalizace je vhodné zvažovat, zda není dostačující pouze potvrzení věkové hranice, například „je mi 18+“, pokud přesné datum není nezbytné pro smlouvu či právní povinnost.

G) Cookies, ePrivacy a UX souhlasů pro ukládání/čtení informací v zařízení

Cookies a podobné technologie se v EU typicky řídí ePrivacy směrnicí a jejími národními implementacemi, které dopadají na ukládání a čtení informací v koncovém zařízení uživatele. Základní pravidlo je, že pro takové ukládání/čtení se zpravidla vyžaduje souhlas, s výjimkou případů, kdy je technologie nezbytná pro poskytnutí služby, kterou uživatel výslovně požaduje (typicky „nezbytné“ cookies, například pro přihlášení nebo obsah košíku). Pro státnice je důležité oddělit dvě roviny, které studenti často směšují: souhlas podle ePrivacy se týká samotného uložení/čtení v zařízení, zatímco právní titul podle GDPR se týká následného zpracování osobních údajů, které může z cookies plynout. Jinými slovy, i když uživatel souhlasí s cookies, neznamená to automaticky, že tím „vyřešil“ GDPR pro všechny následné účely; naopak i když je něco nezbytné z hlediska ePrivacy, stále musíme podle GDPR řešit účel, minimalizaci a transparentnost.

Z hlediska UX je klíčové, aby volby nebyly nátlakové a aby podporovaly svobodný a informovaný souhlas. V praxi dozorových orgánů a regulatorních očekávání se za férové považuje, když je odmítnutí stejně snadno dostupné jako přijetí, zejména pokud rozhraní nabízí výrazné „Přijmout vše“. Nejde jen o estetickou symetrii tlačítek, ale o podmínku svobodného souhlasu bez nátlaku a bez uměle vytvářeného tření. Smysluplná granularita má umožnit rozlišit účely (například analytika versus marketing), ale nemá být zneužita k zahlcení a rezignaci uživatele.

Příklad: Cookie lišta nabízí „Přijmout vše“ jedním klikem, zatímco odmítnutí vyžaduje tři obrazovky a desítky přepínačů. Férový redesign obvykle zavede „Odmítnout vše“ jako stejně snadno dosažitelnou volbu a detailní nastavení ponechá jako volitelnou cestu pro ty, kdo chtějí granularitu.

H) Férovost, přístupnost a inkluze jako etická dimenze UX

Přístupnost je často prezentována jako technický standard, ale ve skutečnosti je to etická i právní otázka spravedlnosti. Pokud je služba fakticky nepoužitelná pro lidi se zrakovým postižením, motorickým omezením nebo kognitivními obtížemi, jde o formu vyloučení, která může být v některých kontextech i diskriminační. WCAG poskytuje rámec minimálních požadavků, ale eticky ambiciózní UX se ptá, zda se uživatel opravdu dostane k cíli bez ponižujících obcházek, a zda digitální produkt nevytváří nové bariéry například příliš složitým jazykem nebo přetíženou interakcí.

Definice: Přístupnost je míra, v níž mohou lidé s různými schopnostmi a omezeními používat produkt efektivně, účinně a důstojně.

Definice: WCAG jsou mezinárodní doporučení pro přístupnost webového obsahu, která definují testovatelná kritéria pro vnímatelnost, ovladatelnost, srozumitelnost a robustnost.

Férovost je aktuální zejména v personalizaci a automatizovaných rozhodnutích. Pokud data nereprezentují určité skupiny, modely mohou systematicky chybovat, a UX pak může tuto chybu buď maskovat, nebo naopak odhalit a zmírnit. Inkluze se zde nevyčerpává demografií, ale zahrnuje i situace užívání, například stres, nízkou gramotnost, jazykovou bariéru či omezené připojení. Jazyk a obsah mají přitom silnou etickou dimenzi: stigmatizující formulace, „dark copy“ a zbytečně právnické texty snižují autonomii uživatele tím, že mu brání porozumět.

Definice: Diskriminace je znevýhodnění osoby nebo skupiny na základě chráněných nebo citlivých charakteristik; v digitálních systémech může vznikat i nepřímo, skrze data a rozhodovací pravidla.

Definice: Plain language (srozumitelný jazyk) je přístup ke srozumitelnému jazyku, který je přiměřený cílové skupině a minimalizuje kognitivní zátěž při zachování přesnosti.

Příklad: Formulář pro žádost o dávku používá složité právní termíny a nejasné instrukce. I když je formálně funkční, reálně znevýhodňuje lidi s nižší gramotností nebo ve stresu. Úprava do plain language je eticky relevantní, protože zvyšuje spravedlivý přístup ke službě.

I) Etika práce s AI a personalizací (v UX kontextu)

AI a personalizace posouvají etiku UX do oblasti, kde už nejde jen o rozhraní, ale o epistemickou důvěru: uživatel se spoléhá na to, že systém „ví, co dělá“. Transparentnost a vysvětlitelnost doporučení jsou proto klíčové nejen pro kontrolu uživatele, ale i pro prevenci overtrustu, kdy člověk přeceňuje schopnosti systému. UX zde musí řešit, kdy a jak informovat o automatizaci, jak nabídnout možnost korekce a jak zajistit, aby uživatel rozuměl nejistotě a limitům modelu.

Definice: AI systém je systém využívající metody strojového učení nebo jiné algoritmy k odvozování výstupů, jako jsou predikce, doporučení nebo rozhodnutí, která mohou ovlivnit uživatele.

Definice: Vysvětlitelnost je schopnost poskytnout srozumitelné zdůvodnění, proč systém nabízí určité doporučení nebo výsledek, a jaké faktory k němu přispěly.

Definice: Human-in-the-loop je princip, kdy člověk zůstává součástí rozhodovacího procesu, například schvaluje kritická rozhodnutí nebo může zasáhnout při chybě systému.

Definice: Transparentnost automatizace je míra, v níž je uživateli zřejmé, které části procesu jsou automatizované, s jakými limity a jak lze automatizaci ovlivnit.

Rizika zahrnují halucinace u generativních systémů, diskriminaci danou biasem, zneužití dat a sekundární využití osobních údajů pro trénink či profilování. Významné je i téma provenance (původu) dat a licencování tréninkových dat, protože etické a právní problémy často nezačínají až „na obrazovce“, ale v tom, z čeho se model učil a zda k tomu existovalo oprávnění. UX odpověď spočívá v bezpečnostních pojistkách, v jasném označení automatizovaných výstupů, v možnosti volby a v robustních procesech monitoringu. Eticky problematické je i to, když systém „působí“ jako autorita, ale ve skutečnosti nemá dostatek kontextu, například v oblasti zdraví nebo financí. Zde je nutná zdrženlivost v claimu, konzervativní výchozí nastavení a jasné přesměrování na odbornou pomoc, když je to relevantní. U doporučovacích systémů se často řeší i filtr-bubliny a posilování jednostranného obsahu; UX může přispět například vysvětlením „proč to vidím“, možností resetu doporučení nebo nastavením preferencí, aby uživatel měl větší kontrolu nad personalizací.

Propojení s GDPR je zde přirozené: u rozhodnutí s právními nebo obdobně významnými účinky je relevantní čl. 22 (výhradně automatizované rozhodování), a i mimo tento článek se očekává transparentnost, možnost uplatnit práva a minimalizace dat. Z hlediska novější evropské regulace je vhodné vědět, že AI Act (Akt o umělé inteligenci) posiluje požadavky na transparentnost a řízení rizik u vybraných systémů, což se v praxi potkává s UX právě v označování AI, informování uživatele a v bezpečnostních mechanismech.

Příklad: Chatbot v bankovní aplikaci navrhuje investice. Eticky vhodné UX zahrne označení, že jde o automatizované doporučení, vysvětlí základní parametry rizika, nabídne možnost mluvit s člověkem a zamezí tomu, aby doporučení bylo prezentováno jako jistý výsledek.

Aplikace (Applications)

Etika se v UX neprosazuje jednorázovým „posvěcením“ návrhu, ale integrací do celého procesu od discovery (objevování a definice problému) po uvedení do provozu a následný provozní dohled. Prakticky to znamená, že etické otázky se mají objevovat v definici problému, ve formulaci hypotéz, ve výběru metrik, ve způsobu sběru dat, v návrhu rozhraní a v monitoringu po spuštění. Tím se etika mění z abstraktního ideálu na opakovatelnou praxi, která je kompatibilní s produktovým řízením i s regulatorními požadavky.

Definice: Ethics by design je přístup, kdy se etické principy zabudovávají do návrhu a vývoje od začátku, nikoli dodatečně jako reakce na problém.

Definice: Design review (designová revize) je strukturované posouzení návrhu, které hodnotí nejen použitelnost, ale i etická, právní, bezpečnostní a přístupnostní rizika.

Definice: Risk register (registr rizik) je evidence identifikovaných rizik, jejich pravděpodobnosti, dopadu, vlastníků a mitigací, která umožňuje transparentní řízení.

Definice: Data minimization je princip sbírat a zpracovávat jen takové údaje, které jsou nezbytné pro jasně definovaný účel.

Definice: CMP (consent management platform, platforma pro správu souhlasů) je nástroj pro správu souhlasů a preferencí, který podporuje logování, granularitu voleb a integraci s tagy a analytikou.

1) Etika v UX procesu (Discovery, Design, Delivery, Post-launch)

V discovery fázi je etika přítomná už ve framingu problému: jak definujeme „uživatele“, koho ignorujeme a jaké cíle považujeme za legitimní. Pokud například definujeme úspěch jako maximalizaci času v aplikaci, je pravděpodobné, že výsledný produkt bude podporovat návykové vzory. Etický kontrolní bod zde znamená ověřit, zda cíle zahrnují i prospěch uživatele a zda existuje hypotéza o negativních dopadech. V designové fázi se etika promítá do architektury volby, do srozumitelnosti textů, do přístupnosti a do návrhu soukromí. Ve fázi dodání a nasazení (delivery) nabývá na významu testování, dokumentace a schvalování změn, zejména u experimentů a trackingu. Po spuštění (post-launch) se etika ukazuje v monitoringu dopadů, v reakci na incidenty a v ochotě iterovat, pokud se objeví škody, které nebyly předvídány.

Definice: Kontrolní bod (gate) je předem určený moment v procesu, kdy se rozhoduje o pokračování, a kdy musí být splněny určité podmínky, například etické nebo bezpečnostní.

Definice: Monitoring dopadů je sledování signálů, že produkt způsobuje nežádoucí efekty, například stížnosti, zvýšený churn u určitých skupin, incidenty soukromí nebo negativní zpětnou vazbu.

Definice: Incident response (reakce na incident) je soubor kroků pro reakci na incident, například únik dat, bezpečnostní zranitelnost nebo škodlivé chování systému, včetně komunikace a nápravy.

2) Praktické nástroje a techniky

Integrace etiky do praxe se opírá o jednoduché, ale důsledné techniky. Etická checklista funguje jako připomínka typických rizik, například dark patterns, bias, přístupnost a ochrana dat, a pomáhá udržet konzistenci mezi týmy. Posouzení etických dopadů (ethical impact assessment) a práce s maticí rizik (risk matrix) umožňují převést etickou debatu do rozhodovacího jazyka organizace: jak pravděpodobná je škoda, jak velká může být, koho zasáhne a jaké jsou mitigace. Mapování stakeholderů a mapování hodnot zviditelňuje, kdo ponese náklady a kdo získá benefit, což je v digitálních produktech často nerovnoměrné. Red teaming pak představuje užitečnou disciplínu „myslet jako útočník nebo jako někdo, kdo systém zneužije“, a to nejen bezpečnostně, ale i behaviorálně, například jak by šel systém obejít k nátlaku nebo k nefér získávání dat.

Definice: Checklista je strukturovaný seznam kontrolních otázek, který podporuje konzistentní posuzování kvality a rizik.

Definice: Risk matrix (matice rizik) je nástroj, který zobrazuje rizika podle pravděpodobnosti a dopadu, aby se stanovily priority mitigací.

Definice: Impact assessment (posouzení dopadů) je posouzení dopadů, které systematicky identifikuje, kdo bude ovlivněn, jakým způsobem a jak lze negativní dopady snížit.

Definice: Red teaming je technika, kdy tým záměrně hledá slabiny, možnosti zneužití a nežádoucí důsledky návrhu, aby je odhalil dříve, než se projeví v provozu.

Příklad: Při red teamingu registračního toku se zjistí, že uživatel může být nepřímo donucen k souhlasu s marketingem tím, že bez něj nedostane důležité transakční e-maily. Odhalení vede k oddělení transakční komunikace od marketingu a k jasnému vysvětlení voleb.

3) GDPR v UI: návrh souhlasů, nastavení a informovanosti

GDPR se pro uživatele stává „reálným“ teprve v UI. Oznámení o zpracování údajů má být srozumitelné, přiměřeně stručné a zároveň úplné. Vrstvený přístup umožňuje nabídnout hlavní informace v první vrstvě a detail v dalších, aniž by se uživatel ztratil v právnickém textu. „Just-in-time“ oznámení je pak velmi UX-kompatibilní: informaci dáváme ve chvíli, kdy uživatel danou funkci používá, například při prvním zapnutí lokace nebo při exportu dat. Preference centrum představuje jádro kontroly: uživatel musí mít možnost volby s dostatečnou granularitou, musí být schopný souhlas snadno odvolat a systém musí změny logovat tak, aby organizace unesla accountability.

Definice: Layered notice (vrstvené oznámení) je oznámení o zpracování údajů, které poskytuje nejdůležitější informace nejprve a detail postupně podle potřeby.

Definice: Just-in-time notice je oznámení poskytnuté v okamžiku, kdy je relevantní, typicky při aktivaci funkce, která zpracovává citlivější data.

Definice: Preference center (centrum preferencí) je rozhraní, kde uživatel spravuje souhlasy a nastavení soukromí, například marketing, personalizaci nebo sdílení s třetími stranami.

V oblasti cookies a trackingu se zde navíc propojuje GDPR s ePrivacy, a UX musí zajistit nejen „správná tlačítka“, ale i srozumitelný popis účelů a reálnou možnost volby bez nátlaku. V dobře navrženém rozhraní je stejně důležité umět souhlas odvolat jako jej udělit, protože odvolatelnost je jádrem kontroly a důvěry.

4) Udržitelnost v digitálním produktu

Udržitelnost lze v digitálním produktu prosazovat skrze výkon, datovou efektivitu a omezení zbytečných stimulů. Performance budget (rozpočet výkonu) je praktický koncept, který stanoví limity pro velikost stránky, počet požadavků či objem médií, což se přímo promítá do energie, času načítání a přístupnosti. Eco-mode může nabídnout sníženou kvalitu videa, omezení animací nebo šetrnější synchronizaci na pozadí. Digitální střízlivost se pak týká interakčních vzorů: omezení push notifikací, opatrnost s nekonečným scrollováním a záměrné podporování „dokončení úkolu“ místo „nekonečné spotřeby“. Pro praxi je užitečné doplnit i měření, aby udržitelnost nebyla jen deklarací: tým může sledovat přenesená data na klíčové toky, dobu aktivního používání v souvislosti s cílem služby, energetickou náročnost na typických zařízeních, a u AI také nákladnost inference a počet volání modelu, protože právě tyto parametry se často promítají do reálné environmentální i ekonomické stopy.

Definice: Performance budget je předem stanovený limit pro výkonové parametry, například velikost přenesených dat či dobu načítání, který pomáhá udržet produkt rychlý a úsporný.

Definice: Eco-mode je režim produktu, který cíleně snižuje spotřebu dat a energie, často výměnou za nižší vizuální bohatost.

Definice: Digitální střízlivost je návrhový přístup, který respektuje omezené zdroje infrastruktury i pozornosti uživatele a minimalizuje zbytečné digitální „plýtvání“.

5) Případové studie (typové)

V e-commerce se etika často láme na souhlasech, doporučování a urgenci. Doporučovací systém může být užitečný, ale pokud je navržen tak, aby tlačil impulzní nákup nebo skrýval celkovou cenu, přechází do manipulace. Ve zdravotní aplikaci se setkáme s citlivými daty, vysokými očekáváními důvěrnosti a s rizikem škody při chybných doporučeních; zde se protíná výzkumná etika, bezpečnost a GDPR. V bankovnictví je klasický konflikt mezi bezpečností a použitelností: přísné ověření identity a KYC procesy mohou být frustrující, ale eticky i regulatorně nezbytné, přičemž úkolem UX je navrhnout je srozumitelně a důstojně. U edukačních platforem se etika výrazně vztahuje k dětem, rodičovskému souhlasu a k tomu, zda produkt nepoužívá dark patterns k udržení pozornosti nebo k nákupům v aplikaci.

Definice: KYC (know your customer) je soubor procesů, jimiž finanční instituce ověřuje identitu klienta a hodnotí rizika, typicky kvůli prevenci praní peněz a podvodů.

Definice: Age-appropriate design je přístup, který přizpůsobuje návrh věku uživatele, zejména dětí, a klade důraz na zvýšenou ochranu soukromí, bezpečí a férovosti.

Příklad: Edu platforma pro děti zobrazuje „limitované“ balíčky odměn a časově omezené nabídky. Etická revize upozorní, že děti hůře rozpoznají marketingový nátlak, a prosadí odstranění falešné urgence a jasné oddělení výuky od monetizace.

Výzvy a omezení (Challenges and Considerations)

Etika designu se v praxi neprosazuje v ideálních podmínkách, ale v prostředí časového tlaku, technického dluhu a obchodních očekávání. Organizace často vyžadují rychlé iterace a růst, zatímco etická analýza vyžaduje zpomalení, testování dopadů a někdy i odmítnutí „výhodného“ řešení. Regulace navíc může být nejasná, mezinárodní prostředí komplikuje přenosy dat a standardy se liší napříč jurisdikcemi. Etický problém se tak často mění v problém organizační moci: kdo má právo říct „ne“, kdo nese odpovědnost a kdo ponese následky, pokud se škoda projeví.

Definice: Střet zájmů je situace, kdy se zájmy organizace, týmu nebo jednotlivce dostávají do konfliktu s povinnostmi vůči uživateli, účastníkovi výzkumu nebo veřejnosti.

Definice: Technický dluh je souhrn kompromisů v implementaci, které urychlily vývoj, ale zvyšují budoucí náklady a rizika, například v bezpečnosti, přístupnosti nebo správě souhlasů.

Definice: Etické vyhoření je stav, kdy dlouhodobý tlak dělat škodlivá nebo sporná rozhodnutí vede k frustraci, ztrátě smyslu a odchodu z role nebo oboru.

Definice: Whistleblowing je oznámení závažného pochybení organizace relevantním autoritám nebo veřejnosti, typicky když interní eskalace selže.

1) Trade-offy a konflikty mezi stakeholdery

Trade-offy jsou v UX nevyhnutelné a etika nespočívá v jejich popření, ale v transparentním řízení. Produktové metriky mohou být v konfliktu s autonomií, například když nátlakové notifikace zvyšují retenci. Bezpečnost může být v konfliktu s plynulostí, například při vícefaktorové autentizaci. Personalizace se střetává se soukromím, protože vyžaduje data a profilování. Rychlost inovace se střetává s ověřováním dopadů, protože etické a právní testování trvá. Zde je klíčový stakeholder management, tedy schopnost vysvětlit dopady, pojmenovat riziko a navrhnout kompromis, který snižuje škodu, aniž by paralyzoval produkt.

Definice: Stakeholder management je řízení očekávání, zájmů a vlivu stakeholderů tak, aby bylo možné dosáhnout rozhodnutí obhajitelného z hlediska hodnot i cílů.

2) Měření „škody“ a dlouhodobých dopadů

Měření škody je obtížné, protože škoda bývá rozptýlená v čase, je subjektivní a často se projevuje nepřímo. Attribution problem znamená, že nelze snadno přiřadit příčinu, protože uživatel je vystaven mnoha vlivům. Organizace proto používají proxy metriky, které mají škodu či benefit zastupovat, například počet stížností, míru odhlášení notifikací, míru refundů nebo signály stresu v kvalitativních datech. Pro skutečné porozumění je ale často nutný longitudinální výzkum, který sleduje dopady v čase, což je nákladné a organizačně náročné. Eticky zralá praxe proto kombinuje kvantitativní signály s kvalitativními, například rozhovory, diary studies a analýzou incidentů.

Definice: Proxy metrika je nepřímý ukazatel, který má zastupovat obtížně měřitelný jev, například well-being nebo důvěru.

Definice: Longitudinální výzkum je výzkum sledující stejné účastníky nebo populaci v čase, aby bylo možné zachytit změny a dlouhodobé dopady.

3) Šedé zóny GDPR a praxe