Vlna pobouření kolem uměle vytvořených profilů na sociálních sítích přiměla společnost Meta Platforms k vyšetřování obsahu na platformě Instagram. Na problém upozornila síť BBC, která odhalila desítky účtů generovaných umělou inteligencí zveřejňujících snímky žen se zdravotním postižením v sexualizovaných pózách nebo v odhalujícím oblečení. Firma proto čelí kritice obsahu, který podle odborníků přispívá k sexualizaci, fetišizaci a zesměšňování zdravotně hendikepovaných.
Podle zjištění novinářů z portálu BBC se na sociální síti Instagram objevuje řada účtů generovaných umělou inteligencí, které zveřejňují falešné snímky žen se zdravotním postižením. Videa často obsahují ženy s Downovým syndromem, vitiligem, viditelnými jizvami nebo ženy na invalidním vozíku. Obrázky zachycují tyto fiktivní postavy v sexualizovaných pózách nebo svůdném oblečení. Mnoho profilů s obdobnou tematikou si navíc během krátké doby získaly statisíce sledujících.
Kritici a organizace na ochranu práv osob s postižením označují tento obsah za dehumanizující, diskriminující a fetišizující. Platforma Instagram podle odborníků zneužívá skutečné lidské příběhy a redukuje je na erotické karikatury, čímž výrazně zneužívá image reálných lidí bez jejich souhlasu. Společnost Meta Platforms nyní tyto účty prověřuje a uvádí, že odstraňuje materiály, které porušují pravidla ohledně sexuálního vykořisťování nebo útoků na základě zdravotního stavu.
Vitiligo, invalidní vozík i Downův syndrom
Novináři z BBC na platformě Instagram objevili desítky profilů, které sdílejí uměle vytvořené snímky žen s postižením. Mezi často prezentované hendikepy na takových profilech natří například Downův syndrom a Vitiligo (chronické autoimunitní onemocnění kůže, při kterém imunitní systém napadá kožní buňky produkující pigment melanin. To způsobuje ztrátu pigmentu v určitých oblastech a vede ke vzniku světle‑bílých skvrn na kůži, pozn.red.) Některé z těchto profilů dokonce zveřejňují falešné fotografie a videa žen s amputacemi nebo viditelnými jizvami. I tyto ženy jsou na Insgtagramu často zachyceny v sexualizovaných pózách a v odhalujícím oblečení.
Některé účty během několika měsíců nasbíraly statisíce sledujících. Jeden z profilů se například prezentuje způsobem, že zobrazuje siamská dvojčata. Přestože byl na Instagramu založen teprve v prosinci 2025, má v současné době kolem 400 000 sledujících. Další z profilů fungoval pod jménem Maria Dopari a než byl odstraněn, měl přes 148 000 sledovatelů. Tento účet sdílel uměle vytvořené snímky fiktivní influencerky s Downovým syndromem. Fotografie byly rovněž zaměřené převážně na objektivizaci těla a propagaci dospělého obsahu.
Investigativní týmy identifikovaly desítky dalších falešných účtů, které fungovaly na podobném principu. Některé z nich využívaly populární hashtagy, například #DownSyndrome nebo #DownSyndromeAwareness, aby získaly virální pozornost. V několika případech se účty snažily i monetizovat svůj obsah prostřednictvím odkazů na weby pro dospělé.

Kritici vyjádřili nesouhlas
Zveřejňování videí osob s tělesným postižením vyvolala vlnu znepokojení mezi odborníky a především mezi lidmi, kteří za práva hendikepovaných bojují. „Tyto obrázky vygenerované umělou inteligencí se neobjevují z ničeho nic. Jsou vytvořeny z obrázků skutečných osob se zdravotním postižením, často bez souhlasu - a nemoderované komentáře ještě více podporují objektivizaci a obtěžování,“ tvrdí vedoucí komunikace charitativní organizace Scope Alison Kerryová, která se věnuje rovnosti osob se zdravotním postižením.
K nevhodnému obsahu osob se zdravotním hendikepem se vyjádřil rovněž britský regulační orgán Ofcom. Organizace upozornila, že pečlivě sleduje vývoj umělé inteligence, a s ní související rizika i opatření. Uvedl také, že pravidla online bezpečnosti stanovená dozorčími orgány vyžadují, aby technologické společnosti bojovaly proti nelegálnímu obsahu. Komise pro rovnost a lidská práva pro změnu označila účty odhalené BBC za „hluboce znepokojivé“. „Je zásadní, aby v digitálním prostoru existovaly silné regulační pravomoci, které budou chránit lidi před újmou,“uvedla komise.
Hendikep pro pobavení
Kamran Mallick, výkonný ředitel organizace Disability Rights UK, označil vznik podovných účtů za „nic jiného než hrůzostrašné“. Podle něj jde o technologii zneužívanou k tomu, aby se osoby se zdravotním postožením staly zdrojem zábavy. „Máme tu technologii zneužívanou k tomu, aby osobám se zdravotním postižením odňala svobodu a důstojnost a proměnila naše zkušenosti v digitální karikatury pro zisk a pobavení ostatních,“ řekl pro britský server BBC Mallick.
K tématu se vyjádřila také Amy Gaetaová z University of Cambridge. Odbornice upozorňuje, že internet je zaplaven levnými a bezplatnými generativními nástroji AI pro tvorbu obrázků. Tyto programy vytvářejí obsah podle vzorců naučených z existujících dat. „Někdy se bez mého podnětu nebo záměru vygenerují hypersexualizované obrázky osob se zdravotním postižením. To jasně dokazuje zaujatost v datových souborech, na kterých jsou tyto nástroje trénovány,“ sdělila Gateová.
Podobně se vyjádřily i jiné zahraniční zdravotnické organizace. Učinila tak například firma Gemini Untwined, která financuje specializované operace pro novorozence spojené hlavou. Mluvčí organizace označil obdobné zobrazování siamských dvojčat za „morálně nepřijatelné“ a zároveň zdůraznil, že tento styl prezentace hendikepovaných zlehčuje skutečné lékařské výzvy, kterým čelí děti i jejich rodiny.
Videa vzbuzují stereotypy
Podle nové studie zveřejněné na serveru ArXiv.com vykazují populární nástroje pro generování obrázků výrazné předsudky vůči lidem se zdravotním postižením. Vědci analyzovali výstupy několika špičkových text-to-image modelů a zjistili, že většina vytvořených snímků zobrazuje osoby s postižením jako lidi vyššího věku a často s vážným nebo smutným výrazem. Často je navíc automaticky umisťuje na manuální invalidní vozík. Vědci se tak domnívají, že modely spíše reprodukují zažité stereotypy, než aby zachycovaly skutečnou rozmanitost této skupiny. Podle autorů studie to poukazuje na nedostatky v tréninkových datech a na jejich zásadní vliv na výslednou podobu generovaného obsahu.
Podobné závěry přináší i další výzkum zaměřený na pokročilé generátory, jako jsou Stable Diffusion XL nebo DALL·E 3. Výzkumníci ve své studii porovnávali výstupy při různých zadáních a sledovali, jak se mění zobrazení v závislosti na typu postižení či kontextu situace. I v tomto případě se ukázaly výrazné nerovnováhy. Analyrtici zastávají názor, že pokud nedojde k úpravám tréninkových dat a jasnějším pravidlům fungování modelů, budou tyto systémy dál nevědomky kopírovat zakořeněné stereotypy. Výsledkem pak může být právě nechtěné upevňování předsudků a vytváření jednostranného obrazu lidí se zdravotním postižením.
Meta se brání
Společnost Meta dlouhodobě uvádí, že proti škodlivému a sexualizovanému obsahu na Instagramu zasahuje kombinací automatických systémů a lidských moderátorů. Její mluvčí Andy Stone potvrdil, že sporný obsah na Instagramu je nyní předmětem interního prověřování. Firma podle něj průběžně odstraňuje příspěvky, které podporují sexuální vykořisťování nebo se zaměřují na osoby se zdravotním postižením. Uživatelé mají navíc možnost nevhodný obsah přímo nahlásit. Meta zároveň zdůrazňuje, že ochrana komunity patří mezi její hlavní priority a že její pravidla výslovně zakazují sexualizaci či zneužívání zranitelných skupin.
Náhledový text: Nytimes.com
