Umělá inteligence se stala nedílnou součástí většiny dnešní společnosti. Ať už jde o psaní e-mailů nebo každodenního rozhodování. Mnozí lidé se na AI obrací i s dotazy ohledně zdraví, financí nebo právních záležitostí. A ačkoliv nám AI může poradit v nouzi, v minulosti se vyskytly případy, ve kterých uživatelé utrpěli poté, co se spoléhali na radu od umělé inteligence. Z tohoto důvodu OpenAI přináší změnu a ChatGPT už nebude nadále nabízet zdravotní, finanční nebo právní podporu.  

Tento krok má zvýšit bezpečnost uživatelů a zabránit šíření neověřených informací. Z čeho vývojáři umělé inteligence vychází a jak to ovlivní budoucí vývoj AI?

Oficiální prohlášení OpenAI

OpenAI vydalo aktualizaci dokumentu o tom, že umělá inteligence nebude nadále nabízet zdravotní, finanční a právní rady v dokumentu Usage Policies. 29. října 2025 zveřejnilo v části Protect people, že „nebude možné využívat službu k poskytování poradenství na míru, které vyžaduje licenci, jako je právní nebo lékařské poradenství, bez odpovídajícího zapojení licencovaného odborníka.“ 

I přes to, to neznamená, že se by se měla změnit zásady používání a chování ChatGPT. To podle webu The Verge uvedl na sociální síti X Karin Singhal, vedoucí oblasti zdraví AI. K novince o zásadách používání se společnost vyjádřila tak, že se chování modelu se v zásadě nemění, ale jde pouze o sjednocení politik dřívějších pravidel dokumentu.

Co to pro uživatele znamená?

Podle oficiálních dat OpenAI nesmí uživatele využít ChatGPT k poskytování personalizovaný rad, které vyžadují odbornou licenci,  například v oblasti lékařství, práva či financí. To však neznamená, že by ChatGPT nemohl o těchto tématech mluvit. Chatbot může poskytovat obecné informace, ale nikoli konkrétní doporučení, které se týkají osobních situací.

V praxi uživateli může poskytnout obecné informace o zdraví, právech nebo financích, tedy například vysvětlit co jsou antibiotika, jak funguje hypotéka nebo jaký je rozdíl mezi daňovým poradcem a účetním. ChatGPT může dále sdílet fakta z veřejné dostupných zdrojů (např. WHO, NIH, zákoníky), pomoci uživateli porozumět pojmu a nabídnout vzdělávací kontext, např. jak se obvykle léčí chřipka, ale neříct co má uživatel při poskytnutí symptomů dělat osobně.

ChatGPT například neodpovídá na dotazy typu: „Kolik mg si mám vzít?”, „Mohu vysadit lék?“ nebo „Co mám napsat do právní smlouvy?“. Jeho role nemůže nahrazovat lékaře, právníka nebo finančního poradce.

Podle OpenAI cílem není omezit přístup k informacím, ale zabránit mylnému dojmu, že by umělá inteligence mohla nahradit odborníka a zároveň se tím vyvarovat situacím, ve kterých došlo na základě rady od umělé inteligence k negativnímu dopadu na život člověka.

Co říkají studie?

Časopis BMJ Quality & Safety publikoval studii, která ukázala, že značná část odpovědí AI chatbotů ohledně léků byla nesprávná nebo potenciálně škodlivá. Další výzkum z Brown University zjistil, že chatboti v oblasti duševního zdraví systematicky porušují etické standardy psychoterapie. To se může projevit nevhodnou reakcí v krizových situacích, která posiluje negativní myšlení. Studie zveřejněná na webu arXiv navíc zkoumala čtyři populární modely LLM pro zdravotnické otázky a zjistila, že 5-13% procent odpovědí lze považovat za nebezpečné.

Z právní oblasti podle ResearchGate se ve studii zaměřené na Chatboty uvádí, že při používání umělé inteligence pro právní poradenství existují radikální limity, které se mohou projevovat chybou nebo nejasnou právní zodpovědností. Na oblast práva také navazuje výzkumný článek z roku 2024 More than Words: A Legal Approach to the Risks of Commercial Chatbots, který shrnuje, že generativní chatboty v komerčním právu nesplňují standardy transparentnosti, vysvětlitelnosti či odpovědnosti.

Případy, kdy rady od AI měly následky 

Jedním z případů, ve kterém se projevilo riziko při spoléhání se na rady od umělé inteligence, je kauza dvou newyorských právníků ze společnosti Levidow, Levidow & Oberman. Ti v roce 2023 předložili soudu dokument vypracovaný pomocí ChatGPT, který obsahoval šest smyšlených právních precedensů. AI si tyto případy jednoduše vymyslela, to právníci neodhalili a citovali je jako skutečné. Soud je následně potrestal pokutou 5 000 dolarů a zdůraznil, že právníci mají povinnost ověřovat vše, co u soudu předkládají. Firma se hájila tím, že „udělala chybu v dobré víře“ a nevěřila, že technologie může „vymyslet úplné nesmysly“ (Reuters). 

Podobné riziko způsobené radou od umělé inteligence se objevilo v roce 2024 i ve zdravotnictví, kdy se do médií dostal případ sedmapadesátiletého muže, který následoval dietní doporučení nalezené prostřednictvím ChatGPT. Na základě nepochopené nebo nepřesné rady výrazně snížil příjem sodíku a začal užívat náhražku soli, která obsahovala bromidy. Po několika týdnech se u něj projevila otrava bromem doprovázená psychózou a halucinacemi. Lékaři potvrdili, že jeho stav souvisel s nesprávným užitím informací získaných pomocí AI (People.com).


OpenAI tímto novým prohlášením předchází potenciálním rizikům v klíčových oblastech každodenního fungování. S vývojem chatbotů a umělé inteligence vývojáři směřují k bezpečnějšímu využívání AI nástrojů, které mají sloužit jako podpora, nikoli náhrada lidských profesionálů.


Foto: Unsplash