Souhrn
OpenAI nedávno spustilo ChatGPT Health, samostatnou sekci v ChatGPT určenou pro zdravotní dotazy v údajně bezpečnějším a personalizovaném prostředí. Společnost aktivně povzbuzuje uživatele k sdílení citlivých údajů jako diagnózy, léky nebo výsledky testů, přestože tech firmy nepodléhají stejným regulacím jako lékařské zařízení. Experti z The Verge doporučují maximální opatrnost, protože soukromí závisí pouze na slovu OpenAI.
Klíčové body
- Každý týden více než 230 milionů uživatelů se ptá ChatGPT na zdravotní a wellness rady.
- ChatGPT Health slouží k zodpovídání zdravotních otázek a pomoci s pojišťovnami, papírováním a sebeobhajobou.
- Anthropic představilo Claude for Healthcare, produkt připravený na standard HIPAA pro nemocnice, poskytovatele i spotřebitele.
- Tech firmy nejsou vázány HIPAA nebo jinými zdravotnickými předpisy, na rozdíl od lékařů.
- OpenAI zdůrazňuje soukromí, ale bez nezávislého ověření.
Podrobnosti
Článek z The Verge od Roberta Harta, londýnského reportéra specializujícího se na AI, upozorňuje na rostoucí trend používání AI chatbotů v zdravotnictví. OpenAI uvádí, že uživatelé vnímají ChatGPT jako spojence v navigaci složitého systému pojišťoven, vyplňování formulářů a lepší sebeobhajobě. ChatGPT Health je nová záložka přímo v ChatGPT, která má poskytovat odpovědi v bezpečnějším prostředí – uživatelé tu mohou zadávat otázky o symptomech, lékách nebo výsledcích vyšetření a dostávat personalizované rady. OpenAI takto doufá, že získá důvěru k manipulaci s citlivými daty, jako jsou diagnózy, předpisy léků nebo laboratorní výsledky.
Paralelně Anthropic, konkurent OpenAI vyvíjející model Claude, uvedlo Claude for Healthcare. Tento nástroj je navržen jako “HIPAA-ready”, což znamená, že splňuje standardy amerického zákona o přenositelnosti a odpovědnosti v zdravotnictví (HIPAA) pro ochranu dat. Lze ho použít v nemocnicích pro administrativní úkoly, u poskytovatelů péče pro diagnostickou podporu nebo přímo spotřebiteli pro osobní rady. Naopak Google, tvůrce jednoho z nejpokročilejších chatbotů Gemini, zatím v tomto segmentu chybí, i když aktualizovalo model MedGemma pro vývojáře.
Zdravotnictví se stává klíčovým polem pro AI laboratoře. Uživatelé si zvyklí na konverzaci s chatboty, které připomínají ordinaci, ale realita je jiná: tech společnosti nejsou zdravotnickými poskytovateli. Nemají povinnost dodržovat HIPAA, nemohou vydávat lékařské diagnózy a jejich modely trénují na veřejných datech, což zvyšuje riziko úniků nebo chyb. Experti, jako ti citovaní v článku, radí nepředkládat žádná osobní data, protože soukromí chrání jen firemní politika OpenAI, která se může změnit. Například data z ChatGPT mohou být použita k vylepšování modelů, pokud uživatel nesouhlasí s opt-out. Článek datuje k 23. lednu 2026 a zdůrazňuje, že tento trend testuje, jak daleko jsou uživatelé ochotni AI vpustit do intimních oblastí života.
Proč je to důležité
Tato novinka od OpenAI a Anthropic signalizuje hlubší integraci AI do zdravotnictví, kde selhání soukromí může vést k masivním únikům dat ovlivňujícím miliony lidí. Pro uživatele to znamená riziko, že diagnózy nebo lékařské historie skončí v trénovacích datech AI, což ohrožuje identitu a může vést k diskriminaci v pojišťovnách nebo zaměstnání. V širším kontextu to tlačí na regulace: EU s GDPR a USA s HIPAA budou muset definovat pravidla pro AI v medicíně, jinak tech giganti získají konkurenční výhodu díky sběru dat. Zároveň ukazuje limity současných LLM – neumějí nahradit lékaře a jejich rady mohou být nepresné. Pro průmysl je to test důvěry: úspěch by otevřel trh v hodnotě stovek miliard, ale selhání by způsobilo backlash proti AI obecně.
Zdroj: ⚡ The Verge