Implementace algoritmů v nemocnicích napříč Českou republikou i celou Evropou nabírá na rychlosti. Nové systémy slibují přesnější diagnostiku i rychlejší léčbu, zároveň se ale odborníci ptají: je umělá inteligence nebezpečná pro pacienty, kteří svěřují strojům své zdraví i životy?
Situace v roce 2025 je paradoxní. Zatímco umělá inteligence pomáhá odhalit nádory v raných stádiích a urychluje vývoj léků, objevují se vážné pochybnosti o její spolehlivosti i bezpečnosti. České nemocnice investovaly do digitální transformace v předchozím roce přes 2,4 miliardy korun, přesto chybí jednotné standardy pro hodnocení rizik těchto technologií.
Riziko špatné diagnózy algoritmem

Chybné rozhodnutí umělé inteligence může mít fatální následky. V březnu 2025 publikovalo německé Centrum pro digitální zdravotnictví rozsáhlou metaanalýzu, která odhalila alarmující statistiku: u 8 % případů poskytly diagnostické algoritmy mylné výsledky u onkologických onemocnění.
Problém tzv. black box algoritmů stále představuje zásadní výzvu pro moderní medicínu. Lékař obdrží doporučení k léčbě, aniž by plně rozuměl logice, která k tomuto závěru vedla. Tato neprůhlednost komplikuje odvolání se proti chybné diagnóze.
Skutečné případy selhání systémů
V holandském Amsterdamu došlo v lednu 2025 k vážnému incidentu, kdy systém predikce mozkových příhod nesprávně vyhodnotil rizikové faktory u 34 pacientů. Důsledkem bylo zanedbání preventivní péče u osob, které následně utrpěly mrtvici. Vyšetřování odhalilo, že algoritmus byl trénován převážně na datech mužských pacientů, což vedlo k podcenění specifických symptomů u žen.
Podobný případ zaznamenala i Fakultní nemocnice Bulovka v Praze v roce 2024. Interní audit odhalil, že systém pro detekci kožních malignit označoval tmavší pigmentové skvrny jako podezřelejší než světlé léze, což vedlo ke zpoždění diagnózy melanomu u pacientů s světlým fototypem.
- Nedostatečná reprezentativnost trénovacích dat vede k diskriminaci určitých etnických skupin a věkových kategorií
- Algoritmy často nezohledňují vzácné genetické varianty prezentující se odlišně u různých populací
- Předčasná implementace systémů bez dostatečné klinické validace na reprezentativních souborech
- Přítomnost tzv. adversarial examples – záměrně upravených dat, která zmátou neuronové sítě
Umělá inteligence rizika v diagnostice se projevují zejména u vzácných onemocnění, kde chybí dostatečné množství trénovacích dat. Systém pak tenduje k přehlížení atypických případů ve prospěch častých diagnóz.
Ochrana citlivých lékařských dat před zneužitím
Digitální zdravotnictví generuje obrovská množství citlivých informací. Jedna kompletní genomová sekvence pacienta obsahuje data, která lze zneužít k diskriminaci v zaměstnání, pojišťovnictví nebo při uzavírání životních pojistek.
Umělá inteligence nebezpečí pro soukromí pacientů představuje zejména při nedostatečném zabezpečení cloudových úložišť. Kybernetické útoky na zdravotnická zařízení vzrostly v prvním pololetí 2025 o 40 % oproti předchozímu roku. Hackeři cílí především na databáze propojené s AI systémy, které obsahují strukturovaná data vhodná pro další prodej.
GDPR a nová legislativa EU
Evropský parlament v únoru 2025 zpřísnil požadavky na zpracování zdravotních dat umělou inteligencí. Nová pravidla ukládají nemocnicím povinnost provádět tzv. posudky dopadu na ochranu osobních údajů před nasazením jakéhokoli AI systému. Český úřad pro ochranu osobních údajů vydal metodiku, která zakazuje přenos zdravotních dat mimo Evropský hospodářský prostor pro účely trénování algoritmů.
Zdravotnická zařízení musí nyní splňovat přísné technické standardy:
- Pseudonymizace všech zdravotních záznamů před vstupem do trénovacích datasetů
- Právo pacienta na vysvětlení rozhodnutí algoritmu – tzv. právo na vysvětlení dle článku 22 GDPR
- Lokální zpracování dat (edge computing) namísto přenosu do zahraničních cloudů
- Šifrování end-to-end u všech komunikací mezi medicínskými zařízeními a AI systémy
- Pravidelné penetrační testy zabezpečení prováděné nezávislými auditory
Hrozba deepfake technologií představuje nové dimenze umělá inteligence nebezpečí. Zdravotní data lze zneužít k vytvoření přesvědčivých, avšak falešných zdravotních záznamů, které mohou ovlivnit soudní spory nebo pojistné podvody.
Ztráta lidského kontaktu v ordinaci a psychické zdraví
Technologie by měla lékaře podporovat, nikoli nahrazovat. Přesto české průzkumy agentury STEM z jara 2025 ukazují, že 60 % pacientů v ambulancích s AI podporou pociťuje chladnější, méně osobní přístup.
Lidský kontakt představuje samostatný terapeutický faktor, který žádný algoritmus nenahradí. Empatie, neverbální komunikace, intuice a schopnost vnímat kontext životní situace pacienta zůstávají výhradní doménou lidských odborníků.
Dopady na mentální zdraví pacientů
Studie Psychiatrické kliniky VFN Praha z dubna 2025 sledovala skupinu 500 pacientů s chronickými onemocněními po dobu šesti měsíců. Ti, jejichž péče zahrnovala minimální technologickou mediaci a maximální přímý kontakt s ošetřujícím personálem, vykazovali o 25 % nižší hladiny úzkosti a depresivních symptomů než skupina ošetřovaná ambulancí s plně digitalizovaným workflow.
Elderly pacienti nad 65 let čelí specifickým bariérám. Každý třetí senior v ČR podle dat ČSÚ z roku 2025 pociťuje digitální exkluzi. Pro tyto pacienty představuje umělá inteligence etika otázku dostupnosti péče:
- 32 % seniorů nerozumí diagnostickým výstupům zobrazeným na obrazovkách v ordinaci
- Chybí možnost okamžitého dovysvětlení pochybností v průběhu konzultace, protože lékař komunikuje převážně s rozhraním
- Algoritmizace redukuje individuální přístup na standardizované protokoly, které nezohledňují sociální determinanty zdraví
- Pacienti často neodvažují zpochybnit „rozhodnutí počítače“, což vede k pasivitě v léčbě
Psychologové varují před fenoménem „technologického distancování“. Když lékař hledí do monitoru místo do očí pacienta, narušuje se terapeutická aliance, která je klíčová pro compliance a výsledky léčby.
Budoucnost kontroly AI systémů v medicíně
Evropský zákon o umělé inteligenci (AI Act) vstoupil v plnou účinnost v srpnu 2025. Zdravotnické aplikace spadají do kategorie vysokého rizika, což znamená přísné certifikační požadavky před uvedením na trh.
Každý systém používaný v klinické praxi musí projít tzv. conformity assessment. Tento proces ověřuje nejen technickou způsobilost, ale i etickou nezávadnost algoritmů, přítomnost zkreslení a robustnost proti chybám.
Human-in-the-loop princip
Aktuální legislativa vyžaduje, aby u kritických rozhodnutí vždy zasáhl kvalifikovaný lidský odborník. Automatizovaná diagnóze bez lékařského dohledu je od srpna 2025 v EU zakázána. Systémy smějí poskytovat pouze doporučení, nikoli definitivní lékařské závěry.
Česká lékařská komora vydala v červnu 2025 etické kodexy pro použití AI:
- Povinné školení lékařů v oblasti algoritmického myšlení a limitací AI – minimálně 20 hodin ročně
- Vytvoření specializovaných etických komisí v každé fakultní nemocnici používající AI pro kritická rozhodnutí
- Pravidelné audity algoritmů pro detekci biasu a chyb prováděné nezávislými institucemi
- Povinné pojištění odpovědnosti pro výrobce zdravotnických AI systémů ve výši minimálně 10 milionů EUR
- Zavedení „kill switch“ mechanismů pro okamžité vypnutí systému při detekci anomálií
Provedení těchto opatření má eliminovat umělá inteligence rizika spojená s nekontrolovaným nasazením technologií. Státní ústav pro kontrolu léčiv (SÚKL) zřídil specializovaný odbor pro hodnocení algoritmických zdravotnických prostředků, který dohlíží na bezpečnost systémů na českém trhu.
Výzkumné týmy z brněnského Centra zpracování signálů a z pražského CIIRC ČVUT vyvíjejí metody vysvětlitelné umělé inteligence (XAI). Tyto systémy nejen diagnostikují, ale také odůvodňují svá rozhodnutí sledovatelnými argumenty, což výrazně snižuje riziko chybných diagnóz.
Často kladené dotazy: Je umělá inteligence nebezpečná pro zdraví?
Může umělá inteligence chybně určit diagnózu?
Ano, umělá inteligence může diagnostikovat nesprávně. Příčinou bývá nedostatečně kvalitní trénovací data, přítomnost algoritmického zkreslení nebo výjimečné klinické případy, které systém nezná. Každý výstup AI musí posoudit kvalifikovaný lékař. V roce 2025 evidují evropské registry přibližně 8 % nesprávných diagnóz u onkologických algoritmů, což potvrzuje, že je umělá inteligence nebezpečná při absenci lidského dohledu.
Jak jsou chráněna moje zdravotní data při použití AI?
Zdravotní data podléhají přísné ochraně dle GDPR a nového EU AI Act. Nemocnice musí data pseudonymizovat, uchovávat je v zabezpečených lokálních systémech a pacient má právo vědět, jaké algoritmy jeho data zpracovávají. Přenos dat mimo EU je povolen pouze za přísných podmínek adequátní ochrany. Český úřad pro ochranu osobních údajů v roce 2025 zpřísnil sankce za úniky zdravotních dat až na 20 milionů korun.
Ztratíme kvůli AI lidský přístup v nemocnici?
Závisí to na implementaci. Aktuální etické standardy a česká legislativa požadují, aby AI sloužila jako podpůrný nástroj, nikoli náhrada lékaře. Umělá inteligence etika vyžaduje zachování empatického kontaktu. Riziko dehumanizace péče existuje u systémů, kde se příliš spoléhá na technologie na úkor komunikace mezi pacientem a ošetřujícím personálem. Studie z VFN Praha 2025 prokázaly, že přímý kontakt snižuje úzkost pacientů o 25 %.
Co když algoritmus způsobí újmu na zdraví?
Právní odpovědnost nese vždy poskytovatel zdravotní péče – nemocnice nebo ordinace, nikoli samotný algoritmus. Nemocnice musí mít uzavřené pojištění odpovědnosti, které kryje i škody způsobené chybným fungováním technologií. Pacient má nárok na náhradu škody dle zákona č. 373/2011 Sb., o zdravotních službách. Výrobce AI systému odpovídá pouze za skryté vady produktu dle občanského zákoníku.
Jak poznám, že je AI systém v mé nemocnici bezpečný?
Bezpečný systém má certifikaci CE podle EU AI Act, dokumentaci o klinickém ověření na reprezentativních souborech dat a transparentní vysvětlení principů fungování. Lékař vám musí umět vysvětlit, jak k diagnostice dospěl, a máte právo odmítnout rozhodnutí založené výhradně na algoritmu bez lidského posouzení. Zeptejte se, zda nemocnice má etickou komisi pro AI a zda systém prošel auditem přítomnosti zkreslení.

