Umelá inteligencia (AI) sa vyvíja dynamicky a je budúcnosťou medicíny. Na medzinárodnej úrovni však stále chýba regulácia - najmä právna definícia -, ktorá by definovala umelú inteligenciu, a teda jasnosť v otázke zodpovednosti za prípadné lekárske chyby, ktoré vzniknú pri používaní prístroja s podporou AI.
Potenciál AI v medicíne
Diagnostické nástroje podporované umelou inteligenciou zvyšujú kvalitu a efektívnosť zdravotnej starostlivosti. Používajú sa predovšetkým pri rozhovoroch s pacientom, analýze výsledkov testov, monitorovaní stavu liečenej osoby a vykonávaní mnohých ďalších činností lekárom s cieľom stanovenia vhodnej diagnózy. Ich správne fungovanie závisí hlavne od veľkého množstva rozmanitých informácií vrátane konkrétnych údajov o pacientoch.
- Nekontrolovaný prístup k týmto informáciám môže viesť k poškodeniu individuálnych záujmov jednotlivca. Centrá ponúkajúce súkromnú zdravotnú starostlivosť, ktoré nechcú zdieľať svoje zdroje s informáciami o pacientoch - Konrad Jagocha, spolupracovník, Kancelaria Prawna Chałas i Wspólnicy, sú voči zhromažďovaniu údajov skeptické.
V súčasnosti sa v medicíne už používa niekoľko systémov AI. Jedným z nich je DXplain - program, ktorý po analýze súboru príznakov pozorovaných u pacienta predstavuje zoznam možných diagnóz. Konečnú voľbu však necháva na lekára. Za pozornosť stojí aj Germwatcher. Jedná sa o laboratórny informačný systém, ktorý detekuje, sleduje a skúma možnosť infekcií u hospitalizovaných ľudí.
Zavedenie robotických chirurgických systémov bolo určite prielomom. Pomocou systému DaVinci s robotickými ramenami, presným pohybom a magnetickým videním sú klinickí lekári schopní vykonať operácie, ktoré by pri štandardných postupoch neboli možné.
Potreba regulácie
Európsky parlament spolu s Európskym hospodárskym a sociálnym výborom naznačuje, že je potrebné vypracovať presnú definíciu umelej inteligencie. Mal by spĺňať požiadavky vysokej prísnosti, a teda neprinášať ďalšie nejasnosti, pochybnosti alebo právne medzery a byť dostatočne technologicky „otvorený“ na to, aby nebránil možnému rozvoju technológie AI v budúcnosti.
Definícia legálnej AI by nám umožnila určiť, kto je zodpovedný za akékoľvek lekárske chyby, ktoré vzniknú pri používaní strojov s podporou AI.
- Podľa ustanovení občianskeho práva, aby bolo možné previesť zodpovednosť na určitý subjekt, musia existovať okrem iného: v jednom z priestorov, primeraná príčinná súvislosť medzi jeho konaním alebo opomenutím a skutočnosťou, v dôsledku ktorej došlo k škode. Zdá sa byť veľmi ťažké priradiť občianskoprávnu zodpovednosť subjektu za činnosť vyplývajúcu z umelej inteligencie. Lekár nemôže predvídať zámery autonómneho jedinca. Toto je problém, ktorý si všimnú najmä odporcovia použitia AI v medicíne - Konrad Jagocha, spolupracovník, Kancelaria Prawna Chałas i Wspólnicy.
Za zmienku tiež stojí, že vývoj diagnóz na strojoch so zdrojmi umelej inteligencie je štatisticky efektívnejší a rýchlejší ako lekári. Odborníci však zdôrazňujú, že umelá inteligencia v medicíne by mala byť pod stálym dohľadom človeka kvôli dôležitosti účinkov, ktoré môže mať každé narušenie. V takomto duchu sa riadi napríklad americký Úrad pre kontrolu potravín a liečiv (FDA), ktorý umožňuje lekárom vykonávať iba nízkorizikové štúdie AI.