Světová zdravotnická organizace (WHO) dnes varovala před unáhleným používáním umělé inteligence (AI) ve zdravotnictví. Vyzývá k opatrnosti při používání nástrojů velkých jazykových modelů (LLM) generovaných umělou inteligencí k ochraně a podpoře lidského blaha, lidské bezpečnosti a autonomie a zachování veřejného zdraví. WHO zmiňuje především chatboty používající umělou inteligenci (AI), kteří mohou poskytnout uživatelům falešné a neověřené informace. Organizace tvrdí, že používání těchto nových technologií nedoprovází dostatečná opatrnost a kontrola. Vyzvala k dodržování zásad transparentnosti, odborného dohledu či přísného hodnocení výsledků.
„Unáhlené zavedení neotestovaných systémů by mohlo vést k chybám ze strany zdravotníků, poškození pacientů, ztrátě důvěry v umělou inteligenci, a tudíž podkopání (či zpoždění) použití a možných dlouhodobých přínosů těchto technologií ve světě,“ uvedla organizace.
Podle WHO využívání umělé inteligence (AI) ve zdravotnictví nedoprovází „opatrnost, která by normálně byla používána u jakékoliv nové technologie“. WHO vyzvala státy a organizace, aby systémy využívající umělou inteligenci podrobně otestovaly, než je zavedou do zdravotnictví. Tam by mohly sloužit jako pomůcka při rozhodování lékařů a zdravotníků.
WHO varuje před některými aspekty používání chatbotů využívajících umělou inteligenci. Podle organizace mohou tyto systémy poskytovat odpovědi s mylnými informaci, které se konečnému uživateli mohou zdát fundované. Chatboty mohou také generovat „vysoce přesvědčivé dezinformace“, na které by pak instituce reagovaly jen s velkými obtížemi. Organizace také varuje ohledně toho, jak tyto systémy nakládají s osobními údaji uživatelů.
Obavy, které vyžadují přísný dohled potřebný k tomu, aby byly technologie používány bezpečným, efektivním a etickým způsobem, zahrnují:
Údaje používané k trénování umělé inteligence mohou být zkreslené a mohou generovat zavádějící nebo nepřesné informace, které by mohly představovat rizika pro zdraví, spravedlnost a začlenění.
LLM generují odpovědi, které se koncovému uživateli mohou jevit jako autoritativní a věrohodné; tyto odpovědi však mohou být zcela nesprávné nebo obsahovat závažné chyby, zejména u odpovědí souvisejících se zdravím.
LLM mohou být školeni na datech, u kterých nemusel být dříve poskytnut souhlas k takovému použití, a LLM nesmí chránit citlivá data (včetně zdravotních dat), která uživatel poskytuje aplikaci za účelem generování odpovědi.
LLM mohou být zneužity k vytváření a šíření vysoce přesvědčivých dezinformací ve formě textového, zvukového nebo obrazového obsahu, který je pro veřejnost obtížné odlišit od spolehlivého zdravotního obsahu
WHO se zavázala využívat nové technologie, včetně umělé inteligence a digitálního zdraví ke zlepšení lidského zdraví, ale doporučuje, aby tvůrci politik zajistili bezpečnost a ochranu pacientů, zatímco technologické firmy pracují na komercializaci LLM.
AN
Zdroje a obrázky: who; remix pixabay
Napsat komentář