Az AI szerepe az onkológia és a CBD világában

Hol ér véget a tudás és hol kezdődik az illúzió?

Az utóbbi időszakban egyre gyakrabban tapasztalom, hogy a mesterséges intelligenciát (Artificial Intelligence, tehát AI) szakmai tekintélyként kezdik kezelni olyan területeken is, ahol valójában évekig tartó tanulás, klinikai tapasztalat és mély biológiai összefüggések megértése szükséges.

Magyarországon jelenleg a legelterjedtebb generatív AI rendszer a ChatGPT, de egyre többen használják a Google és a Microsoft hasonló platformjait is. A közgondolkodásban ezek az eszközök gyors válaszokat, strukturált szakmai szövegeket és magabiztosnak tűnő következtetéseket adnak, ami könnyen azt az érzetet keltheti, hogy valódi szakértői véleményt kapunk.

A technológia önmagában nem ellenség, sőt rendkívül hasznos eszköz lehet, ha megfelelő szakmai háttérrel használják. A probléma ott kezdődik, amikor az AI-t a tudás pótlására próbálják alkalmazni, különösen a CBD és az onkológia világában, ahol minden félreértés konkrét következményekkel járhat és súlyos károkat tud okozni.

A legnagyobb probléma: az AI nem érti a kontextust

Sokan úgy gondolják, hogy a mesterséges intelligencia pusztán információt rendszerez és nem ad valódi orvosi tanácsot. A valóság azonban ennél jóval összetettebb: a gyakorlatban az AI képes konkrét javaslatokat megfogalmazni, képes terápiás irányokat felvázolni, képes dózisokról, interakciókról és kezelési stratégiákról beszélni, amennyiben így teszik fel a kérdést. A válasz sokszor határozott, strukturált és meggyőző, ami a laikus számára könnyen szakvéleménynek tűnhet. A probléma azonban nem az, hogy az AI válaszol, hanem az, hogy nem érti a klinikai kontextust. Nem látja a beteg teljes kórelőzményét, nem értelmezi dinamikusan a vizsgálati eredményeket, nem méri fel az egyéni kockázati tényezőket, továbbá nem tud mérlegelni több, egymásnak ellentmondó klinikai szempont között. Egy algoritmus statisztikai mintázatok alapján generál szöveget, nem pedig felelősségteljes döntést hoz.

Ha például valaki azt kérdezi, hogy alkalmazható-e CBD egy adott kemoterápiás szer mellett, az AI képes lesz felsorolni a CYP450 enzimeket, a lehetséges metabolikus, tehát anyagcsere-útvonalakat és akár interakciós, azaz gyógyszerkölcsönhatási mechanizmusokat is. De nem tudja megítélni, hogy az adott beteg milyen dózisban kapja a kemoterápiát, milyen a májfunkciója, milyen egyéb gyógyszereket szed, és hogy az adott enzimgátlás klinikailag valóban releváns-e a konkrét helyzetben. A mechanizmus leírása nem egyenlő a betegre szabott kockázatbecsléssel.

Az AI válasza sokszor túl magabiztosnak hat. Nem jelzi bizonytalanságát úgy, ahogy egy felelős szakember tenné, nem mérlegeli az evidenciaszinteket, valamint nem tesz különbséget in vitro megfigyelés és humán klinikai adat között olyan mélységben, ahogy azt egy tapasztalt szakember tenné. Ettől a válasz formailag szakmai, de tartalmilag könnyen félrevezető lehet. A legnagyobb veszély tehát nem az, hogy az AI beszél orvosi vagy biológiai kérdésekről, hanem az, hogy a felhasználó nem érzékeli a mesterséges intelligencia határait és annak hibázási lehetőségeit. A kontextus hiánya az egészségügyben nem apró részlet, hanem alapvető probléma. Amíg az algoritmus nem lát beteget, nem vállal felelősséget, és nem képes valódi klinikai mérlegelésre, addig a generált szöveg nem helyettesítheti a szakértelmet, még akkor sem, ha annak tűnik.

A CBD és a mesterséges intelligencia

A CBD területén az egyik legnagyobb probléma az információforrások minősége és az, hogy a mesterséges intelligencia milyen adatokból tanul. Sokan azt gondolják, hogy amikor egy AI-rendszer válaszol egy kérdésre, akkor mögötte elsődlegesen tudományos publikációk, lektorált folyóiratok és magas evidenciaszintű klinikai vizsgálatok állnak. Sajnos a valóságban ez nem így van, és a helyzet sokkal aggasztóbb, mint gondolnánk. 

A generatív mesterséges intelligencia modellek hatalmas mennyiségű nyilvánosan elérhető szövegből tanulnak. Ezek között természetesen vannak tudományos szintű anyagok is, de ugyanúgy szerepelnek blogbejegyzések, marketingoldalak, véleménycikkek, fórumhozzászólások és keresőoptimalizált, sokszor félrevezető tartalmak is. Amikor egy laikus felhasználó kérdést tesz fel, az AI nem mindig kizárólag tudományos publikációk alapján állítja össze a választ, hanem a tanult mintázatokból generál szöveget, amelyek jelentős része a Google találati listáin is domináló, nagy forgalmú, de nem feltétlenül tudományosan megalapozott forrásokból származik. A mesterséges intelligencia nem ellenőrzi le a forrást úgy, ahogyan egy kutató tenné. Nem vizsgálja meg, hogy egy állítás mögött valódi klinikai vizsgálat áll-e, vagy csak egy jól megírt marketingcikk.

A CBD esetében ez különösen problémás, mert az interneten rendkívül polarizált tartalom található. Egyes oldalak csodaszerként mutatják be, gyakorlatilag minden betegségre univerzális megoldásként, miközben a tudományos bizonyítékok ennél jóval árnyaltabbak. Más források túlzó veszélyeket hangsúlyoznak, súlyos májkárosodást, általános interakciós kockázatot vagy kontrollálatlan mellékhatásokat emlegetve, sokszor anélkül, hogy világosan megkülönböztetnék a dózisfüggő, extrém kísérleti körülmények között tapasztalt jelenségeket a valós klinikai gyakorlatban megfigyelhető hatásoktól.

A mesterséges intelligencia nem tudja önállóan eldönteni, hogy egy nagy forgalmú cikk mögött valós tudományos háttér áll-e, vagy csupán marketingérdek. Nem értelmezi úgy a bizonyítékszinteket, ahogyan egy szakember tenné, és nem mindig választja szét egyértelműen az in vitro eredményeket a humán klinikai adatoktól. Ha egy adott narratíva nagy mennyiségben van jelen az interneten, az nagyobb valószínűséggel jelenik meg a generált válaszban is, még akkor is, ha tudományos szempontból gyenge lábakon áll.

A laikus felhasználó számára azonban a válasz egységes, magabiztos és strukturált formában jelenik meg, ami könnyen azt az érzetet keltheti, hogy a rendszer kizárólag magas szintű tudományos forrásokra támaszkodik. A valóságban a háttér ennél sokkal heterogénebb. A CBD-ről szóló online tér tele van részben alátámasztott, félreértelmezett vagy kontextusából kiragadott információkkal. Ezek közül sok tudományosan nem kellően megalapozott, vagy olyan kérdőjeleket hordoz, amelyeket csak alapos szakmai elemzéssel lehetne tisztázni.

Ez a torzítás különösen veszélyes akkor, amikor a CBD-t onkológiai kiegészítő terápiaként kezdik vizsgálni vagy alkalmazni. Egy-egy laboratóriumi eredményből könnyen lesz általánosított következtetés, miközben a klinikai relevancia messze nem bizonyított. Az AI nem tudja felmérni, hogy egy publikáció mennyire hiteles vagy hogy az eredmények mennyire reprodukálhatók, pedig egy laboratóriumi kísérletnek pontosan ez az egyik alapfeltétele: független laboratóriumban is megismételhető legyen, ugyanolyan vagy nagyon hasonló eredménnyel. Egy laikus, hozzá nem értő ember viszont sokszor kész tényként fogadja el a generált összefoglalót.

Éppen ezért a CBD területén az AI által közvetített információ különösen nagy körültekintést igényel. Nem azért, mert a technológia önmagában hibás, hanem azért, mert a tanulási alapját képező online információs tér eleve torz, zajos és sok esetben tudományosan bizonytalan. Amíg a felhasználó nem rendelkezik megfelelő szakmai háttérrel ahhoz, hogy kritikusan értelmezze a kapott választ, addig a generált szöveg könnyen félrevezető lehet, még akkor is, ha első ránézésre tudományosnak tűnik.

Az AI, az öndiagnosztika és az önterápia veszélyei az onkológiában

Az onkológia területén az egyik legnagyobb kockázat nem maga a mesterséges intelligencia, hanem az, amikor a betegek vagy hozzátartozók az AI által generált válaszok alapján kezdenek önálló döntéseket hozni. A daganatos diagnózis eleve rendkívül megterhelő érzelmi állapot, amelyben az ember kapaszkodót, magyarázatot, válaszokat és megoldást keres, bármilyen eszközt bevetve ennek érdekében. Ilyenkor különösen veszélyes, ha egy algoritmus által generált, magabiztos hangvételű szöveg szakvéleményként kezd működni a fejekben.

Nemrégiben olyan megkeresést kaptam, amely jól mutatja, milyen irányba tolódhat el a döntéshozatal, amikor a mesterséges intelligencia válik elsődleges információforrássá. Egy súlyos, áttétes daganatos betegség diagnózisa után a család a zárójelentés adatait bemásolta egy AI-rendszerbe, az ott kapott összefoglaló, illetve javaslatok alapján kezdett további lehetőségeket keresni. A szövettani megerősítés nem történt meg, így célzott onkológiai kezelésre sem nyílt lehetőség. Mindez azért, mert a beteg az interneten olvasott hiedelmek és tévhitek alapján visszautasította a mintavételezést. A kapott algoritmikus válaszok nyomán végül egy interneten széles körben terjedő, parazitaellenes hatóanyagra épülő alternatív protokollt indítottak el, amelynek hatására az állapot tovább romlott.

Ez a helyzet nem egyedi, de pontosan rávilágít arra, miért veszélyes az AI-alapú öndiagnosztika és önkezelés. A mesterséges intelligencia képes strukturáltan összefoglalni egy zárójelentést, képes lehetséges terápiás irányokat felsorolni, sőt akár magabiztos hangnemben alternatív megoldásokat is említhet. De nem tudja pótolni a szövettani diagnózist, illetve nem tudja mérlegelni, hogy egy adott beavatkozás vagy kezelés milyen kockázat–haszon arányt jelent az adott beteg aktuális állapotában. Az öndiagnosztika és az önkezelés veszélye itt válik igazán kézzelfoghatóvá. Az interneten időről időre felbukkannak „csodaszerként” emlegetett, eredetileg teljesen más célra kifejlesztett hatóanyagok, amelyek köré reményt építenek. Ezek mögött azonban jelenleg nincs olyan megbízható, magas szintű preklinikai és klinikai bizonyíték, amely alapján daganatos betegségekben hatásos és biztonságos terápiának tekinthetők lennének. Egy legyengült szervezetben, különösen áttétes állapotban, egy nem bevizsgált, nem kontrollált beavatkozás komoly károkat okozhat, és akár felgyorsíthatja az állapotromlást és a betegség progresszióját is.

Az onkológiában minden döntésnek súlya van. Egy elhalasztott biopszia, egy elmaradt kezelés, egy alternatív protokoll önálló bevezetése mind befolyásolhatja a betegség lefolyását és az életminőséget. A mesterséges intelligencia nem vállal felelősséget ezekért a döntésekért, és nem viseli azok következményeit. Ezért különösen fontos hangsúlyozni, hogy az AI nem diagnosztikai eszköz, nem terápiás döntéshozó, és nem helyettesíti az onkológiai konzíliumot. Segíthet megérteni bizonyos fogalmakat, segíthet kérdéseket megfogalmazni a kezelőorvos felé, de nem válthatja ki a személyes orvosi mérlegelést. Az öndiagnosztika és az AI-alapú önkezelés az onkológiában nem csupán szakmai hiba lehet, hanem életminőséget és életkilátást befolyásoló tényező.

Amikor egy család a kétségbeesés állapotában dönt, különösen nagy a felelősségünk abban, hogy világossá tegyük: az algoritmus által generált szöveg nem egyenlő a klinikai szakértelemmel. Az egészségügyben pedig ez a különbség nem elméleti, hanem nagyon is valós következményekkel jár.

A hamis szakértőség és az AI által generált szakmai tartalmak veszélye

Az egyik legaggasztóbb jelenség, amit az utóbbi időben látok, az az, hogy a mesterséges intelligencia által generált szövegek elkezdtek szakmai tartalomként megjelenni különböző weboldalakon, különösen a CBD-piacon. A generatív AI rendszerek képesek strukturált, tudományos hangvételű, magabiztos szöveget előállítani, s bizony sok esetben ezek a szövegek minimális szerkesztéssel, ellenőrzés nélkül kerülnek ki vállalkozások, forgalmazók és webshopok felületeire.

A probléma nem az, hogy valaki modern eszközt használ szövegírásra, hanem az, hogy a generált tartalom mögött nincs valódi szakmai kontroll. Számos hazai CBD-forgalmazó nem rendelkezik farmakológiailag releváns egészségügyi végzettséggel, mégis egyre gyakrabban látni olyan weboldalakat, ahol marketing célból az sugallják, mintha szakértői lennének a témának.

Legutóbb magam is találkoztam olyan esettel, ahol egy hazai forgalmazó konkrétan felsorolta a weboldalán, hogy milyen gyógyszerek mellett alkalmazható vagy nem alkalmazható a CBD, mindezt úgy, hogy semmilyen farmakológiailag releváns végzettsége nincs. Egy ilyen lista első ránézésre szakmailag megalapozottnak tűnhet, mert hivatkozik májenzimekre, metabolikus útvonalakra és kölcsönhatásokra. A valóságban azonban egy interakció értékelése nem merül ki abban, hogy egy hatóanyag érinti-e a CYP450 rendszert. A dózis, az alkalmazás módja, a beteg májfunkciója, a társbetegségek, az egyidejűleg szedett egyéb gyógyszerek és a klinikai állapot mind olyan tényezők, amelyek nélkül felelős kijelentést tenni szakmailag nem megalapozott. Ezek a kijelentések sokszor kifejezetten kategorikusak, mintha egy szakmai irányelvből származnának, miközben valójában algoritmus által generált, kontextus nélküli összefoglalók.

A mesterséges intelligencia ebben a folyamatban eszközzé válik a látszólagos szakértelem megteremtésére. A generált szöveg tudományos terminológiát használ, hivatkozik mechanizmusokra, és egységes, koherens formában jelenik meg, ami a laikus számára hitelességet sugall. A tartalom azonban sokszor nem esik át valódi szakmai validáción, és nem különbözteti meg az elméleti interakciós lehetőséget a klinikailag releváns, bizonyított kockázattól.

Ez különösen veszélyes akkor, amikor a betegek ezekre az oldalakra támaszkodva hoznak döntést. Ha egy webshop kategorikusan kijelenti, hogy egy adott véralvadásgátló vagy daganatellenes szer mellett nem ajánlott a CBD, az pánikot kelthet, még akkor is, ha a klinikai gyakorlatban megfelelő monitorozás mellett biztonságosan alkalmazható lenne. Fordított esetben pedig az indokolatlanul megnyugtató állítások kelthetnek hamis biztonságérzetet.

A hamis szakértőség itt nem pusztán etikai kérdés, hanem betegbiztonsági probléma. Attól, hogy valaki hozzáfér egy fejlett szövegalkotó eszközhöz, még nem válik kompetenssé gyógyszerkölcsönhatások értékelésében. A farmakológiai tudás nem egyenlő azzal, hogy ismerjük az enzimek nevét. A valódi szakértelem abban rejlik, hogy képesek vagyunk mérlegelni a teljes klinikai képet, értékelni a bizonyítékszinteket, és felismerni a bizonytalanság határait.

A mesterséges intelligencia tehát nem önmagában veszélyes, hanem akkor válik azzá, amikor marketingeszközként használják a szakmai kompetencia látszatának megteremtésére. A CBD-piacon ez a jelenség különösen jól látható, és komoly felelősséget ró mindazokra, akik egészségügyi állításokat fogalmaznak meg anélkül, hogy mögötte megfelelő tudás és felelősségvállalás állna.

Az AI helye a rendszerben: felelősséggel, tudatosan alkalmazva

Mindez nem jelenti azt, hogy a mesterséges intelligenciának ne lenne helye az egészségügyi gondolkodásban. Hasznos lehet szakirodalmi összefoglalók készítésére, információk rendszerezésére, kommunikáció megfogalmazására vagy akár oktatási célokra is. De fontos megérteni, hogy ez kiegészítő eszköz, nem pedig döntéshozó vagy tudáspótló. 

Az AI nem helyettesíti a klinikai tapasztalatot, nem pótolja az évek alatt megszerzett mély tudást, valamint nem teszi automatikusan kompetenssé azt, aki használja. Az intelligencia nem abból fakad, hogy hozzáférünk információhoz, hanem abból, hogy képesek vagyunk azt értelmezni, szűrni és felelősen alkalmazni. Attól, hogy valaki hozzáfér egy olyan rendszerhez, amely másodpercek alatt képes összefoglalni több száz oldalt, még nem lesz képes megítélni, hogy mely adat valóban lényeges, mely torzított, mely túlzó következtetés, és mely az, ami a gyakorlatban, egy konkrét beteg esetében tényleg számít. A gyors válasz nem egyenlő a helyes válasszal, és a strukturált szöveg nem egyenlő a valódi szakmai mélységgel. Egy daganatos beteg esetében nem az számít, hogy milyen gyorsan kapunk választ, hanem az, hogy az a válasz felelős, megalapozott és az adott emberre szabott legyen.

Zárógondolat

A CBD és az onkológia területén különösen nagy a felelősség, mert itt nem elméleti vitákról beszélünk, hanem emberek életéről, döntéseiről és reményéről. A mesterséges intelligencia önmagában nem veszélyes, de a kritikátlan, hozzá nem értő használata igen. 

A jövő nem az, hogy az AI kiváltja a szakembereket, hanem az, hogy a valódi szakemberek felelősen használják ezt az eszközt. Addig azonban fontos kimondani, hogy az AI nem pótolja a tudást, nem helyettesíti a szakértelmet, és attól, hogy valaki használja, még nem lesz okosabb vagy felkészültebb. Az egészségügyben a felelősség továbbra is emberi marad.

A mesterséges intelligencia korszakát éljük, s bizony ez a technológia velünk marad.
A kérdés viszont nem az, hogy használjuk-e, hanem az, hogy hogyan.

Mert az egészségügyben a döntések következményeit nem algoritmusok, hanem emberek élik meg.

Írta:
Horváth József, BSc., MSc Molekuláris genetikus
Ez az anyag nem másolható teljes egészében vagy eredeti formátumban a szerző engedélye nélkül. 

Cikkek