Cât de sigur este să ceri sfaturi medicale unui chatbot? Ce trebuie să ştie pacienţii înainte de a folosi inteligenţa artificială pentru probleme de sănătate

Cât de sigur este să ceri sfaturi medicale unui chatbot? Ce trebuie să ştie pacienţii înainte de a folosi inteligenţa artificială pentru probleme de sănătate

Tot mai mulţi oameni folosesc aistenţi virtuali (chatbot) bazaţi pe inteligenţă artificială (AI) pentru a obţine informaţii despre sănătate. Noile instrumente promit explicaţii rapide şi personalizate ale rezultatelor medicale sau ale simptomelor. Totuşi, specialiştii avertizează că aceste sisteme nu pot înlocui consultaţia medicală şi trebuie utilizate cu prudenţă.

Lansarea unor programe de inteligenţă artificială dedicate sănătăţii adu ce în prim-plan o întrebare importantă: cât de sigur este să ceri sfaturi medicale unui chatbot.

În ianuarie, OpenAI a lansat ChatGPT Health, o versiune a chatbotului său care, potrivit companiei, poate analiza dosare medicale, aplicaţii de monitorizare a stării de sănătate şi date provenite de la dispozitive portabile pentru a răspunde la întrebări medicale.

Programul nu este încă disponibil pentru publicul larg, iar persoanele interesate trebuie să se înscrie pe o listă de aşteptare pentru a primi acces atunci când serviciul va fi deschis pentru utilizatori.

Compania Anthropic oferă funcţii similare pentru unii utilizatori ai chatbotului său, Claude.

Ambele companii subliniază că aceste sisteme, cunoscute drept modele lingvistice de mari dimensiuni (large language models – programe de inteligenţă artificială antrenate pe volume mari de texte pentru a genera răspunsuri), nu sunt un substitut pentru îngrijirea medicală profesionistă şi nu trebuie folosite pentru diagnosticarea bolilor.

În schimb, ele pot rezuma sau explica rezultate medicale complexe, pot ajuta pacienţii să se pregătească pentru o consultaţie sau pot analiza tendinţe importante din dosarele medicale şi datele colectate de aplicaţii.

Unii medici şi cercetători care au lucrat cu ChatGPT Health şi programe similare consideră că aceste instrumente pot oferi avantaje faţă de căutările obişnuite pe internet.

Platformele bazate pe AI nu sunt perfecte şi pot genera uneori informaţii eronate sau recomandări greşite, însă răspunsurile tind să fie mai personalizate şi mai specifice decât cele obţinute printr-o simplă căutare pe Google.

„Alternativa este adesea lipsa totală de informaţii sau încercarea pacientului de a se descurca singur”, a declarat dr. Robert Wachter, expert în tehnologia medicală la University of California, San Francisco (UCSF). El consideră că, utilizate responsabil, aceste instrumente pot furniza informaţii utile.

În ţări precum Statele Unite sau Marea Britanie, unde programarea la medic poate dura săptămâni, iar timpul de aşteptare în serviciile de urgenţă poate ajunge la ore, chatboturile ar putea reduce anxietatea inutilă şi ar putea economisi timp în anumite situaţii. În acelaşi timp, ele pot semnala când anumite simptome sunt periculoase şi necesită evaluare medicală directă.

Un avantaj al celor mai recente chatboturi este capacitatea de a răspunde folosind contextul din istoricul medical al utilizatorului, inclusiv tratamentele prescrise, vârsta sau notiţele medicilor. Chiar şi atunci când utilizatorii nu oferă acces direct la dosarele lor medicale, specialiştii recomandă furnizarea cât mai multor detalii pentru a îmbunătăţi calitatea răspunsurilor.

Există însă situaţii în care utilizarea unui chatbot nu este recomandată.

Specialiştii subliniază că simptome precum dificultăţi de respiraţie, dureri în piept sau dureri de cap severe pot indica o urgenţă medicală şi necesită evaluare imediată de către un medic.

Chiar şi în situaţii mai puţin urgente, pacienţii şi medicii ar trebui să abordeze programele de inteligenţă artificială cu „un grad sănătos de scepticism”, spune dr. Lloyd Minor, decanul facultăţii de medicină de la Stanford University. Potrivit acestuia, nicio decizie medicală importantă nu ar trebui bazată exclusiv pe informaţiile oferite de un model artificial.

În anumite cazuri aparent simple, cum ar fi sindromul ovarelor polichistice (SOP/PCOS), consultaţia medicală rămâne esenţială, deoarece manifestările bolii pot varia mult de la o persoană la alta, iar acest lucru influenţează planul de tratament.

Un alt aspect important este protecţia datelor personale.

Multe dintre avantajele chatboturilor apar atunci când utilizatorii furnizează informaţii medicale detaliate. Totuşi, datele încărcate într-un sistem de inteligenţă artificială nu sunt protejate de legislaţie privind confidenţialitatea datelor medicale.

În Statele Unite, legislaţia cunoscută sub numele de Health Insurance Portability and Accountability Act (HIPAA), permite sancţiuni severe pentru medici, spitale, companii de asigurări sau alte servicii medicale care divulgă dosare medicale.

Legea nu se aplică însă companiilor care dezvoltă chatboturi.

„Când cineva îşi încarcă dosarul medical într-un model lingvistic de mari dimensiuni, situaţia este foarte diferită faţă de momentul în care îl oferă unui medic”, spune Lloyd Minor. Potrivit acestuia, utilizatorii trebuie să înţeleagă că standardele de protecţie a datelor sunt complet diferite.

OpenAI şi Anthropic afirmă că informaţiile despre sănătate furnizate de utilizatori sunt păstrate separat de alte tipuri de date şi sunt supuse unor măsuri suplimentare de protecţie. Companiile susţin că aceste date nu sunt utilizate pentru antrenarea modelelor şi că utilizatorii trebuie să îşi dea acordul explicit pentru a le furniza, având posibilitatea să retragă accesul în orice moment.

În ciuda interesului crescut pentru AI în domeniul sănătăţii, testarea independentă a acestor tehnologii este încă la început. Primele studii arată că programele de acest tip pot obţine rezultate excelente la examene medicale teoretice, dar întâmpină dificultăţi în interacţiunea cu utilizatorii.

Un studiu realizat de Universitatea Oxford, care a inclus aproximativ 1.300 de participanţi, a arătat că persoanele care au folosit chatboturi pentru a analiza scenarii ipotetice de sănătate nu au luat decizii mai bune decât cele care au apelat la căutări online sau la propria judecată. Cercetarea a fost publicată în revista Nature Medicine, în februarie.

În testele în care chatboturile au primit scenarii medicale complete, în formă scrisă, acestea au identificat corect afecţiunea de bază în 95% dintre cazuri. Problema a apărut în interacţiunea cu participanţii, potrivit autorului principal al studiului, Adam Mahdi, cercetător la Oxford Internet Institute.

Participanţii nu au furnizat adesea suficiente informaţii pentru ca sistemele să identifice corect problema de sănătate. În acelaşi timp, chatboturile au oferit uneori un amestec de informaţii corecte şi incorecte, iar utilizatorii au avut dificultăţi în a le diferenţia.

Autorii studiului subliniază că cercetarea nu a inclus cele mai recente versiuni de chatboturi, inclusiv sisteme noi precum ChatGPT Health.

Unii specialişti consideră că utilitatea acestor instrumente ar putea creşte dacă vor deveni mai capabile să pună întrebări suplimentare şi să obţină detalii relevante de la utilizatori, într-un mod mai apropiat de interacţiunea dintre medic şi pacient.

În prezent, o metodă prin care utilizatorii îşi pot creşte încrederea în informaţiile primite este compararea răspunsurilor oferite de mai multe sisteme de AI, similar obţinerii unei a doua opinii medicale.

O metodă prin care utilizatorii îşi pot creşte încrederea în informaţiile primite este compararea răspunsurilor oferite de mai multe sisteme de AI.

Introducerea aceloraşi informaţii în chatboturi diferite, precum ChatGPT şi Gemini, instrumentul de AI dezvoltat de Google, poate oferi mai multă siguranţă atunci când răspunsurile coincid, spun specialiştii.

Citeşte şi: 

Primul ghid internaţional pentru utilizarea în siguranţă a asistenţilor virtuali inteligenţi în sănătate

Cum a schimbat inteligenţa artificială sănătatea europenilor în 2025

viewscnt