Google retrage unele rezumate medicale generate de inteligenţa artificială după ce au furnizat informaţii eronate care pot pune pacienţii în pericol

Google retrage unele rezumate medicale generate de inteligenţa artificială după ce au furnizat informaţii eronate care pot pune pacienţii în pericol

Un demers întreprins de jurnalişti din Marea Britanie a evidenţiat probleme serioase legate de modul în care informaţiile medicale sunt prezentate automat în motoarele de căutare. Unele răspunsuri generate de inteligenţa artificială (AI) pot crea confuzie şi pot determina utilizatorii să creadă că rezultatele analizelor sau informaţiile medicale primite sunt normale şi lipsite de risc, chiar şi atunci când situaţia reală ar necesita o evaluare medicală, cu posibile consecinţe pentru sănătatea utilizatorilor.

Google a eliminat o parte dintre rezumatele sale medicale generate de AI, după ce o investigaţie a publicaţiei britanice The Guardian a arătat că acestea ofereau informaţii greşite şi înşelătoare, cu potenţial de a pune pacienţii în pericol.

Este vorba despre rezumate generate de inteligenţa artificială (AI Overviews), acele scurte sinteze afişate în partea superioară a rezultatelor de căutare, care folosesc inteligenţă artificială generativă pentru a răspunde rapid la întrebările utilizatorilor.

În cadrul investigaţiei, jurnaliştii au descoperit că unele dintre aceste rezumate furnizau date incorecte despre valorile normale ale testelor de sânge pentru funcţia hepatică.

Specialiştii consultaţi au descris situaţia drept „periculoasă” şi „alarmantă”, avertizând că pacienţi cu boli hepatice grave ar fi putut ajunge să creadă, în mod eronat, că rezultatele lor sunt normale.

Căutări precum „care este intervalul normal pentru analizele hepatice” returnau liste de valori numerice, fără explicaţii adecvate şi fără a ţine cont de factori esenţiali precum vârsta, sexul, etnia sau contextul clinic al pacientului.

Experţii au subliniat că valorile prezentate drept normale de AI Overviews puteau diferi semnificativ de cele utilizate în practica medicală, ceea ce ar fi putut determina persoane cu rezultate anormale să nu mai solicite evaluări sau consultaţii medicale suplimentare.

În urma constatărilor, Google a eliminat rezumatele generate de AI din rezultatele afişate pentru căutările care întrebau „care este intervalul normal al analizelor de sânge pentru ficat” şi „care este intervalul normal al testelor de funcţie hepatică”.

Un purtător de cuvânt al companiei a precizat că Google nu oferă explicaţii pentru fiecare rezumat eliminat în parte, însă a precizat că, atunci când sistemele de AI furnizează informaţii fără context suficient, compania face modificări la nivel general sau intervine conform politicilor sale interne, pentru a corecta astfel de situaţii.

Reprezentanţii British Liver Trust, o organizaţie caritabilă dedicată sănătăţii ficatului, au salutat decizia, dar şi-au exprimat îngrijorarea că, prin formulări uşor diferite ale aceloraşi întrebări, utilizatorii pot primi în continuare rezumate potenţial înşelătoare.

De pildă, introducerea în motorul de căutare a unor expresii precum „interval de referinţă pentru testele de funcţie hepatică” sau „interval de referinţă pentru testul LFT - liver function tests - teste de funcţie hepatică; termenul desemnează un set de analize de sânge folosite pentru a evalua funcţionarea ficatului”, continua să afişeze rezumate generate de AI.

Potrivit organizaţiei, un test al funcţiei hepatice, cunoscut sub acronimul LFT, nu este o singură analiză, ci un set de teste de sânge diferite, a căror interpretare este complexă.

Simpla comparare a unor cifre cu un interval de referinţă nu este suficient şi poate fi chiar periculos. În plus, rezumatele AI nu avertizau asupra faptului că unele persoane pot avea rezultate aparent normale, în ciuda existenţei unei boli hepatice severe care necesită investigaţii suplimentare.

Îngrijorări similare au fost exprimate şi de reprezentanţi ai Patient Information Forum, o organizaţie care promovează informaţia medicală bazată pe dovezi. Deşi eliminarea unor rezumate create de inteligenţa artificială a fost considerată un pas pozitiv, aceştia au atras atenţia că există încă numeroase exemple în care AI Overviews oferă informaţii medicale inexacte.

Google a declarat că analizează noile exemple semnalate şi că rezumatele generate de AI sunt afişate doar pentru întrebări pentru care compania are un nivel ridicat de încredere în calitatea răspunsurilor. 

Reprezentanţii companiei au mai arătat că, în anumite situaţii, informaţiile afişate au fost analizate de echipe interne de medici şi au fost considerate conforme cu datele prezentate pe site-uri medicale recunoscute şi de încredere.

Cu toate acestea, investigaţia a arătat că AI Overviews continuă să apară şi pentru alte subiecte sensibile, inclusiv legate de cancer sau sănătate mintală, unele dintre ele fiind catalogate de experţi drept complet greşite şi periculoase.

Situaţia readuce în discuţie responsabilitatea platformelor digitale în prezentarea informaţiilor medicale şi riscurile asociate utilizării inteligenţei artificiale în domenii unde erorile pot avea consecinţe directe asupra sănătăţii.

viewscnt