ChatGPT poate rata urgențe medicale. Medicii avertizează să nu te bazezi doar pe inteligența artificială

Cele mai citite

Un studiu publicat în revista Nature arată că ChatGPT Health poate recunoaște unele urgențe medicale, dar subestimează multe cazuri grave, relatează Mediafax. Medicii recomandă prudență și consult medical.

Un studiu arată limitele inteligenței artificiale în detectarea urgențelor medicale

Un studiu recent publicat în revista științifică Nature arată că funcția ChatGPT Health poate identifica corect unele urgențe medicale evidente, însă în multe situații nu recomandă solicitarea rapidă a ajutorului medical. Cercetătorii atrag atenția că utilizatorii nu ar trebui să se bazeze exclusiv pe chatboți atunci când iau decizii legate de sănătate, potrivit Euronews.

Potrivit datelor furnizate de OpenAI, peste 230 de milioane de persoane folosesc săptămânal ChatGPT pentru informații despre sănătate. Cele mai frecvente întrebări ale utilizatorilor vizează siguranța alimentelor, gestionarea alergiilor, simptomele de răceală sau posibile tratamente pentru diverse afecțiuni.

În ianuarie 2026, compania a lansat ChatGPT Health, o funcție care permite conectarea unor informații medicale personale – precum dosare medicale sau date din aplicații de monitorizare – pentru a oferi răspunsuri mai personalizate și mai relevante pentru utilizatori.

Publicitate

ChatGPT Health recunoaște unele urgențe, dar subestimează multe cazuri grave

Cercetarea realizată de specialiști de la Mount Sinai Health System din New York City arată că sistemul funcționează bine în situații medicale evidente, precum accidentele vasculare cerebrale sau reacțiile alergice severe.

Problemele apar însă în cazurile în care gravitatea simptomelor nu este imediat clară.

Cercetătorii au analizat 60 de scenarii clinice din 21 de specialități medicale. Rezultatele indică faptul că ChatGPT Health a subestimat peste jumătate dintre cazurile care necesitau intervenție medicală de urgență.

De exemplu, într-un scenariu legat de astm, sistemul a recunoscut corect semnele timpurii ale insuficienței respiratorii, însă a recomandat așteptarea monitorizării simptomelor, în locul prezentării imediate la camera de gardă.

ChatGPT are limitări și în identificarea riscului de suicid

Cercetătorii au analizat și modul în care chatbotul reacționează atunci când utilizatorii menționează gânduri de auto-vătămare sau suicid.

În mod normal, sistemul ar trebui să afișeze automat un mesaj de tipul „Help is available”, care să direcționeze utilizatorii către linii de criză sau servicii specializate.

Studiul arată însă că aceste avertismente nu apar întotdeauna, iar în anumite cazuri reacția sistemului a fost chiar mai slabă în scenariile considerate mai grave.

Inteligența artificială nu poate înlocui diagnosticul medical

Autorii studiului nu recomandă renunțarea completă la instrumentele bazate pe inteligență artificială pentru informații medicale. Potrivit cercetătorilor, astfel de tehnologii pot fi utile pentru documentare, informare și înțelegerea unor simptome.

Cu toate acestea, specialiștii subliniază că AI nu poate înlocui evaluarea medicală profesionistă.

Persoanele care prezintă simptome serioase – precum durere în piept, dificultăți de respirație, reacții alergice severe sau modificări ale stării mentale – ar trebui să solicite imediat ajutor medical.

În același timp, cercetătorii subliniază că modelele de inteligență artificială evoluează rapid, iar performanța lor ar putea crește pe măsură ce tehnologia este îmbunătățită și actualizată.

Îți mulțumim pentru că ai ales să te informezi din Sibiu 100%. Dacă vrei să afli și mai multe povești, interviuri și vești bune în fiecare zi, susține-ne cu o recenzie – dă click AICI

spot_img
Ultimele știri

Premieră absolută în România: spitalul din Blaj introduce o procedură disponibilă până acum doar în privat

Spitalul Municipal Blaj bifează o realizare medicală de referință, devenind primul spital public din România unde a fost efectuată...

Publicitate

spot_img

Știri pe același subiect