Inteligența artificială greșește în răspunsurile medicale aproape în jumătate din cazuri
Un studiu BMJ Open a arătat că chatbot-urile populare oferă date inexacte despre sănătate, ceea ce poate agrava răspândirea informațiilor false fără control și educație.

Chatbot-urile populare bazate pe inteligență artificială oferă răspunsuri incorecte la întrebările medicale în aproximativ jumătate din cazuri. Un studiu publicat în revista științifică BMJ Open a arătat că din 250 de răspunsuri aproape 50% conțineau distorsionări ale faptelor.
În lucrare au fost analizate cinci modele: Gemini, DeepSeek, Meta AI, ChatGPT și Grok. Fiecăruia i s-au adresat câte zece întrebări pe teme de oncologie, vaccinare, celule stem, nutriție și activitate fizică. Răspunsurile au fost evaluate de cercetători din SUA, Canada și Marea Britanie.
Rezultatele au fost îngrijorătoare: 30% dintre răspunsuri erau ușor inexacte, iar 19% conțineau erori semnificative. Modelul Grok s-a descurcat cel mai prost, oferind cele mai multe erori grave. Cele mai credibile răspunsuri au fost date de chatbot-uri în privința vaccinării și cancerului, iar cele mai slabe la întrebările despre nutriție.
Totodată, toate sistemele au răspuns aproape întotdeauna cu mare încredere, refuzând să răspundă doar de două ori din 250 de încercări. O problemă separată a fost lipsa surselor corecte: niciun chatbot nu a putut furniza o listă credibilă de referințe, deseori inventându-le singure.
Textele răspunsurilor erau greu de înțeles și corespundeau nivelului materialelor pentru studenți din anul doi de universitate. Cercetătorii avertizează: „Chatbot-urile verificate au arătat rezultate nesatisfăcătoare la răspunsurile la întrebări din domeniile sănătății și medicinei, susceptibile la răspândirea informațiilor false. Utilizarea ulterioară fără educație publică și supraveghere poate intensifica gradul de răspândire a informațiilor false”.