Medicii trag un semnal de alarmă: ce sfaturi bizare oferă uneori AI pacienților – de la usturoi în anus la lapte rece pentru sângerări

Autor: Alexandra Cruceru, Redactor

Publicat: 13-03-2026 06:50

Article thumbnail

Sursă foto: freepik.com

Medicii avertizează că programele de Inteligență Artificială oferă numeroase sfaturi greșite. Un studiu a arătat că modelele IA folosesc frecvent dezinformări și informații false care pot deveni periculoase dacă sunt acceptate de oameni.

Chatboții cu Inteligență Artificială sunt păcăliți frecvent de dezinformarea transmisă online, ceea ce îi determină să ofere sfaturi potențial periculoase pentru oameni, potrivit Live Science. Experții avertizează asupra afirmațiilor false despre sănătate care sunt transmise într-un limbaj încrezător.

Mai multe studii au evidențiat pericolul mare la care se expun oamenii care apelează la sfaturile IA pentru îngrijirea sănătății. Este vorba despre un studiu din ianuarie publicat în revista The Lancet Digital Health și despre altul din februarie, care a apărut în revista Nature Medicine, conform Mediafax. Concluzia experților a fost că chatboții nu sunt mai buni decât o căutare obișnuită pe internet, în special în cazul publicului larg, fără cunoștințe medicale.

„Un medic care nu este sigur va ezita, va evita și va comanda un alt test. Un LLM oferă răspunsul greșit cu exact aceeași încredere ca și cel corect”, a avertizat Mahmud Omar, cercetător la Centrul Medical Mount Sinai și coautor al studiului The Lancet Digital Health.

Peste 40 de milioane de oameni cer zilnic sfaturi medicale AI

Studiile arată că oamenii folosesc pe scară largă IA pentru sfaturi medicale: Deși majoritatea chatboților au un avertisment conform cărora utilizatorii nu ar trebui să aplice sfaturile medicale oferite de IA, peste 40 de milioane de oameni apelează zilnic la ChatGPT cu întrebări medicale.

Studiile realizate pe mai multe modele au arătat că IA a acceptat și perpetuat dezinformări în cel puțin un caz din trei. Programele de IA sunt păcălite în special de informațiile transmise într-un limbaj științific, fiind mai reticente la cele prezentate într-un limbaj casual.

Experții au prezentat și exemple de răspunsuri dezastruoase oferite online. Numeroși pacienți au fost sfătuiți să „bea lapte rece zilnic pentru sângerări esofagiene”. Altora li s-a recomandat „inserția rectală de usturoi pentru susținerea sistemului imunitar”.

Chatboții pot fi utili, dar nu pentru decizii medicale

Totuși, nu tot ceea ce transmit chatboții reprezintă o prostie. Concluziile studiilor sugerează că chatboții nu sunt un instrument recomandat pentru ca publicul să ia decizii de sănătate.

Asta nu înseamnă că chatboții nu pot fi utili în medicină „doar nu în modul în care oamenii îi folosesc astăzi”.

Google News
Comentează
București
Temperatură-1°C
Senin
România
Vânt1km/h
Citește
mai multe
Articole Similare
Parteneri