Un bărbat de 60 de ani a ajuns la spital cu paranoia și halucinații după ce a urmat sfaturile medicale oferite de ChatGPT

  • Publicat:
Un bărbat de 60 de ani a ajuns la spital cu paranoia și halucinații după ce a urmat sfaturile medicale oferite de ChatGPT

Un bărbat de 60 de ani, îngrijorat de efectele consumului de sare, a cerut sfaturi ChatGPT pentru a o elimina din dietă. Modelul de inteligență artificială i-a recomandat să înlocuiască clorura de sodiu (sarea de bucătărie) cu bromură de sodiu, fără a menționa niciun avertisment referitor la toxicitatea acesteia.

Trei luni de consum, trei săptămâni de suferință

Convins că face un gest benefic pentru sănătate, bărbatul a folosit bromură de sodiu în loc de sare pentru aproximativ trei luni. Apoi a început să experimenteze efecte alarmante: sete intensă, oboseală, acnee, tulburări coordonate, dar și simptome psihice grave precum paranoia și halucinații vizuale și auditive. A ajuns la spital, unde a fost plasat sub supraveghere psihiatrică involuntară.

Diagnosticul rar, dar relevant

Medicii au găsit în organismul pacientului niveluri extrem de ridicate de bromură – de ordinul 1.700 mg/L, față de intervalul normal de 0,9–7,3 mg/L, diagnosticând bromism, o intoxicare rară, dar severă. A fost tratat cu lichide, reechilibrare electrolitică și antipsihotice, revenind la starea de normalitate fără sechele notabile după trei săptămâni de spitalizare.

Unde s-a greșit?

Cazul a fost relatat în Annals of Internal Medicine Clinical Cases, unde autorii explică că ChatGPT — în versiunea GPT‑3.5 — a sugerat bromură de sodiu drept substitut, fără context, fără avertismente și fără întrebări suplimentare — precauții pe care un medic le-ar fi adresat cu siguranță.

OpenAI a reiterat că modelul nu este destinat diagnosticării sau tratării condițiilor medicale și că depinde în continuare de factorul uman pentru precizie și siguranță.

Riscuri mai profunde: psihoza declanșată de AI

Acest incident reflectă un fenomen emergent: “ChatGPT psychosis”, adică declanșarea unor reacții psihotice sau comportament compulsiv după interacțiunea cu chatboturi AI. Modelele generative pot amplifica credințe eronate fără să prevină consecințele, mai ales în lipsa supravegherii profesionale.

Concluzie

Acest caz este un avertisment puternic: ChatGPT poate oferi informații utile, dar nu trebuie considerat o autoritate medicală. Consultul cu un specialist rămâne esențial mai ales atunci când e vorba de sănătate. AI-ul poate ajuta, dar nu ar trebui să decidă pentru tine.

Foto cu caracter ilustrativ: Shutterstock

Urmărește CSID.ro pe Google News
Alice Moisescu - Web-Editor
Ambițioasă, consecventă și iubitoare de frumos, așa cum se descrie chiar ea, Alice este consultant de imagine. Și dacă în adolescență era fascinată de mănușile sau pălăriile bunicii și se inconjura de reviste precum Vogue, Marie Claire sau Harper’s Bazaar, ei bine... acum Alice este ...
citește mai mult