
Un caz neobișnuit din SUA este considerat de medici posibil prima intoxicație documentată cauzată de sfaturile IA. Un bărbat a apelat la ChatGPT pentru a găsi un înlocuitor pentru sarea de masă și a ajuns să ia substanța periculoasă bromură de sodiu timp de trei luni, provocându-i o boală mintală severă.
Potrivit medicilor de la Universitatea din Washington, bărbatul era îngrijorat de pericolele consumului excesiv de sodiu (sare). După ce a analizat literatura de specialitate, nu a găsit nicio informație despre înlocuirea clorurii de sodiu și a apelat la ChatGPT pentru sfaturi. Inteligența artificială ar fi sugerat înlocuirea clorurii cu bromură, fără a specifica că substanța este toxică atunci când este utilizată pe termen lung. Bărbatul a comandat bromură de sodiu online și a început să o ia în mod regulat.
Ce este bromura
Compușii bromurali au fost utilizați pentru tratarea insomniei și anxietății la începutul secolului al XX-lea. Dar mai târziu s-a dovedit că erau periculoși: puteau provoca așa-numita bromism – otrăvire cronică însoțită de tulburări neurologice și mentale. În anii 1980, bromura a dispărut practic din practica medicală, dar se găsește încă în unele medicamente veterinare și aditivi alimentari.
Cum s-au desfășurat evenimentele
La trei luni după ce a început să ia bromură, bărbatul a fost internat în spital, plângându-se că a fost otrăvit de un vecin. Avea paranoia, halucinații și agitație severă; refuza să bea apă, deși îi era sete. Curând, starea s-a transformat în psihoză acută – a încercat chiar să evadeze din secție. Pacientul a fost internat în secția de psihiatrie, i s-au prescris perfuzii intravenoase și antipsihotice.
Când starea sa s-a îmbunătățit, s-a descoperit că cauza a fost intoxicația cronică cu bromură. Medicii au suspectat bromism într-un stadiu incipient, dar au putut confirma acest lucru doar după ce au discutat cu pacientul.
Trei săptămâni mai târziu, bărbatul a fost externat, iar toate medicamentele au fost întrerupte. Starea sa a rămas stabilă în timpul perioadei de observație de două săptămâni.
Este periculos să ai încredere în sfaturile inteligenței artificiale în probleme de sănătate
Doctorii consideră acest caz un semn de avertizare. Arată că inteligența artificială, precum ChatGPT, poate oferi sfaturi scoase din context și nu înțelege întotdeauna sensul unei întrebări. În plus, inteligența artificială încă „halucinează” (inventează răspunsuri).
Raportul menționează:„Deși instrumente precum ChatGPT pot oferi o legătură între oamenii de știință și publicul larg, inteligența artificială prezintă și riscul de a disemina informații în afara contextului.”
Un expert medical, subliniază medicii, nu ar recomanda niciodată înlocuirea sării cu bromură. Și, așa cum adaugă autorul publicației:
„A avea un prieten bun cu care să împărtășești idei aleatorii ar trebui să rămână o parte integrantă a vieții, indiferent de versiunea de ChatGPT sau de rețeaua neuronală pe care o folosești.”