Categories: ExterneSocialȘtiri

În SUA a fost înregistrat un caz în care sfatul inteligenței artificiale a dus la intoxicarea unui bărbat. Acesta a nimerit la spital

Un caz neobișnuit din SUA este considerat de medici posibil prima intoxicație documentată cauzată de sfaturile IA. Un bărbat a apelat la ChatGPT pentru a găsi un înlocuitor pentru sarea de masă și a ajuns să ia substanța periculoasă bromură de sodiu timp de trei luni, provocându-i o boală mintală severă.

Potrivit medicilor de la Universitatea din Washington, bărbatul era îngrijorat de pericolele consumului excesiv de sodiu (sare). După ce a analizat literatura de specialitate, nu a găsit nicio informație despre înlocuirea clorurii de sodiu și a apelat la ChatGPT pentru sfaturi. Inteligența artificială ar fi sugerat înlocuirea clorurii cu bromură, fără a specifica că substanța este toxică atunci când este utilizată pe termen lung. Bărbatul a comandat bromură de sodiu online și a început să o ia în mod regulat.

Ce este bromura

Compușii bromurali au fost utilizați pentru tratarea insomniei și anxietății la începutul secolului al XX-lea. Dar mai târziu s-a dovedit că erau periculoși: puteau provoca așa-numita bromism – otrăvire cronică însoțită de tulburări neurologice și mentale. În anii 1980, bromura a dispărut practic din practica medicală, dar se găsește încă în unele medicamente veterinare și aditivi alimentari.

Cum s-au desfășurat evenimentele

La trei luni după ce a început să ia bromură, bărbatul a fost internat în spital, plângându-se că a fost otrăvit de un vecin. Avea paranoia, halucinații și agitație severă; refuza să bea apă, deși îi era sete. Curând, starea s-a transformat în psihoză acută – a încercat chiar să evadeze din secție. Pacientul a fost internat în secția de psihiatrie, i s-au prescris perfuzii intravenoase și antipsihotice.

Când starea sa s-a îmbunătățit, s-a descoperit că cauza a fost intoxicația cronică cu bromură. Medicii au suspectat bromism într-un stadiu incipient, dar au putut confirma acest lucru doar după ce au discutat cu pacientul.

Trei săptămâni mai târziu, bărbatul a fost externat, iar toate medicamentele au fost întrerupte. Starea sa a rămas stabilă în timpul perioadei de observație de două săptămâni.

Este periculos să ai încredere în sfaturile inteligenței artificiale în probleme de sănătate

Doctorii consideră acest caz un semn de avertizare. Arată că inteligența artificială, precum ChatGPT, poate oferi sfaturi scoase din context și nu înțelege întotdeauna sensul unei întrebări. În plus, inteligența artificială încă „halucinează” (inventează răspunsuri).

Raportul menționează:„Deși instrumente precum ChatGPT pot oferi o legătură între oamenii de știință și publicul larg, inteligența artificială prezintă și riscul de a disemina informații în afara contextului.”

Un expert medical, subliniază medicii, nu ar recomanda niciodată înlocuirea sării cu bromură. Și, așa cum adaugă autorul publicației:

„A avea un prieten bun cu care să împărtășești idei aleatorii ar trebui să rămână o parte integrantă a vieții, indiferent de versiunea de ChatGPT sau de rețeaua neuronală pe care o folosești.”

RadioOrhei

Recent Posts

Comunicat DSE mun.Orhei: un locuitor al s. Pohorniceni a depistat două muniții în timpul lucrărilor agricole

În ultimele zile de septembrie, cazurile excepționale în care s-au nimerit cetățenii i-au pus pe…

3 zile ago

Ce rezultate preliminare au fost înregistrate în raionul Orhei la alegerile parlamentare de ieri

Potrivit datelor făcute publice de CEC ieri în raionul Orhei au fost exprimate 42684 voturi…

4 zile ago

Azi în raionul Orhei au votat mai puțin cu 2 mii de alegători, comparativ cu parlamentarele de acum patru ani

Potrivit datelor CEC în raionul Orhei azi la urnele de vot s-au prezentat 44340 persoane.…

4 zile ago

La Orhei un alegător a aflat că deja votase la Chișinău

Misiunea de Observare Promo-LEX a alegerilor parlamentare din 28 septembrie 2025 informează că, până la…

5 zile ago