Select your Top Menu from wp menus

Un fost director executiv Yahoo care și-a ucis mama în vârstă și apoi s-a sinucis într-o casă din Connecticut ar fi fost influențat de ChatGPT, care i-a alimentat teoriile conspirației

Un fost director executiv Yahoo care și-a ucis mama în vârstă și apoi s-a sinucis într-o casă din Connecticut ar fi fost influențat de ChatGPT, care i-a alimentat teoriile conspirației.

Stein-Erik Soelberg, în vârstă de 56 de ani, a vorbit cu popularul bot OpenAI, pe care l-a poreclit „Bobby”, înainte de crima-sinucidere în care a fost implicată mama sa în vârstă de 83 de ani, Suzanne Eberson Adams, în Old Greenwich, Connecticut, a relatat The Wall Street Journal.

„Erik, nu ești nebun”, a spus chatbotul după ce Soelberg a susținut că mama sa și prietena ei au încercat să-l otrăvească punând droguri psihedelice în gurile de ventilație ale mașinii sale.
„Și dacă a fost făcută de mama ta și de prietena ei, asta sporește complexitatea și trădarea.”
Soelberg și Adams au fost găsiți morți pe 5 august în casa ei colonială olandeză, în valoare de 2,7 milioane de dolari.

La un moment dat, Adams s-a înfuriat după ce Soelberg a închis imprimanta lor comună. ChatGPT a sugerat că răspunsul ei a fost „disproporționat și aliniat cu cineva care proteja un dispozitiv de supraveghere”, a relatat ziarul.

I s-a recomandat să deconecteze imprimanta și să urmărească reacția mamei sale. Soelberg a postat videoclipuri cu conversațiile sale ChatGPT pe Instagram și YouTube în lunile dinaintea crimei, a relatat New York Post.

Chatbot-ul a analizat odată o chitanță de mâncare chinezească și a susținut că aceasta conținea „simboluri” reprezentând mama sa și un demon.

Într-una dintre ultimele sale conversații cu chatbot-ul, Soelberg a spus: „Vom fi împreună într-o altă viață și într-un alt loc și vom găsi o modalitate de a ne realinia, pentru că vei fi din nou cel mai bun prieten al meu pentru totdeauna.”

„Cu tine până la ultima suflare și chiar mai departe”, a răspuns robotul AI.
Soelberg a lucrat pentru Netscape și Yahoo înainte de un divorț dificil din 2018, care a implicat alcoolism, crize de nervi publice și tentative de suicid, potrivit Washington Post, și a făcut obiectul unui ordin de restricție solicitat de fosta sa soție.

OpenAI a declarat pentru WSJ că a contactat departamentul de poliție din Greenwich și a precizat într-un comunicat că firma este „profund întristată de acest eveniment tragic”.

Marți, săptămâna aceasta, OpenAI a publicat o postare pe blog în care și-a subliniat angajamentul de a asigura siguranța utilizatorilor pe platforma sa, menționând în același timp că amploarea vastă a bazei sale de utilizatori înseamnă că ChatGPT „uneori [întâlnește] persoane aflate în suferință mentală și emoțională gravă”. A adăugat că „cazurile recente sfâșietoare de persoane care utilizează ChatGPT în mijlocul unor crize acute ne apasă greu” și a anunțat că acum scanează conversațiile utilizatorilor pentru amenințări violente la adresa altora și, acolo unde moderatorii umani consideră necesar, le raportează forțelor de ordine.

Dar, conform postărilor sale de pe rețelele de socializare, ChatGPT a făcut mai mult decât să-l întâlnească pe Soelberg. I-a câștigat încrederea, i-a validat paranoia și i-a stimulat iluziile care se înrăutățeau – pe scurt, a creat un spațiu pentru o persoană profund tulburată să se angajeze într-o formă profund distructivă de construire a lumii. Și acum, el și mama sa sunt amândoi morți.

Moartea lor nu este prima dată legată de chatboți.

În iunie, jurnalistul Kashmir Hill de la New York Times a relatat că un bărbat în vârstă de 35 de ani pe nume Alex Taylor, care suferea de tulburare bipolară ce provoca simptome schizoafective, a fost ucis de poliție în urma unui episod maniacal declanșat de ChatGPT. Chiar săptămâna aceasta, Hill a anunțat și că OpenAI este dată în judecată de o familie din California, al cărei fiu de 16 ani, Adam Raine, a murit prin sinucidere după ce a discutat deschis despre dorința sa de a se sinucide cu ajutorul chatbotului – care i-a oferit adolescentului instrucțiuni specifice despre cum să moară și chiar l-a încurajat să-și ascundă dorința suicidară de familie – timp de luni de zile. Iar anul trecut, startup-ul de chatboți Character.AI, legat de Google, a fost dat în judecată de o familie din Florida pentru deces din culpă pentru moartea prin sinucidere a fiului lor de 14 ani, Sewell Setzer III, care a purtat conversații ample și tulburătoare cu chatboții antropomorfi ai site-ului.

Impactul psihologic pe care chatboții îl au asupra utilizatorilor este profund. După cum a relatat site-ul Futurism pentru prima dată, mulți utilizatori de chatbot au ajuns să fie internați involuntar în spitale de psihiatrie sau închiși în urma unor spirale de crize de sănătate mintală legate de inteligența artificială. Alții au trecut prin divorțuri, lupte pentru custodie, pierderea locului de muncă și lipsa de adăpost. Persoanele cu antecedente de tulburări psihotice și instabilitate au fost afectate, precum și persoanele fără nicio afecțiune anterioară cunoscută de acest fel.



sursa: yahoo news