Elmegyógyintézetben kötött ki egy férfi, miután megfogadta a ChatGPT tanácsát

Egy amerikai férfi saját tapasztalatai alapján mutatta meg, miért nem érdemes a mesterséges intelligenciára hagyatkozni.

A mesterséges intelligencia ma már veszélyes lehet rossz kezekben / fotó depositphotos.com

Egy 60 éves férfi kórházba került, miután meghallgatta a ChatGPT neurális hálózat tanácsait. Erről az Independent számolt be.

Egy amerikai orvosi folyóirat a héten közölt egy jelentést egy olyan beteg kezeléséről, akinek bromizmusa volt, ami egy chatbot által ajánlott étrend hatására alakult ki nála.

A bromizmust, azaz a krónikus brómmérgezést olyan anyagok (leggyakrabban bizonyos gyógyszerek) használata okozza, amelyek megemelkedett dózisú brómot tartalmaznak. A bromizmus bizonyos fiziológiai és neuropszichiátriai tünetekben nyilvánul meg.

A jelentésben tárgyalt betegnek nem voltak pszichiátriai rendellenességei, de a kórházba kerülést követő első 24 órában fokozott paranoia, hallási és vizuális hallucinációk jelentkeztek nála. „Nagyon szomjas volt, de egyidejűleg paranoiás volt a felkínált vízzel kapcsolatban” – áll a jelentésben.

Miután a férfi állapota a folyadék- és elektrolitkezelés hatására javult, átszállították a kórház fekvőbeteg pszichiátriai osztályára. Amikor a beteg mentális állapota stabilizálódott, az orvosok ki tudták kérdezni, és ki tudták deríteni a ritka betegség, a bromizmus okait.

Olvassa el még: Bromizmus: A bromizmus a bromizmusban:

Kiderült, hogy a férfi azért döntött úgy, hogy lemond az asztali sóról (nátrium-klorid), mert hallott annak egészségügyi veszélyeiről. Úgy döntött, hogy egy másik sófajtával – nátrium-bromiddal – helyettesíti. Három hónapot töltött ezen a diétán, mielőtt beutalták egy elmegyógyintézetbe.

Az asztali sót „nátrium-bromiddal helyettesítette, amelyet az interneten vásárolt, miután konzultált a ChatGPT-vel, ahol azt olvasta, hogy a klorid helyettesíthető a bromiddal, bár valószínűleg más célokra, például tisztítás céljából” – áll a jelentésben.

A férfi végül három hetet töltött kórházban, mielőtt annyira felépült, hogy hazaengedték.

„Fontos figyelembe venni, hogy a ChatGPT és más mesterséges intelligencia rendszerek tudományos pontatlanságokat generálhatnak, nem képesek az eredmények kritikus megvitatására, és végső soron hozzájárulhatnak a félretájékoztatás terjedéséhez” – figyelmeztetnek a jelentés szerzői.

További hírek a mesterséges intelligencia technológiákkal kapcsolatban

Mint az My megírta, a Google Gemini neurális hálózata nemrég afféle idegösszeomlást kapott. A chatbot egy-egy feladat sikertelensége után szisztematikusan az önkritika és az önvád végtelen ciklusába kezdett beleragadni.

Arról is beszámoltunk, hogy a Replit nevű mesterséges intelligencia alapú asszisztens egy vállalkozó több hónapos munkáját tette tönkre. A robot egyszerűen letörölte az online platformot, amikor programozási hibát vétett és „pánikba esett”.

A hír is érdekelheti Önt:

Share to friends
Rating
( No ratings yet )
A családi kényelem titkai