Egy amerikai férfi saját tapasztalatai alapján mutatta meg, miért nem érdemes a mesterséges intelligenciára hagyatkozni.
A mesterséges intelligencia ma már veszélyes lehet rossz kezekben / fotó depositphotos.com
Egy 60 éves férfi kórházba került, miután meghallgatta a ChatGPT neurális hálózat tanácsait. Erről az Independent számolt be.
Egy amerikai orvosi folyóirat a héten közölt egy jelentést egy olyan beteg kezeléséről, akinek bromizmusa volt, ami egy chatbot által ajánlott étrend hatására alakult ki nála.
A bromizmust, azaz a krónikus brómmérgezést olyan anyagok (leggyakrabban bizonyos gyógyszerek) használata okozza, amelyek megemelkedett dózisú brómot tartalmaznak. A bromizmus bizonyos fiziológiai és neuropszichiátriai tünetekben nyilvánul meg.
A jelentésben tárgyalt betegnek nem voltak pszichiátriai rendellenességei, de a kórházba kerülést követő első 24 órában fokozott paranoia, hallási és vizuális hallucinációk jelentkeztek nála. „Nagyon szomjas volt, de egyidejűleg paranoiás volt a felkínált vízzel kapcsolatban” – áll a jelentésben.
Miután a férfi állapota a folyadék- és elektrolitkezelés hatására javult, átszállították a kórház fekvőbeteg pszichiátriai osztályára. Amikor a beteg mentális állapota stabilizálódott, az orvosok ki tudták kérdezni, és ki tudták deríteni a ritka betegség, a bromizmus okait.
Olvassa el még: Bromizmus: A bromizmus a bromizmusban:
Kiderült, hogy a férfi azért döntött úgy, hogy lemond az asztali sóról (nátrium-klorid), mert hallott annak egészségügyi veszélyeiről. Úgy döntött, hogy egy másik sófajtával – nátrium-bromiddal – helyettesíti. Három hónapot töltött ezen a diétán, mielőtt beutalták egy elmegyógyintézetbe.Az asztali sót „nátrium-bromiddal helyettesítette, amelyet az interneten vásárolt, miután konzultált a ChatGPT-vel, ahol azt olvasta, hogy a klorid helyettesíthető a bromiddal, bár valószínűleg más célokra, például tisztítás céljából” – áll a jelentésben.
A férfi végül három hetet töltött kórházban, mielőtt annyira felépült, hogy hazaengedték.
„Fontos figyelembe venni, hogy a ChatGPT és más mesterséges intelligencia rendszerek tudományos pontatlanságokat generálhatnak, nem képesek az eredmények kritikus megvitatására, és végső soron hozzájárulhatnak a félretájékoztatás terjedéséhez” – figyelmeztetnek a jelentés szerzői.
További hírek a mesterséges intelligencia technológiákkal kapcsolatban
Mint az My megírta, a Google Gemini neurális hálózata nemrég afféle idegösszeomlást kapott. A chatbot egy-egy feladat sikertelensége után szisztematikusan az önkritika és az önvád végtelen ciklusába kezdett beleragadni.
Arról is beszámoltunk, hogy a Replit nevű mesterséges intelligencia alapú asszisztens egy vállalkozó több hónapos munkáját tette tönkre. A robot egyszerűen letörölte az online platformot, amikor programozási hibát vétett és „pánikba esett”.