പ്രതീകാത്മക ചിത്രം

TOPICS COVERED

ആരോഗ്യവാനായി ഇരിക്കുന്നതിന് ചാറ്റ് ജിപിടിയോട് ഉപദേശം തേടി ആശുപത്രിയിലായി അറുപതുകാരന്‍. അമേരിക്കയിലാണ് സംഭവം.  അമേരിക്കന്‍ കോളജ് ഓഫ് ഫിസീഷ്യന്‍സ് ജേണലിലാണ് റിപ്പോര്‍ട്ട് പ്രസിദ്ധീകരിച്ചിരിക്കുന്നത്. ഊര്‍ജസ്വലനായിരിക്കാനുള്ള ഭക്ഷണക്രമമെന്തെന്ന് ചാറ്റ് ജിപിടിയുടെ സഹായത്തോടെ കണ്ടെത്താന്‍ ശ്രമിച്ച് പിന്തുടര്‍ന്നയാളാണ് വെട്ടിലായത്.

ഭക്ഷണത്തിലെ ഉപ്പാണ് ശരീരം ക്ഷീണിപ്പിക്കുന്നതെന്നും ഒഴിവാക്കുകയാണെങ്കില്‍ നല്ലതാണെന്നും എവിടെയോ കേട്ട ബെന്‍ ഇക്കാര്യത്തില്‍ ചാറ്റ് ജിപിടിയുടെ ഉപദേശം തേടുകയായിരുന്നു. ഡയറ്റില്‍ നിന്ന് എങ്ങനെ ഉപ്പൊഴിവാക്കാമെന്ന് ബെന്‍ ചാറ്റ് ജിപിടിയോട് ചോദിച്ചു. പകരം ചാറ്റ് ജിപിടി നിര്‍ദേശിച്ചതാവട്ടെ സോഡിയം ബ്രോമൈഡും! 1900കളില്‍ ഇത് വിവിധ മരുന്നുകളില്‍ ഉപയോഗിച്ചിരുന്നുവെങ്കിലും വന്‍തോതില്‍ വിഷാംശമുണ്ടെന്ന് കണ്ടെത്തിയതിനെ തുടര്‍ന്ന് ഒഴിവാക്കുകയായിരുന്നു.

ഓണ്‍ലൈനായി സോഡിയം ബ്രോമൈഡ് വരുത്തിയ ബെന്‍, മൂന്ന് മാസത്തോളം ചാറ്റ് ജിപിടി പറഞ്ഞതും കേട്ട് ഇത് കഴിച്ചു. മാനസികമോ, ശാരീരികമോ ആയി മുന്‍പ് യാതൊരു പ്രശ്നങ്ങളുമില്ലാതിരുന്ന ബെന്‍ വൈകാതെ പിച്ചും പേയും പറയാനും ഇല്ലാത്ത ശബ്ദങ്ങള്‍ കേള്‍ക്കാനും അസ്വാഭാവികമായി പെരുമാറാനും തുടങ്ങി. 24 മണിക്കൂര്‍ ഡോക്ടര്‍മാര്‍ നിരീക്ഷണത്തിലാക്കിയതോടെ വെള്ളം പോലും കുടിക്കാതെയായി. വെള്ളം കുടിക്കുന്നത് ജീവഹാനിക്ക് കാരണമായേക്കുമെന്നും ബെന്‍ ഡോക്ടര്‍മാരോട് പറഞ്ഞു.  വിശദമായ പരിശോധനയിലാണ് ഇയാളില്‍ ബ്രോമൈഡ് വിഷബാധയേറ്റതായി കണ്ടെത്തിയത്. മൂന്നാഴ്ച ഡ്രിപ്പിട്ടും ഇലക്ട്രൊലൈറ്റുകള്‍ നല്‍കിയുമാണ് 60കാരനെ ഡോക്ടര്‍മാര്‍ സാധാരണ ജീവിതത്തിലേക്ക് മടക്കിക്കൊണ്ടുവന്നത്. 

ചാറ്റ് ജിപിടി പോലെയുള്ള നിര്‍മിത ബുദ്ധികളെ ആരോഗ്യകാരണങ്ങള്‍ക്കായി പൊതുജനങ്ങള്‍ ഉപയോഗിക്കരുതെന്നും വിദഗ്ധ സേവനം തേടുകയാണ് വേണ്ടതെന്നും ഡോക്ടര്‍മാര്‍ മുന്നറിയിപ്പ് നല്‍കുന്നു. തെറ്റായ വിവരങ്ങള്‍ ചാറ്റ്ബോട്ടുകള്‍ നല്‍കിയേക്കാമെന്നും അന്ധമായി അത് പിന്തുടര്‍ന്നാല്‍ ജീവന്‍ തന്നെ അപകടത്തിലാകുമെന്നും ഡോക്ടര്‍മാര്‍ വിശദീകരിക്കുന്നു. ഉപയോഗക്രമത്തില്‍ തന്നെ ഓപണ്‍ എഐയും ഇക്കാര്യം വിശദമാക്കുന്നുണ്ട്. 'ചാറ്റ് ജിപിടിയില്‍ കാണുന്നത് മാത്രം വാസ്തവമെന്ന് കരുതുകയോ, ലഭിക്കുന്ന വിവരങ്ങള്‍ വിദഗ്ധോപദേശത്തിന് പകരമായി സ്വീകരിക്കുകയോ ചെയ്യരുത്. 

ENGLISH SUMMARY:

Chat GPT health risks are highlighted in a recent case where a man followed AI-generated advice and suffered severe health consequences. Experts warn against using chatbots for medical guidance and emphasize seeking professional medical advice.