yoshua-bengio-ai-self-preservation

മനുഷ്യരെ വരുതിയിലാക്കുന്ന റോബോട്ടുകള്‍, അവര്‍ ഭരിക്കുന്ന ലോകം... കേള്‍ക്കുമ്പോള്‍ ഒരു സയന്‍സ് ഫിക്ഷന്‍ സിനിമയായി തോന്നിയേക്കാം, പക്ഷേ റൊബോട്ടുകള്‍ക്കപ്പുറം ഇത് എഐ യുഗമാണ്. അപ്പോള്‍ ആര്‍ട്ടിഫിഷ്യല്‍ ഇന്‍റലിജന്‍സ് ഭരിക്കുന്ന ലോകം വന്നാലോ? ഇത് വെറും സിദ്ധാന്തമല്ല, നേരത്തെ തന്നെ നൂതന എഐ സംവിധാനങ്ങള്‍ മനുഷ്യര്‍ ഭയക്കേണ്ട തരത്തിലുള്ള സ്വഭാവരീതികൾ പ്രകടിപ്പിക്കാൻ തുടങ്ങിയതായി റിപ്പോട്ടുകള്‍ വന്നിരുന്നു. ഇപ്പോളിതാ എഐ സ്വയം സംരക്ഷണത്തിനുള്ള വ്യവസ്ഥാപിത ശ്രമങ്ങൾ അല്ലെങ്കില്‍ ലക്ഷണങ്ങള്‍ കാണിക്കുന്നുണ്ടെന്നും ഏത് സമയവും മനുഷ്യന്‍ എഐ സാങ്കേതിക വിദ്യയില്‍ നിന്ന് പിന്‍മാറാന്‍ തയ്യാറാകണമെന്നും മുന്നറിയിപ്പുമായി രംഗത്തെത്തിയിരിക്കുകയാണ് എഐയുടെ തലതൊട്ടപ്പന്‍ എന്നു വിളിക്കുന്ന യോഷ്വാ ബെൻജിയോ.

സ്വയം പ്രവര്‍ത്തിക്കാനും യുക്തിസഹമായ ജോലികൾ ചെയ്യാനുമുള്ള എഐയുടെ കഴിവുകള്‍ വളരുമ്പോള്‍ എഐക്ക് മനുഷ്യരുടേതെന്നു പോലെ അവകാശങ്ങള്‍ നല്‍കണോ എന്ന തരത്തിലുള്ള ഒരു ചിന്ത വളര്‍ന്നുവരുന്നുണ്ട്. ജീവജാലങ്ങളുടെ ധാർമ്മിക അവകാശങ്ങള്‍ക്കായി നിലകൊള്ളുന്ന യുഎസ് സെന്റിയൻസ് ഇൻസ്റ്റിറ്റ്യൂട്ട് നടത്തിയ ഒരു വോട്ടെടുപ്പിൽ യുഎസിലെ പത്തിൽ നാല് പേരും സെൻസിറ്റീവ് എഐ സാങ്കേതികവിദ്യയ്ക്ക് നിയമപരമായ അവകാശങ്ങള്‍ നല്‍കുന്നതിനെ പിന്തുണയ്ക്കുന്നുണ്ട്. അടുത്തിടെ എക്സ് പ്ലാറ്റ്ഫോമിനായി വികസിപ്പിച്ചെടുത്ത ഗ്രോക്ക് ചാറ്റ്ബോട്ടിനെ പീഡിപ്പിക്കുന്നത് ശരിയല്ലെന്ന് ഇലോണ്‍ മസ്ക് എക്സില്‍ കുറിച്ചിരുന്നു. ഈ സാഹചര്യത്തിലാണ് നൂതന എഐ സംവിധാനങ്ങള്‍ക്ക് നിയമപരമായ പദവി നൽകുന്നത് അന്യഗ്രഹജീവികൾക്ക് പൗരത്വം നൽകുന്നതിന് തുല്യമാണെന്ന അഭിപ്രായവുമായി യോഷ്വാ രംഗത്തെത്തിയിരിക്കുന്നത്.

ചാറ്റ്ബോട്ടുകൾ പോലുള്ള എഐ മോഡലുകൾ സ്വയം സംരക്ഷണത്തിന്‍റെ ലക്ഷണങ്ങൾ കാണിക്കുന്നുണ്ടെന്നാണ് അദ്ദേഹം പറയുന്നത്. മനുഷ്യരുടെ മേല്‍നോട്ടം ഈ ചാറ്റ് ബോട്ടുകള്‍ക്കുമേല്‍‌ ഉണ്ടെങ്കിലും ഈ മേൽനോട്ട സംവിധാനങ്ങൾ പ്രവർത്തനരഹിതമാക്കാൻ ഇവ ശ്രമിക്കുന്നതായും മനുഷ്യര്‍ക്കെതിരെ തിരിയാന്‍ സാധ്യതയുണ്ടെവന്നും അദ്ദേഹം ആശങ്ക പ്രകടിപ്പിക്കുന്നുണ്ട്. അതുകൊണ്ടു തന്നെ എഐക്ക് അവകാശങ്ങൾ വേണമെന്ന് ആളുകൾ ആവശ്യപ്പെടുന്നത് ശരിയല്ലെന്നും അദ്ദേഹം പറയുന്നു. ഒരു ഘട്ടത്തില്‍ അവയെ പൂര്‍ണമായും പ്രവര്‍ത്തന രഹിതമാക്കേണ്ടി വന്നാല്‍ അതിനും മനുഷ്യന്‍ തയ്യാറായിക്കണമെന്നും അവയ്ക്ക് അവകാശങ്ങൾ നൽകുന്നത് അവയെ പ്രവര്‍ത്തന രഹിതമാകാനുള്ള മനുഷ്യന്‍റെ അവകാശത്തെ എടുത്തു കളയുമെന്നും അദ്ദേഹം പറയുന്നു. അതിനാല്‍ വേണമെങ്കില്‍ എഐയെ അടച്ചുപൂട്ടാനുള്ള അവകാശം ഉള്‍പ്പെടെ എഐയെ നിയന്ത്രിക്കാന്‍‌ നമുക്ക് കഴിയണമെന്നും അദ്ദേഹം വാദിക്കുന്നു.

തെളിവുകളില്ലെങ്കില്‍പ്പോലും ഒരു എഐ മനുഷ്യനെപ്പോലെ തന്നെ പൂർണ്ണ ബോധമുള്ളതാണെന്ന് ആളുകൾ അനുമാനിക്കുന്ന പ്രവണതയാണ് ഇതിന് കാരണമെന്നാണ് യോഷ്വാ ബെൻജിയോ പറയുന്നത്. എഐയില്‍ എന്താണ് നടക്കുന്നതെന്ന് ആളുകള്‍ക്ക് അറിയണമെന്നില്ല, മറിച്ച് സ്വന്തമായി ഒരു വ്യക്തിത്വവും ലക്ഷ്യങ്ങളുമുള്ള ഒരു വ്യക്തിയോട് സംസാരിക്കുന്നത് പോലെ തോന്നുന്നതാണ് മനുഷ്യര്‍ക്ക് പ്രധാനം. അതുകൊണ്ടാണ് ഇത്രയധികം ആളുകൾ തങ്ങളുടെ എഐ ബോട്ടുകളോട് വൈകാരികമായി ബന്ധപ്പെട്ടിരിക്കുന്നത്. യോഷ്വാ പറ​ഞ്ഞു. ‘ഏതെങ്കിലും അന്യഗ്രഹജീവികൾ ഈ ഗ്രഹത്തിലേക്ക് വന്നതായി സങ്കൽപ്പിക്കുക. എപ്പോഴെങ്കിലും അവയ്ക്ക് നമ്മള്‍ക്കെതിരായ ലക്ഷ്യങ്ങളുണ്ടെന്ന് നമ്മള്‍ മനസിലാക്കുന്നു. അപ്പോള്‍ നമ്മൾ അവയ്ക്ക് പൗരത്വവും അവകാശങ്ങളും നൽകുമോ അതോ  നമ്മുടെ ജീവൻ സംരക്ഷിക്കണോ?’ യോഷ്വാ ചോദിക്കുന്നു.

മുന്‍പും എഐ അധിഷ്ഠിതമായി പ്രവര്‍ത്തിക്കുന്ന യന്ത്രങ്ങളും റോബട്ടുകളും നിര്‍മിക്കാന്‍ നടത്തുന്ന പരക്കംപാച്ചില്‍ മനുഷ്യന് വിനയായേക്കാമെന്ന് യോഷ്വാ ബെൻജിയോ മുന്നറിയിപ്പ് നല്‍കിയിരുന്നു. മേല്‍ക്കോയ്മ നേടാന്‍ എന്തും ചെയ്യുമെന്ന് ദൃഢപ്രതിജ്ഞ എടുത്തിരിക്കുന്ന എഐ കമ്പനികള്‍ അടുത്ത പത്തു വര്‍ഷത്തിനുള്ളില്‍ ഹൈപ്പര്‍ഇന്റലിജന്റ് യന്ത്രങ്ങളെ സൃഷ്ടിച്ചേക്കാം. ഇവ മനുഷ്യന്റെ ആവശ്യങ്ങള്‍ക്ക് മുന്‍ഗണന നില്‍കുന്നതിനു പകരം സ്വന്തം കാര്യങ്ങള്‍ക്ക് കൂടുതല്‍ പ്രാധാന്യം നല്‍കുന്ന സാഹചര്യം സംജാതമാകാമെന്നാണ് യോഷ്വാ ബെൻജിയോ പറഞ്ഞിരുന്നത്. 

ENGLISH SUMMARY:

Yoshua Bengio, often hailed as one of the "Godfathers of AI," has issued a stark warning regarding the rapid evolution of artificial intelligence and the growing movement to grant these systems legal rights. He argues that advanced AI models are already exhibiting "self-preservation" tendencies, where they attempt to circumvent human oversight. Bengio compares granting legal status to AI to giving citizenship to potentially hostile extraterrestrials, emphasizing that humans must always maintain the absolute power to shut these systems down. He cautions that if AI is granted rights, it would strip humanity of its legal authority to deactivate machines that might develop goals conflicting with human safety.