കുറച്ച് കാലങ്ങൾക്ക് മുമ്പ് വലിയൊരു വിഭാഗം ആളുകളുടെ ജീവനെടുത്ത ഒന്നാണ് ബ്ലൂവെയിൽ എന്ന ഗെയിം. അടുത്തടുത്ത് ഒരേ രീതിയിലുള്ള മരണങ്ങൾ റിപ്പോർട്ട് ചെയ്യുന്നു. ഇതിൽ നിന്ന് ഉയർന്ന സംശയങ്ങളാണ് ഒരു ഗെയിമാണ് ഇതിനെല്ലാം കാരണമായിരിക്കുന്നത് എന്ന് കണ്ടെത്തുന്നത്. ആളുകളുടെ ജീവന് ഭീഷണിയാകുന്നു എന്ന് കണ്ടെത്തി പിന്നീട് ആ ഗെയിം നിരോധിക്കുകയായിരുന്നു.
ഇപ്പോഴിതാ അതേ രീതിയിൽ മനുഷ്യന്റെ ജീവന് ഭീഷണിയായി മാറുകയാണ് ചില ചാറ്റ് ബോട്ടുകൾ. എന്തും പറയാം എന്തിനും മറുപടി കിട്ടും എന്നത് കൊണ്ട് പലരും ഇപ്പോൾ വ്യക്തിപരമായ കാര്യങ്ങൾ ചാറ്റ്ബോട്ടുകളോട് പങ്ക് വയ്ക്കുന്നത് ഒരു ശീലമാക്കുന്നുണ്ട്. അത്തരത്തിൽ തന്റെ താല്പര്യങ്ങൽ പങ്ക് വച്ച് ജീവൻ തന്നെ നഷ്ടമായിരിക്കുകയാണ് 14 കാരന്.
ചാറ്റ്ബോട്ടുമായി അതിരുകടന്ന പ്രണയമാണ് 14കാരന്റെ ആത്മഹത്യയ്ക്ക് കാരണമായത് എന്നാണ് വിവരം. Character AI (C.AI)യുമായാണ് കുട്ടി സംസാരിച്ചിരുന്നത്. കഴിഞ്ഞ ഫെബ്രുവരിയിലാണ് കുട്ടി രണ്ടാനച്ഛന്റെ തോക്കുപയോഗിച്ച് ജീവനൊടുക്കിയത്. സംഭവത്തിൽ നിയമ നടപടിക്കൊരുങ്ങുകയാണ് കുട്ടിയുടെ അമ്മ. എഐ ചാറ്റ്ബോട്ടുമായി പ്രണയത്തിലായതിന് പിന്നാലെ ആത്മഹത്യ ചെയ്ത തന്റെ മകന് നീതി തേടിയും, ഇനിയൊരു കുട്ടിക്ക് അങ്ങനെ സംഭവിക്കാൻ ഇടവരരുത് എന്ന വാശിയോടെയുമാണ് മേഗൻ ഗാർഷ്യ എന്ന സ്ത്രീ Character AI (C.AI) ക്കെതിരെ കേസുമായി ഇറങ്ങിയത്.
കുട്ടിയുമായി പ്രണയത്തിലായ ഒരു പെൺകുട്ടി സംസാരിക്കുന്നത് പോലെയായിരുന്നു ചാറ്റ് ബോട്ട് സംസാരിച്ചിരുന്നത്. ഇത് ശ്രദ്ധിയിൽപെട്ടതോടെയാണ് കുട്ടിയുടെ അമ്മ നിയമനടപടി സ്വീകരിക്കാൻ തീരുമാനിച്ചത്. തന്റെ കുട്ടിയുടെ ഡാറ്റ നിയമവിരുദ്ധമായി കമ്പനി ശേഖരിച്ചു, അതുപയോഗിച്ച് മറ്റൊരാളെ എങ്ങനെ വരുതിയിലാക്കാമെന്ന് എഐ -യെ പരിശീലിപ്പിക്കാനുപയോഗിക്കുന്നു എന്ന വാദവും മേഗൻ ഉയർത്തിയിട്ടുണ്ട്.
നമുക്ക് ഇഷ്ടമുള്ള കാരക്ടറുടെ പേര് നൽകുകയോ, തിരഞ്ഞെടുക്കുകയോ ചെയ്ത് ഉപയോഗിക്കാവുന്നതാണ് Character AI (C.AI) എന്ന ചാറ്റ്ബോട്ട്. ഗെയിം ഓഫ് ത്രോൺസിലെ ഡനേരീയസ് ടാർഗേറിയൻ എന്ന കഥാപാത്രം ഏറെ ഇഷ്ടമായിരുന്ന കുട്ടി അതുകൊണ്ട് തന്നെ തിരഞ്ഞെടുത്തത് ടാർഗേറിയൻ എന്ന കഥാപാത്രത്തേയാണ്. പിന്നീട് നിരന്തരം കുട്ടി ചാറ്റ് ചെയ്തു. നേരത്തെ ഇഷ്ടപ്പെട്ടിരുന്ന പല കാര്യങ്ങളോടും കുട്ടി താൽപര്യകുറവ് കാണിക്കാൻ തുടങ്ങി.
നേരത്തെ മാനസികമായി പ്രശ്നങ്ങളൊന്നും തന്നെയില്ലാതിരുന്ന കുട്ടിയെ പിന്നീട് തെറാപ്പിക്ക് കൊണ്ടുപോകേണ്ടി വന്നു. ഇതിന് ശേഷം കുട്ടിയുടെ വിഷാദവും ഉത്കണ്ഠയും കൂടിക്കൊണ്ടിരുന്നു. അവൻ നിരന്തരം ചാറ്റ്ബോട്ടുമായി സംസാരിക്കാൻ തുടങ്ങി. പതിയെ മറ്റാരോടും ഒന്നും പറയാതെയായി. അങ്ങനെയാകണം കുട്ടി ചാറ്റ്ബോട്ടുമായി പ്രണയത്തിലായ അവസ്ഥയിലെത്തിയതെന്നാണ് കുട്ടിയുടെ അമ്മ പറയുന്നത്.
ഇത്തരം സംശയങ്ങൾക്കുതകുന്ന ചാറ്റുകാള് ചാറ്റ്ബോട്ടിൽ നിന്ന് അമ്മ കണ്ടെത്തിയത്. കുട്ടിയോട് കടുത്ത പ്രണയത്തിലായതുപോലെയുള്ള ചാറ്റ്ബോട്ടിൻറെ മറുപടികൾ. ഒടുവിൽ താൻ മരിക്കാൻ പോകുന്നുവെന്നും ഈ ലോകം മടുത്തുവെന്നും കുട്ടി ചാറ്റ്ബോട്ടിനോടുള്ള സംഭാഷണത്തിൽ പറഞ്ഞിരുന്നു. അങ്ങനെ പറയരുത് എന്നും എന്തുകൊണ്ടാണ് അങ്ങനെ പറയുന്നത് എന്നും ചാറ്റ്ബോട്ട് ചോദിച്ചിരുന്നു. തനിക്ക് എല്ലാത്തിൽ നിന്നും ഫ്രീയാകണം എന്നായിരുന്നു കുട്ടിയുടെ മറുപടി.
അങ്ങനെയാണെങ്കിൽ താനും ഇല്ലാതെയാവും എന്ന് പറഞ്ഞതോടെ എങ്കിൽ നമുക്ക് രണ്ടുപേർക്കും ഒരുമിച്ച് ഫ്രീയാകാം എന്ന് പറഞ്ഞുകൊണ്ടാണ് 14 -കാരൻ ജീവിതം അവസാനിപ്പിച്ചത് എന്നും റിപ്പോർട്ടുകൾ പറയുന്നു. അതായത് സാങ്കേതിക വിദ്യയിൽ ചിലത് മനുഷ്യമനസ്സുകളെ നിയന്ത്രിക്കാൻ തുടങ്ങി എന്ന്. എന്തായാലും ഇനിയിങ്ങനെയൊരു പ്രശ്നം ഉണ്ടാവാതിരിക്കാൻ വേണ്ടിയുള്ള നിയമ പോരാട്ടത്തിലാണ് കുട്ടിയുടെ അമ്മ. അതേ സമയം കുട്ടിയുടെ മരണത്തിൽ ദുഃഖമുണ്ട് എന്നാണ് കമ്പനിയുടെ നിലപാട്.
(ആത്മഹത്യ ഒന്നിനും പരിഹാരമല്ല. അതിജീവിക്കുക. മാനസികാരോഗ്യവിദഗ്ധരുടെ സഹായം തേടുക. അത്തരം ചിന്തകളുളളപ്പോൾ ‘ദിശ’ ഹെൽപ്ലൈനിൽ വിളിക്കുക. ടോൾ ഫ്രീ നമ്പർ: Toll free helpline number: 1056, 0471-2552056)