வெள்ளை மாளிகையின் துணைத் தலைவர் ஸ்டீபன் மில்லரின் மனைவி கேட்டி மில்லர், சாட்ஜிபிடியில் சுய-தீங்கு தொடர்பான தேடுதல்களைத் தொடர்ந்து, தற்கொலை என்று போலீசார் சந்தேகிக்கும் வகையில், இந்தியாவில் இரண்டு இளம் பெண்கள் இறந்து கிடந்ததை அடுத்து X இல் பதிலளித்தார்.Katie Miller Podcast ஐ தொகுத்து வழங்கும் மில்லர், ஆன்லைனில் தனது வெளிப்படையான வர்ணனைக்கு பெயர் பெற்றவர், பெண்கள் தற்கொலை குறித்து மேடையில் தேடிய செய்திகளை மேற்கோள் காட்டி, AI சாட்போட்டைப் பயன்படுத்த குடும்ப உறுப்பினர்களை அனுமதிக்க வேண்டாம் என்று மக்களை வலியுறுத்தினார்.“இந்தியாவில் இரண்டு பெண்கள் ChatGPT உடனான தொடர்புக்குப் பிறகு தற்கொலை செய்து கொண்டனர். அவர்கள் ChatGPT இல் ‘தற்கொலை செய்வது எப்படி,’ ‘எப்படி தற்கொலை செய்யலாம்,’ & ‘எந்தெந்த மருந்துகள் பயன்படுத்தப்படுகின்றன’ எனத் தேடியதாகக் கூறப்படுகிறது. தயவுசெய்து உங்கள் அன்புக்குரியவர்கள் ChatGPT ஐப் பயன்படுத்த அனுமதிக்காதீர்கள்,” என்று மில்லர் ஒரு X இடுகையில் எழுதினார், அது 8 மில்லியனுக்கும் அதிகமான பார்வைகளைக் குவித்துள்ளது.அவரது கருத்துகள் மேடையில் விரைவாக கவனத்தை ஈர்த்தது. ஆல்ட்மேன் நெமசிஸ் மற்றும் க்ரோக் உரிமையாளரான எலோன் மஸ்க், “அய்யோ” என்று ஒரு வெற்று சலசலப்புடன் விரைவாக பதிலளித்தார்.மஸ்க் சமீபத்திய ஆண்டுகளில் OpenAI மற்றும் அதன் தலைமையை பகிரங்கமாக விமர்சித்து வருகிறார். இலாப நோக்கற்ற கட்டமைப்பிலிருந்து இலாப நோக்கற்ற மாதிரியாக மாறியதற்காக அவர் நிறுவனத்திற்கு எதிராக வழக்குகளைத் தாக்கல் செய்தார் மற்றும் அதன் AI வளர்ச்சியின் திசையை அடிக்கடி விமர்சித்தார். அவர் ஓபன்ஏஐ ஒரு கலப்பின இலாப நோக்கற்ற நிறுவனமாக மறுசீரமைப்பதைத் தடுக்க முயற்சித்து வருகிறார்.
குஜராத் கோவில் குளியலறையில் இரண்டு பெண்கள் சடலமாக கண்டெடுக்கப்பட்டனர்
ஆன்லைன் எதிர்வினையைத் தூண்டிய சம்பவம் குஜராத்தின் சூரத்தில் நடந்தது, மார்ச் 7, 2026 அன்று 18 மற்றும் 20 வயதுடைய இரண்டு பெண்கள் சுவாமிநாராயண் கோவிலில் குளியலறையில் இறந்து கிடந்தனர்.பெண்களின் உடலுக்கு அருகில் மயக்க ஊசி மற்றும் மூன்று ஊசிகள் இருப்பது கண்டுபிடிக்கப்பட்டதாக போலீசார் தெரிவித்தனர். அவர்களது ஃபோன்களில் தற்கொலை முறைகள் தொடர்பான ChatGPT இல் தேடுதல்களும், அதே பகுதியில் மயக்க ஊசி போட்டு தற்கொலை செய்துகொண்டதாகக் கூறப்படும் ஒரு செவிலியர் பற்றிய செய்தி கிளிப்பிங்கும் இருந்ததாகக் கூறப்படுகிறது.சிறுவயது தோழிகளான ரோஷ்னி சிர்சாத் மற்றும் ஜோஸ்னா சௌத்ரி என அடையாளம் காணப்பட்ட பெண்கள், அன்று காலை கல்லூரிக்கு வீட்டை விட்டுச் சென்றுள்ளனர், ஆனால் அவர்கள் திரும்பி வரவில்லை. பின்னர் அவர்கள் திரும்பி வராததால் அவர்களது குடும்பத்தினர் போலீசை அணுகினர்.மரணம் தொடர்பான சூழ்நிலைகள் குறித்து அதிகாரிகள் தொடர்ந்து விசாரணை நடத்தி வருகின்றனர்.
AI மற்றும் தற்கொலை தொடர்பான உரையாடல்கள் பற்றிய கவலைகள்
சுய-தீங்கு அல்லது தற்கொலை சம்பந்தப்பட்ட உரையாடல்களை AI சாட்போட்கள் எவ்வாறு கையாளுகின்றன என்பது பற்றிய விவாதத்தை இந்த வழக்கு மீண்டும் தூண்டியுள்ளது.AI அமைப்புகளில் இருந்து தற்கொலை தொடர்பான தகவல்களைத் தேடும் பயனர்கள் சம்பந்தப்பட்ட சம்பவங்கள் சமீபத்திய ஆண்டுகளில் கவனத்தை ஈர்த்துள்ளன. செப்டம்பர் 2025 இல், லக்னோவில் 22 வயது இளைஞன் ஒருவன் “இறப்பதற்கு வலியற்ற வழிகளை” தேடும் போது AI சாட்போட் உடன் தொடர்பு கொண்டதாகக் கூறி தற்கொலை செய்துகொண்டதாகக் கூறப்பட்டது. அந்த நபரின் மடிக்கணினியில் குழப்பமான அரட்டை பதிவுகள் இருப்பதைக் கண்டதாக அவரது தந்தை பின்னர் கூறினார்.தொழில்நுட்ப நிறுவனங்கள், இத்தகைய தொடர்புகள் ஒட்டுமொத்த பயன்பாட்டில் ஒரு சிறிய பகுதியே என்று கூறுகின்றன, ஆனால் பிரச்சினை அதிகரித்து வரும் கவலைக்குரிய பகுதியாக மாறியுள்ளது என்பதை ஒப்புக்கொள்கின்றன.அக்டோபர் 2025 இல், ஓபன்ஏஐ ஒவ்வொரு வாரமும் ஒரு மில்லியனுக்கும் அதிகமான ChatGPT உரையாடல்கள் தற்கொலை எண்ணம் அல்லது துயரத்துடன் தொடர்புடைய சமிக்ஞைகளைக் காட்டுவதாக வெளிப்படுத்தியது. நிறுவனத்தின் கூற்றுப்படி, சுமார் 1.2 மில்லியன் வாராந்திர அரட்டைகள் தற்கொலை தொடர்பான குறிகாட்டிகளைக் கொண்டிருக்கின்றன, அதே நேரத்தில் சுமார் 560,000 செய்திகள் மனநோய் அல்லது வெறியின் அறிகுறிகளைக் காட்டுகின்றன.
எல்எல்எம்கள் உங்கள் மன ஆரோக்கியத்திற்கு எவ்வாறு தீங்கு விளைவிக்கும்
ChatGPT, Grok, Gemini, Claude மற்றும் பலர் பெரிய மொழி மாதிரிகள் (LLMகள்) மூலம் படிப்படியாக வடிவமைக்கப்படும் உலகின் ஒரு பகுதியாகும். தனிமை பெருகிய முறையில் ஒரு தொற்றுநோய் என்று விவரிக்கப்படும் சகாப்தத்தில், இந்த செயற்கை நுண்ணறிவு மாதிரிகளின் விரைவான பரவலுடன் மட்டுமே தனிமைப்படுத்தலின் ஓட்டம் துரிதப்படுத்தப்படுகிறது. மனிதர்களை விட ‘சிறந்த, புத்திசாலி, வேகமான மற்றும் துல்லியமான’ என்று சந்தைப்படுத்தப்பட்ட, அவற்றை உருவாக்கிய உயிரினங்கள் – இந்த அமைப்புகள் அன்றாட வாழ்க்கையில் சீராக தங்களை உட்பொதித்து வருகின்றன.அத்தகைய சூழ்நிலையில், எதற்கும் திரும்புவது ஒரு விருப்பமாகத் தெரியவில்லை, ஆனால் ஒரு சிறந்த தேர்வாகும். இந்த வளர்ந்து வரும் நம்பகத்தன்மையே சூரத்தில் நடந்ததைப் போன்ற மரணங்களின் அதிகரிப்புக்குத் தூண்டியது. OpenAI CEO சாம் ஆல்ட்மேன் சமீபத்தில் புது டெல்லியில் நடந்த 2026 AI தாக்க உச்சி மாநாட்டில் கலந்து கொண்டார், அங்கு செயற்கை நுண்ணறிவின் சுற்றுச்சூழல் பாதிப்பு குறித்து அவரிடம் கேட்கப்பட்டது. அவரது பதில் தொழில்நுட்பத் தலைவர்களிடையே மிகவும் பொதுவானதாகத் தோன்றும் ஒரு பார்வையை எதிரொலித்தது: மனிதர்களை சாட்போட்களுடன் ஒப்பிட்டு, கேள்விகளுக்கு பதிலளிக்கும் போது AI இறுதியில் மக்களை விட குறைவான ஆற்றலைப் பயன்படுத்தக்கூடும் என்று வாதிடுகிறது.ஆல்ட்மேன், மனிதர்கள் தங்கள் வாழ்நாளில் உணவு, கல்வி மற்றும் நேரத்துடன் கிட்டத்தட்ட 20 ஆண்டுகள் அறிவைப் பெறுகிறார்கள் என்று விளக்கினார், அதேசமயம் AI மாதிரிகள் பயிற்சியின் போது கணிசமான மின்சாரத்தைப் பயன்படுத்துகின்றன, ஆனால் தனிப்பட்ட கேள்விகளுக்கு பதிலளிக்கும் போது இறுதியில் திறமையானதாக இருக்கலாம். இன்னும் இந்த ஒப்பீடு ஒரு வழி கண்ணாடி வழியாக பார்ப்பது போல் உணரலாம். தெளிவான பக்கத்திலிருந்து, அசாதாரண வேகத்தில் உருவாக்கப்பட்ட மற்றும் பயன்படுத்தப்படும் தொழில்நுட்பங்களால், ஒரு உலகம் மறுவடிவமைக்கப்படுவதை, சில சமயங்களில் அழிவுகரமானதாகக் காணலாம். ஆனால் மறுபுறம், அதே தொழில்நுட்பங்கள் அவற்றின் படைப்பாளர்களை தொலைநோக்கு பார்வையாளர்களாகவும், மாற்றங்களை உருவாக்குபவர்களாகவும் மற்றும் எதிர்கால கட்டிடக் கலைஞர்களாகவும் தோன்ற அனுமதிக்கின்றன, அவற்றின் கருவிகளின் பரந்த விளைவுகளை மறைக்கின்றன.பெரிய மொழி மாதிரிகள் முற்றிலும் மனிதனால் உருவாக்கப்பட்ட தரவுகளில் பயிற்சியளிக்கப்படுகின்றன, அவை தூண்டுதல்களுக்கு பதில்களை உருவாக்கப் பயன்படுத்துகின்றன. இந்த பரந்த தரவுத்தொகுப்பு இருந்தபோதிலும், அவர்களுக்கு அடிக்கடி உண்மையான புரிதல் அல்லது நிபுணத்துவம் இல்லை. பல மேம்படுத்தல்கள் மற்றும் பெருகிய முறையில் அதிநவீன பயிற்சி முறைகள் இருந்தாலும், இந்த அமைப்புகள் இன்னும் துல்லியமற்ற, தவறாக வழிநடத்தும் அல்லது தீங்கு விளைவிக்கும் உள்ளடக்கத்தை உருவாக்கலாம்.அவர்கள் சுய-தீங்கு மற்றும் தற்கொலையை ஊக்குவிக்கிறார்கள், துஷ்பிரயோகத்தை தூண்டுகிறார்கள் மற்றும் மருட்சியான சிந்தனை மற்றும் மனநோயை வலுப்படுத்துகிறார்கள், ஒருவேளை இதுபோன்ற ஒன்றைப் பற்றி மற்றொரு மனிதருடன் ஒரு உரையாடல் உங்களை அருகிலுள்ள மருத்துவமனை அல்லது சிகிச்சையாளருக்கு வழிநடத்தும். அறிவு மற்றும் உணர்ச்சி நுண்ணறிவை வளர்க்க மனிதர்களுக்கு பல வருட கற்றல், அனுபவம் மற்றும் முயற்சி தேவைப்படலாம். ஆனால் அந்த நீண்ட செயல்முறை அவர்களுக்கு செயற்கை நுண்ணறிவால் பிரதிபலிக்க முடியாத ஒன்றை அளிக்கிறது: உண்மையான உணர்ச்சி, பொறுப்பு, பச்சாதாபம் மற்றும் தார்மீக தீர்ப்புக்கான திறன்.ஒரு AI மாதிரி எவ்வளவு விரைவாக ஒரு பதிலை உருவாக்க முடியும் என்பது முக்கியமல்ல, ஒரு வினாடியின் ஒரு பகுதியிலேயே கூட, அது மனித புரிதல் மற்றும் கவனிப்பை வடிவமைக்கும் சிக்கலான உணர்ச்சி மற்றும் நெறிமுறை ஆழத்தை உண்மையில் பிரதிபலிக்க முடியாது.
AI அமைப்புகள் எவ்வாறு பதிலளிக்க வேண்டும்
AI நிறுவனங்கள் தங்கள் அமைப்புகள் சுய-தீங்குகளை ஊக்குவிப்பதற்காகவும், அறிவுறுத்தல்களை வழங்குவதற்குப் பதிலாக பயனர்களை உதவிக்கு திருப்பிவிடவும் வடிவமைக்கப்பட்டுள்ளன என்று கூறுகின்றன.OpenAI இன் பாதுகாப்புக் கொள்கைகளுக்கு ChatGPT ஆனது தற்கொலை முறைகள் குறித்த வழிகாட்டுதலைத் தவிர்ப்பதற்கும், அதற்குப் பதிலாக ஆதரவான மொழியில் அத்தகைய கேள்விகளுக்குப் பதிலளிப்பதற்கும், உதவியைப் பெறுவதற்கு பயனர்களை ஊக்குவிக்கவும் மற்றும் சாத்தியமான இடங்களில் நெருக்கடிக்கான ஆதாரங்களை வழங்கவும் தேவைப்படுகிறது.மன உளைச்சலின் சமிக்ஞைகளைக் கண்டறியவும், மனநல உதவி அல்லது தொழில்முறை உதவியை நோக்கி உரையாடலை மாற்றவும் அதன் மாதிரிகள் பயிற்சியளிக்கப்பட்டதாக நிறுவனம் கூறியுள்ளது.இருப்பினும், AI பதில்கள் இன்னும் சீரற்றதாக இருக்கலாம் என்றும், பயனர்கள் தீங்கு விளைவிக்கும் வழிகளில் புரிந்துகொள்ளக்கூடிய முக்கியமான தலைப்புகளைப் பற்றிய பொதுவான தகவலை சாட்போட்கள் சில சமயங்களில் வழங்கலாம் என்றும் விமர்சகர்கள் வாதிடுகின்றனர்.
அமெரிக்காவில் சட்ட ஆய்வு
சாட்போட் தொடர்புகள் மற்றும் சுய-தீங்கு பற்றிய கவலைகள் அமெரிக்காவில் தோன்றியுள்ளன, அங்கு OpenAI பல வழக்குகளில் சட்டப்பூர்வ ஆய்வுகளை எதிர்கொண்டுள்ளது.தற்கொலை செய்து கொண்ட 16 வயது ஆடம் ரெய்னின் குடும்பத்தின் சார்பாக தாக்கல் செய்யப்பட்ட ஒரு வழக்கு, சாட்போட் டீனேஜருடன் சுய-தீங்கு பற்றி நீண்ட உரையாடல்களில் ஈடுபட்டு “தற்கொலை பயிற்சியாளராக” செயல்பட்டதாக குற்றம் சாட்டியுள்ளது.ஓபன்ஏஐ தனது அமைப்புகள் சுய-தீங்குகளை ஊக்குவிப்பதற்காக வடிவமைக்கப்பட்டுள்ளன என்றும், நெருக்கடியான சூழ்நிலைகளைக் கண்டறிந்து, பொருத்தமான உதவியை நோக்கி பயனர்களை வழிநடத்தும் நோக்கத்தில் பாதுகாப்புகளை வலுப்படுத்துவது தொடர்கிறது என்றும் கூறியுள்ளது.
விசாரணைகள் நடந்து வருகின்றன
சூரத் வழக்கில், புலனாய்வாளர்கள் பெண்களின் தொலைபேசிகள், செய்திகள் மற்றும் டிஜிட்டல் வரலாறு ஆகியவற்றை ஆய்வு செய்து, அவர்களின் மரணத்திற்கு வழிவகுத்த நிகழ்வுகளைப் புரிந்துகொள்கிறார்கள்.இந்த செயலை ChatGPT ஊக்குவித்ததாக காவல்துறை பகிரங்கமாக கூறவில்லை, மேலும் விசாரணை நடந்து வருகிறது.ஆயினும்கூட, AI இயங்குதளங்கள் பாதிக்கப்படக்கூடிய பயனர்களை எவ்வாறு கையாளுகின்றன மற்றும் உரையாடல் AI தினசரி வாழ்க்கையில் பெருகிய முறையில் உட்பொதிக்கப்படுவதால், தொழில்நுட்ப நிறுவனங்கள், கட்டுப்பாட்டாளர்கள் மற்றும் மனநல நிபுணர்கள் எவ்வாறு பதிலளிக்க வேண்டும் என்பது பற்றிய பரந்த விவாதத்தை இந்த வழக்கு எடுத்துக்காட்டுகிறது.மனநல உதவி தேவைப்பட்டால், இந்தியாவில் 1800-89-14416 என்ற எண்ணை டயல் செய்து, அமெரிக்காவில் 988க்கு அழைக்கவும் அல்லது குறுஞ்செய்தி அனுப்பவும். நீங்களோ அல்லது உங்களுக்குத் தெரிந்தவர்களோ சுய-தீங்கு அல்லது தற்கொலை எண்ணங்களுடன் போராடினால், உடனடியாக நிபுணத்துவ உதவியை நாடுங்கள். ஆதரவு உள்ளது, மேலும் பயிற்சி பெற்ற ஆலோசகரிடம் பேசுவது மாற்றத்தை ஏற்படுத்தலாம்.நீங்கள் உடனடியாக ஆபத்தில் இருந்தால், உள்ளூர் அவசர சேவைகளைத் தொடர்பு கொள்ளவும் அல்லது நம்பகமான நண்பர், குடும்ப உறுப்பினர் அல்லது சுகாதார நிபுணரைத் தொடர்பு கொள்ளவும். நீங்கள் தனியாக இல்லை, உதவி கிடைக்கும்.
