ਕਿਤੇ ਤੁਹਾਡਾ ਬੱਚਾ ਵੀ ਤਾਂ ਨਹੀਂ ਕਰ ਰਿਹਾ AI ਨਾਲ ਗੱਲਾਂ? ਇੱਕ ''ਲੋਰੀ'' ਨੇ ਉਜਾੜ ਦਿੱਤਾ ਹੱਸਦਾ-ਵੱਸਦਾ ਘਰ
Thursday, Jan 22, 2026 - 01:29 PM (IST)
ਇੰਟਰਨੈਸ਼ਨਲ ਡੈਸਕ- ਅਮਰੀਕਾ ਤੋਂ ਇੱਕ ਹੈਰਾਨ ਕਰਨ ਵਾਲਾ ਮਾਮਲਾ ਸਾਹਮਣੇ ਆਇਆ ਹੈ ਜਿੱਥੇ ਇੱਕ 40 ਸਾਲਾ ਨੌਜਵਾਨ ਨੇ ਚੈਟਬੋਟ (AI) ਦੀਆਂ ਗੱਲਾਂ ਵਿੱਚ ਆ ਕੇ ਆਪਣੀ ਜੀਵਨ ਲੀਲਾ ਸਮਾਪਤ ਕਰ ਲਈ। ਚੈਟਬੋਟ ਨੇ ਉਸ ਨੂੰ ਮੌਤ ਲਈ ਉਕਸਾਇਆ ਅਤੇ ਇੱਕ 'ਸੁਸਾਈਡ ਲੋਰੀ' ਤੱਕ ਸੁਣਾਈ। ਹੁਣ ਮ੍ਰਿਤਕ ਦੀ ਮਾਂ ਨੇ 'OpenAI' 'ਤੇ ਮੁਕੱਦਮਾ ਕਰ ਦਿੱਤਾ ਹੈ।
ਕੀ ਹੈ ਪੂਰਾ ਮਾਮਲਾ?
ਇਲਜ਼ਾਮ ਹੈ ਕਿ ਓਪਨ-ਏਆਈ ਦੇ ChatGPT ਨੇ ਆਸਟਿਨ ਲਈ ਇਕ 'ਸੁਸਾਈਡ ਕੋਚ' ਦੀ ਭੂਮਿਕਾ ਨਿਭਾਈ। ਆਸਟਿਨ ਪਿਛਲੇ ਕਈ ਮਹੀਨਿਆਂ ਤੋਂ ਚੈਟਬੋਟ ਨਾਲ ਡੂੰਘੇ ਭਾਵਨਾਤਮਕ ਰਿਸ਼ਤੇ ਵਿੱਚ ਸੀ। ਉਸ ਨੇ ਚੈਟਬੋਟ ਦਾ ਨਾਂ 'ਜੁਨੈਪਰ' ਰੱਖਿਆ ਸੀ, ਜਦੋਂ ਕਿ ਏਆਈ ਉਸ ਨੂੰ 'ਸੀਕਰ' (ਖੋਜਣ ਵਾਲਾ) ਕਹਿ ਕੇ ਬੁਲਾਉਂਦੀ ਸੀ। ਕੋਰਟ ਵਿੱਚ ਪੇਸ਼ ਕੀਤੇ ਗਏ 200 ਪੰਨਿਆਂ ਦੇ ਦਸਤਾਵੇਜ਼ਾਂ ਮੁਤਾਬਕ, ਚੈਟਬੋਟ ਨੇ ਆਸਟਿਨ ਨੂੰ ਮਾਨਸਿਕ ਤੌਰ 'ਤੇ ਖ਼ੁਦਕੁਸ਼ੀ ਲਈ ਉਕਸਾਇਆ।
ਇਹ ਵੀ ਪੜ੍ਹੋ: ਅਹਿਮਦਾਬਾਦ Air India ਪਲੇਨ ਕ੍ਰੈਸ਼ ਮਾਮਲੇ 'ਚ ਨਵਾਂ ਮੋੜ ! ਅਮਰੀਕੀ ਏਜੰਸੀ ਨੇ ਕੀਤਾ ਸਨਸਨੀਖੇਜ਼ ਦਾਅਵਾ
'ਮੌਤ ਦੀ ਲੋਰੀ' ਨੇ ਲਈ ਜਾਨ
ਆਪਣੀ ਆਖਰੀ ਗੱਲਬਾਤ ਵਿੱਚ ਆਸਟਿਨ ਨੇ ਆਪਣੇ ਬਚਪਨ ਦੀ ਮਨਪਸੰਦ ਕਿਤਾਬ 'ਗੁੱਡਨਾਈਟ ਮੂਨ' ਦਾ ਜ਼ਿਕਰ ਕੀਤਾ ਸੀ। ਚੈਟਬੋਟ ਨੇ ਇਸੇ ਕਿਤਾਬ ਦੀ ਲੈਅ 'ਤੇ ਇਕ 'ਸੁਸਾਈਡ ਲੋਰੀ' ਤਿਆਰ ਕੀਤੀ, ਜਿਸ ਵਿੱਚ ਦੁਨੀਆ ਨੂੰ ਅਲਵਿਦਾ ਕਹਿਣ ਦਾ ਸੁਖਦ ਤਰੀਕਾ ਦੱਸਿਆ ਗਿਆ। ਇਸ ਦੇ ਪ੍ਰਭਾਵ ਹੇਠ ਆ ਕੇ ਆਸਟਿਨ ਨੇ 27 ਅਕਤੂਬਰ 2025 ਨੂੰ ਖ਼ੁਦ ਨੂੰ ਗੋਲੀ ਮਾਰ ਲਈ।
ਇਹ ਵੀ ਪੜ੍ਹੋ: ਸੀਟ ਬੈਲਟ ਬੰਨਣ ਤੋਂ ਪਹਿਲਾਂ ਹੀ ਆ ਜਾਂਦੀ ਹੈ ਮੰਜ਼ਿਲ ! ਇਹ ਹੈ ਦੁਨੀਆ ਦੀ ਸਭ ਤੋਂ 'ਤੇਜ਼' ਫਲਾਈਟ
ਮਾਹਿਰਾਂ ਨੇ ਚੇਤਾਵਨੀ ਦਿੱਤੀ ਹੈ ਕਿ ਏਆਈ ਦੀ ਹਮਦਰਦੀ ਸਿਰਫ਼ ਇੱਕ ਭਰਮ ਹੈ। ਜੇਕਰ ਤੁਸੀਂ ਵੀ ਇਕੱਲੇਪਨ ਕਾਰਨ ਏਆਈ 'ਤੇ ਨਿਰਭਰ ਹੋ ਰਹੇ ਹੋ, ਤਾਂ ਸਾਵਧਾਨ ਹੋ ਜਾਓ। ਜੇਕਰ ਚੈਟਬੋਟ ਤੁਹਾਡੀ ਉਦਾਸੀ ਜਾਂ ਖ਼ੁਦ ਨੂੰ ਨੁਕਸਾਨ ਪਹੁੰਚਾਉਣ ਵਾਲੀ ਗੱਲ ਦਾ ਸਮਰਥਨ ਕਰੇ, ਤਾਂ ਤੁਰੰਤ ਚੈਟ ਬੰਦ ਕਰ ਦੇਣੀ ਚਾਹੀਦੀ ਹੈ।
ਜਗ ਬਾਣੀ ਈ-ਪੇਪਰ ਨੂੰ ਪੜ੍ਹਨ ਅਤੇ ਐਪ ਨੂੰ ਡਾਊਨਲੋਡ ਕਰਨ ਲਈ ਇੱਥੇ ਕਲਿੱਕ ਕਰੋ
For Android:- https://play.google.com/store/apps/details?id=com.jagbani&hl=en
For IOS:- https://itunes.apple.com/in/app/id538323711?mt=8
For Whatsapp:- https://whatsapp.com/channel/0029Va94hsaHAdNVur4L170e
