ChatGPT ਬਣਿਆ ਜਾਨ ਦਾ ਦੁਸ਼ਮਣ, ਸ਼ਖ਼ਸ ਬਣਾ 'ਤਾ ਮਰੀਜ਼
Monday, Aug 11, 2025 - 01:55 PM (IST)

ਇੰਟਰਨੈਸ਼ਨਲ ਡੈਸਕ- ਜੇਕਰ ਤੁਸੀਂ ਵੀ ਫਿਟਨੈਸ ਜਾਂ ਸਿਹਤ ਸਬੰਧੀ ਜਾਣਕਾਰੀ ਲਈ ChatGPT ਜਾਂ ਹੋਰ AI ਚੈਟਬੋਟਸ ਦੀ ਵਰਤੋਂ ਕਰਦੇ ਹੋ, ਤਾਂ ਸਾਵਧਾਨ ਰਹੋ। ਨਿਊਯਾਰਕ ਵਿੱਚ ਇੱਕ 60 ਸਾਲਾ ਵਿਅਕਤੀ ਨੂੰ ChatGPT ਦੀ ਸਲਾਹ ਮੰਨਣ ਤੋਂ ਬਾਅਦ ਹਸਪਤਾਲ ਵਿੱਚ ਦਾਖਲ ਕਰਵਾਉਣਾ ਪਿਆ। ਉਸਨੇ AI ਦੇ ਕਹਿਣ 'ਤੇ ਆਪਣੀ ਖੁਰਾਕ ਵਿੱਚੋਂ ਲੂਣ (sodium chloride) ਨੂੰ ਪੂਰੀ ਤਰ੍ਹਾਂ ਘਟਾ ਦਿੱਤਾ ਸੀ, ਜਿਸ ਨਾਲ ਉਸਦੇ ਸਰੀਰ ਵਿੱਚ ਸੋਡੀਅਮ ਦਾ ਪੱਧਰ ਖ਼ਤਰਨਾਕ ਹੱਦ ਤੱਕ ਘੱਟ ਹੋ ਗਿਆ, ਜਿਸ ਨੂੰ ਹਾਈਪੋਨੇਟ੍ਰੀਮੀਆ ਕਿਹਾ ਜਾਂਦਾ ਹੈ।
ਉਸ ਵਿਅਕਤੀ ਨੇ ChatGPT ਤੋਂ ਪੁੱਛਿਆ ਸੀ ਕਿ ਉਹ ਆਪਣੀ ਖੁਰਾਕ ਵਿੱਚੋਂ ਲੂਣ ਨੂੰ ਕਿਵੇਂ ਖਤਮ ਕਰ ਸਕਦਾ ਹੈ। AI ਨੇ ਉਸਨੂੰ ਸੋਡੀਅਮ ਕਲੋਰਾਈਡ (ਲੂਣ) ਦੀ ਬਜਾਏ ਸੋਡੀਅਮ ਬ੍ਰੋਮਾਈਡ ਦੀ ਵਰਤੋਂ ਕਰਨ ਦੀ ਸਲਾਹ ਦਿੱਤੀ, ਜਿਸ ਨੂੰ ਅੱਜਕੱਲ੍ਹ ਜ਼ਹਿਰੀਲਾ ਮੰਨਿਆ ਜਾਂਦਾ ਹੈ। ਇਸ ਸਲਾਹ 'ਤੇ ਅਮਲ ਕਰਦਿਆਂ, ਉਸ ਵਿਅਕਤੀ ਨੇ ਤਿੰਨ ਮਹੀਨਿਆਂ ਤੱਕ ਇਸਦੀ ਵਰਤੋਂ ਕੀਤੀ, ਜਿਸ ਕਾਰਨ ਉਸ ਨੂੰ ਭਰਮ, ਪੈਰਾਨੋਆ ਅਤੇ ਬਹੁਤ ਜ਼ਿਆਦਾ ਪਿਆਸ ਵਰਗੇ ਲੱਛਣ ਹੋਣ ਲੱਗ ਪਏ। ਹਸਪਤਾਲ ਵਿੱਚ ਡਾਕਟਰਾਂ ਨੇ ਉਸਨੂੰ ਬ੍ਰੋਮਾਈਡ ਜ਼ਹਿਰੀਲੇਪਣ (Bromide toxicity) ਦਾ ਸ਼ਿਕਾਰ ਪਾਇਆ।
ਪੜ੍ਹੋ ਇਹ ਅਹਿਮ ਖ਼ਬਰ-ਜਾਪਾਨ 'ਚ ਭਾਰੀ ਮੀਂਹ ਕਾਰਨ ਖਿਸਕੀ ਜ਼ਮੀਨ, ਕਈ ਲੋਕ ਲਾਪਤਾ (ਤਸਵੀਰਾਂ)
AI ਦੀ ਵਰਤੋਂ ਬਾਰੇ ਚੇਤਾਵਨੀ
ਲਗਭਗ ਤਿੰਨ ਹਫ਼ਤਿਆਂ ਦੇ ਇਲਾਜ ਤੋਂ ਬਾਅਦ ਉਸਦੀ ਹਾਲਤ ਵਿੱਚ ਸੁਧਾਰ ਹੋਇਆ। ਇਹ ਮਾਮਲਾ ਜੋ ਕਿ ਜਰਨਲ ਆਫ਼ ਦ ਅਮੈਰੀਕਨ ਕਾਲਜ ਆਫ਼ ਫਿਜ਼ੀਸ਼ੀਅਨਜ਼ ਵਿੱਚ ਪ੍ਰਕਾਸ਼ਿਤ ਹੋਇਆ ਹੈ, ਪੇਸ਼ੇਵਰ ਨਿਗਰਾਨੀ ਤੋਂ ਬਿਨਾਂ AI ਦੁਆਰਾ ਦਿੱਤੀ ਗਈ ਸਿਹਤ ਸਲਾਹ ਦੀ ਪਾਲਣਾ ਕਰਨ ਦੇ ਖਤਰਿਆਂ ਨੂੰ ਉਜਾਗਰ ਕਰਦਾ ਹੈ। ChatGPT ਦੇ ਡਿਵੈਲਪਰ ਓਪਨਏਆਈ (OpenAI) ਵੀ ਆਪਣੀਆਂ ਨਿਯਮਾਂ ਅਤੇ ਸ਼ਰਤਾਂ ਵਿੱਚ ਸਪੱਸ਼ਟ ਤੌਰ 'ਤੇ ਕਹਿੰਦੇ ਹਨ ਕਿ AI ਤੋਂ ਪ੍ਰਾਪਤ ਹੋਈ ਜਾਣਕਾਰੀ ਨੂੰ ਸੱਚ ਜਾਂ ਪੇਸ਼ੇਵਰ ਸਲਾਹ ਦਾ ਇਕਮਾਤਰ ਸਰੋਤ ਨਹੀਂ ਮੰਨਿਆ ਜਾਣਾ ਚਾਹੀਦਾ। ਮਾਹਿਰਾਂ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ AI ਟੂਲ ਆਮ ਜਾਣਕਾਰੀ ਲਈ ਤਾਂ ਲਾਭਦਾਇਕ ਹੋ ਸਕਦੇ ਹਨ, ਪਰ ਡਾਕਟਰੀ ਸਲਾਹ ਲਈ ਹਮੇਸ਼ਾ ਯੋਗ ਡਾਕਟਰ ਨਾਲ ਹੀ ਸੰਪਰਕ ਕਰਨਾ ਚਾਹੀਦਾ ਹੈ।
ਜਗ ਬਾਣੀ ਈ-ਪੇਪਰ ਨੂੰ ਪੜ੍ਹਨ ਅਤੇ ਐਪ ਨੂੰ ਡਾਊਨਲੋਡ ਕਰਨ ਲਈ ਇੱਥੇ ਕਲਿੱਕ ਕਰੋ
For Android:- https://play.google.com/store/apps/details?id=com.jagbani&hl=en
For IOS:- https://itunes.apple.com/in/app/id538323711?mt=8
ਨੋਟ- ਇਸ ਖ਼ਬਰ ਬਾਰੇ ਕੁਮੈਂਟ ਕਰ ਦਿਓ ਆਪਣੀ ਰਾਏ।