ਕੀ ਹੁਣ ਜੰਗ ਵਿਚ ਫੌਜੀਆਂ ਦੀ ਥਾਂ ਰੋਬੋਟ ਲੜਿਆ ਕਰਨਗੇ ਲੜਾਈ

Thursday, Apr 15, 2021 - 05:35 PM (IST)

ਕੀ ਹੁਣ ਜੰਗ ਵਿਚ ਫੌਜੀਆਂ ਦੀ ਥਾਂ ਰੋਬੋਟ ਲੜਿਆ ਕਰਨਗੇ ਲੜਾਈ

ਇਰਾਨ ਦੀ ਰਾਜਧਾਨੀ ਤਹਿਰਾਨ

ਵਿਗਿਆਨਿਕ ਮੋਹਸਿਨ ਫ਼ਖ਼ਰੀਜ਼ਾਦੇਹ ਦੀਆਂ ਗੱਡੀਆਂ ਦਾ ਕਾਫ਼ਲਾ ਰਾਜਧਾਨੀ ਦੇ ਬਾਹਰੀ ਇਲਾਕੇ ਵਿੱਚੋਂ ਲੰਘ ਰਿਹਾ ਸੀ।

ਉਹ ਇਰਾਨ ਦੇ ਸਭ ਤੋਂ ਸੀਨੀਅਰ ਪਰਮਾਣੂ ਵਿਗਿਆਨਿਕ ਮੰਨੇ ਜਾਂਦੇ ਸਨ ਅਤੇ ਸੁਰੱਖਿਆ ਦੇ ਸਖ਼ਤ ਪਹਿਰੇ ਵਿੱਚ ਰਹਿੰਦੇ ਸਨ।

ਕੁਝ ਦੇਰ ਬਾਅਦ ਫ਼ਖ਼ਰੀਜ਼ਾਦੇਹ ਦੀ ਗੱਡੀ ''ਤੇ ਹਮਲਾ ਹੋਇਆ। ਜ਼ਬਰਦਸਤ ਗੋਲੀ ਬਾਰੀ ਹੋਈ ਅਤੇ ਉਨ੍ਹਾਂ ਦੀ ਮੌਤ ਹੋ ਗਈ। ਇਹ ਕੋਈ ਸਧਾਰਨ ਹਮਲਾ ਨਹੀਂ ਸੀ।

ਮੌਕੇ ''ਤੇ ਮੌਜੂਦ ਰਹੇ ਇੱਕ ਸੀਨੀਅਰ ਅਧਿਕਾਰੀ ਨੇ ਦੱਸਿਆ ਕਿ ਉਥੇ ਕੋਈ ਹਮਲਾਵਰ ਨਹੀਂ ਸੀ। ਗੋਲੀਆਂ ਇੱਕ ਕਾਰ ਵਿੱਚ ਲੱਗੀ ਮਸ਼ੀਨਗੰਨ ਨਾਲ ਚਲਾਈਆਂ ਗਈਆਂ ਪਰ ਮਸ਼ੀਨਗੰਨ ਨੂੰ ਚਲਾਉਣ ਵਾਲਾ ਕੋਈ ਨਹੀਂ ਸੀ।

ਇਹ ਵੀ ਪੜ੍ਹੋ

ਈਰਾਨ ਦੇ ਇੱਕ ਹੋਰ ਅਧਿਕਾਰੀ ਨੇ ਦੱਸਿਆ ਕਿ ਮਸ਼ੀਨਗੰਨ ਨੂੰ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਜ਼ਰੀਏ ਕੰਟਰੋਲ ਕੀਤਾ ਜਾ ਰਿਹਾ ਸੀ।

''ਕੰਪਿਊਟਰ ਨਾਲ ਕਾਬੂ ਹੋਣ ਵਾਲੀ ਮਸ਼ੀਨਗੰਨ''। ਇਹ ਹੌਲੀਵੁੱਡ ਦੀ ''''ਕਿਲਰ ਰੋਬੋਟ'''' ਸੀਰੀਜ਼ ਵਾਲੀਆਂ ਫ਼ਿਲਮਾਂ ਤੋਂ ਪ੍ਰੇਰਿਤ ਕਹਾਣੀ ਦਾ ਹਿੱਸਾ ਲਗਦਾ ਹੈ।

ਜਿਥੇ ਇੱਕ ਅਜਿਹੀ ਮਸ਼ੀਨ ਹੈ, ਜੋ ਸੋਚ ਸਕਦੀ ਹੈ ਅਤੇ ਨਿਸ਼ਾਨਾਂ ਸਾਧ ਕੇ ਗੋਲੀ ਵੀ ਚਲਾ ਸਕਦੀ ਹੈ।

ਪਰ ਕੀ ਅਜਿਹਾ ਸੰਭਵ ਹੈ? ਜੇ ਹੈ ਤਾਂ ਇੱਕ ਹੋਰ ਸਵਾਲ ਖੜਾ ਹੁੰਦਾ ਹੈ ਕਿ ਕੀ ਆਉਣ ਵਾਲੇ ਦਿਨਾਂ ਵਿੱਚ ਜੰਗ ਵਿੱਚ ਵੀ ਸੈਨਿਕਾਂ ਦੀ ਜਗ੍ਹਾ ਹੁਣ ਰੋਬੋਟ ਆਹਮਣੇ-ਸਾਹਮਣੇ ਹੋਣਗੇ?

ਰੋਬੋਟ
Getty Images
ਜਦੋਂ ਜੰਗ ਵਿੱਚ ਰੋਬੋਟ ਦੇ ਇਸਤੇਮਾਲ ਦੀ ਗੱਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਮਾਹਾਰਾਂ ਦੀ ਜ਼ੁਬਾਨ ''ਤੇ ਜੋ ਸ਼ਬਦ ਹੁੰਦਾ ਹੈ ਉਹ ਹੈ ''ਆਟੋਨੋਮਸ''

ਜੰਗ ''ਚ ਲੜਨਗੇ ਰੋਬੋਟ?

ਅਮਰੀਕਾ ਦੀ ਜਾਨ ਹਾਪਿਨਸ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਸੀਨੀਅਰ ਰਿਸਰਚ ਐਨਾਲਿਸਟ ਹੈਦਰ ਰਾਫ਼ ਕਹਿੰਦੇ ਹਨ, ਅਸੀਂ ਇੱਕ ਅਜਿਹੇ ਸਿਸਟਮ ਦੀ ਗੱਲ ਕਰ ਰਹੇ ਹਾਂ, ਜਿਸ ਦੇ ਕੋਲ ਇਹ ਸਮਰੱਥਾ ਹੈ ਕਿ ਉਹ ਕਿਸੇ ਮਨੁੱਖੀ ਮਦਦ ਜਾਂ ਨਿਰਦੇਸ਼ ਦੇ ਬਿਨਾਂ ਆਪਣੇ ਟੀਚੇ ਤੈਅ ਕਰੇ ਅਤੇ ਉਨ੍ਹਾਂ ਨੂੰ ਪੂਰਾ ਕਰ ਸਕੇ।''''

ਇਥੇ ਇਹ ਸਮਝਣਾ ਹੋਵੇਗਾ ਕਿ ਜਦੋਂ ਜੰਗ ਵਿੱਚ ਰੋਬੋਟ ਦੇ ਇਸਤੇਮਾਲ ਦੀ ਗੱਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਮਾਹਾਰਾਂ ਦੀ ਜ਼ੁਬਾਨ ''ਤੇ ਜੋ ਸ਼ਬਦ ਹੁੰਦਾ ਹੈ ਉਹ ਹੈ ''ਆਟੋਨੋਮਸ''। ਯਾਨੀ ਮਸ਼ੀਨ ਨੂੰ ਖ਼ੁਦ ਫ਼ੈਸਲੇ ਲੈਣ ਦੀ ਤਾਕਤ ਦੇਣਾ। ਇਸ ਨੂੰ ਲੈ ਕੇ ਬਹਿਸ ਹੁੰਦੀ ਰਹਿੰਦੀ ਹੈ।

ਇਨ੍ਹਾਂ ਹਥਿਆਰਾਂ ਦਾ ਦਾਇਰਾ ਵੀ ਕਾਫ਼ੀ ਵੱਡਾ ਹੈ। ਇਨ੍ਹਾਂ ਵਿੱਚ ਮੁੱਢਲੀ (ਪ੍ਰਾਇਮਰੀ) ਪੱਧਰ ਦੇ ਹਥਿਆਰਾਂ ਤੋਂ ਲੈ ਕੇ ਟਰਮੀਨੇਟਰ ਤੱਕ ਆਉਂਦੇ ਹਨ। ਹੈਦਰ ਕਹਿੰਦੇ ਹਨ ਕਿ ਅੱਜ ਵੀ ਅਜਿਹੇ ਹਥਿਆਰ ਮੌਜੂਦ ਹਨ।

ਉਹ ਕਹਿੰਦੇ ਹਨ, ''''ਸਾਡੇ ਕੋਲ ਸਮੁੰਦਰੀ ਸੁਰੰਗ, ਕਈ ਤਰ੍ਹਾਂ ਦੀਆਂ ਜ਼ਮੀਨੀ ਸੁਰੰਗਾਂ, ਸਾਈਬਰ ਤਕਨੀਕ ਅਤੇ ਸਾਈਬਰ ਹਥਿਆਰ ਹਨ ਜੋ ਆਟੋਨੋਮਸ ਹਨ। ਫ਼ਿਰ ਇਸਰਾਈਲ ਦੀ ਐਂਟੀ ਰੇਡੀਏਸ਼ਨ ਮਿਸਾਈਲ ਹੈਰੋਪ ਹੈ। ਇਹ ਕਿਹਾ ਜਾਂਦਾ ਹੈ ਕਿ ਲੌਂਚ ਕੀਤੇ ਜਾਣ ਤੋਂ ਬਾਅਦ ਇਹ ਸਿਗਨਲ ਦੇ ਆਧਾਰ ''ਤੇ ਹਮਲਾ ਕਰਨ ਬਾਰੇ ਖ਼ੁਦ ਤੈਅ ਕਰਦੀ ਹੈ। ਤੁਸੀਂ ਪੈਟੀਅਲ ਮਿਸਾਈਲ ਨੂੰ ਨਿਰਦੇਸ਼ਿਤ ਕਰਦੇ ਹੋਏ ਆਟੋਮੈਟਿਕ ਮੋਡ ਵਿੱਚ ਤਾਇਨਾਤ ਕਰ ਸਕਦੇ ਹੋ।''''

''''ਕਿਲਰ ਰੋਬੋਟ'''' ਦੇ ਜੰਗ ਵਿੱਚ ਇਸਤੇਮਾਲ ਦੇ ਵਿਚਾਰ ਨਾਲ ਕਈ ਲੋਕਾਂ ਨੂੰ ਚਾਹੇ ਹੈਰਾਨੀ ਹੋਵੇ ਪਰ ਸੱਚ ਇਹ ਹੈ ਕਿ ਦੁਨੀਆਂ ਭਰ ''ਚ ਹੁਣ ਵੀ ਅਜਿਹੀ ਤਕਨੀਕ ਵਿਕਸਿਤ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ।

ਹੈਦਰ ਰਾਫ਼ ਕਹਿੰਦੇ ਹਨ, ''''ਚੀਨ ਆਪਣੀ ਸੈਨਾ ਨੂੰ ਮਜ਼ਬੂਤ ਬਣਾਉਣਾ ਚਾਹੁੰਦਾ ਹੈ। ਉਹ ਆਪਣੀ ਜਲ ਸੈਨਾ ਲਈ ਜਹਾਜ਼ਾਂ ਅਤੇ ਪਣਡੁੱਬੀਆਂ ਨੂੰ ਸਵੈਚਾਲਕ ਬਣਾ ਰਹੇ ਹਨ।

ਇਸਰਾਈਲ ਜ਼ਮੀਨੀ ਹਥਿਆਰਾਂ ਮਸਲਨ ਟੈਂਕਾਂ ਅਤੇ ਤੋਪਾਂ ਨੂੰ ਬਿਹਤਰ ਬਣਾਉਣ ਵਿੱਚ ਲੱਗਿਆ ਹੋਇਆ ਹੈ।''''

ਉਨ੍ਹਾਂ ਅੱਗੇ ਦੱਸਿਆ, '''' ਰੂਸ ਵੀ ਜ਼ਮੀਨੀ ਉਪਕਰਣਾਂ ''ਤੇ ਕਾਫ਼ੀ ਰਕਮ ਖ਼ਰਚ ਕਰ ਰਿਹਾ ਹੈ। ਅਮਰੀਕਾ ਦੀ ਦਿਲਚਸਪੀ ਹਰ ਜਗ੍ਹਾ ਹੈ। ਏਅਰਫ਼ੋਰਸ, ਏਅਰਬੇਸ ਸਿਸਟਮ ਤੋਂ ਲੈ ਕੇ ਮਿਜ਼ਾਈਲ ਤੱਕ। ਯੂਕੇ ਵੀ ਆਪਣੀ ਹਵਾਈ ਸੈਨਾ ਅਤੇ ਜਲ ਸੈਨਾ ਦੀ ਸਮਰੱਥਾ ਵਧਾਉਣਾ ਚਾਹੁੰਦਾ ਹੈ।''''

ਇਹ ਵੀ ਪੜ੍ਹੋ

ਰੋਬੋਟ
Getty Images
''''ਕਿਲਰ ਰੋਬੋਟ'''' ਦੇ ਜੰਗ ਵਿੱਚ ਇਸਤੇਮਾਲ ਦੇ ਵਿਚਾਰ ਨਾਲ ਕਈ ਲੋਕਾਂ ਨੂੰ ਚਾਹੇ ਹੈਰਾਨੀ ਹੋਵੇ ਪਰ ਸੱਚ ਇਹ ਹੈ ਕਿ ਦੁਨੀਆਂ ਭਰ ''ਚ ਹੁਣ ਵੀ ਅਜਿਹੀ ਤਕਨੀਕ ਵਿਕਸਿਤ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ

ਮਾਹਰਾਂ ਦੀ ਚਿੰਤਾ

ਅਹਿਮ ਗੱਲ ਇਹ ਹੈ ਕਿ ਹਾਲੇ ਜੋ ਸਾਰੇ ਹਥਿਆਰ ਵਿਕਸਿਤ ਹੋ ਰਹੇ ਹਨ, ਉਨ੍ਹਾਂ ਵਿੱਚੋਂ ਸਾਰੇ ਰੋਬੋਟ ਕਿਲਰ ਨਹੀਂ ਹੋਣਗੇ। ਪਰ ਕੁਝ ਹਥਿਆਰਾਂ ਅਤੇ ਦੇਸਾਂ ਨੂੰ ਲੈ ਕੇ ਹੈਦਰ ਫ਼ਿਕਰਮੰਦ ਨਜ਼ਰ ਆਉਂਦੇ ਹਨ।

ਉਹ ਕਹਿੰਦੇ ਹਨ, ''''ਪੱਛਮੀ ਦੇਸ ਜੋਖ਼ਮ ਨੂੰ ਘੱਟ ਕਰਨਾ ਚਾਹੁੰਦੇ ਹਨ। ਉਹ ਆਪਣੇ ਸਿਸਟਮ ਨੂੰ ਭਰਪੂਰ ਟੈਸਟ ਕਰਦੇ ਹਨ ਪਰ ਰੂਸ ਜਲਦੀ ਵਿਕਸਿਤ ਕੀਤੇ ਗਏ ਉਪਕਰਣਾਂ ਨੂੰ ਜ਼ਿਆਦਾ ਟੈਸਟਿੰਗ ਕੀਤੇ ਬਿਨਾ ਹੀ ਤਾਇਨਾਤ ਕਰ ਦਿੰਦਾ ਹੈ। ਮੈਂ ਇਸੇ ਨੂੰ ਲੈ ਕੇ ਹੀ ਫ਼ਿਕਰਮੰਦ ਹਾਂ।"

ਹੈਦਰ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਬਿਨਾ ਟੈਸਟ ਕੀਤੇ ਹੋਏ ਸਿਸਟਮ ਨੂੰ ਮੋਰਚੇ ''ਤੇ ਲਗਾਉਣਾ ਕਿਸੇ ਤਬਾਹੀ ਨੂੰ ਸੱਦਾ ਦੇਣ ਵਰਗਾ ਹੈ।"

ਆਕਸਫ਼ੋਰਡ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਐਸੋਸੀਏਟ ਪ੍ਰੋਫ਼ੈਸਰ ਟੌਮ ਸਿੰਪਸਨ ਨੇ ਜੰਗ ਦੇ ਪ੍ਰਭਾਵ ਨੂੰ ਸਮਝਣ ਵਿੱਚ ਕਈ ਸਾਲ ਲਗਾਏ ਹਨ। ਉਹ ਪੰਜ ਸਾਲਾਂ ਤੱਕ ਯੂਕੇ ਦੀ ਸੈਨਾ ਨਾਲ ਜੁੜੇ ਰਹੇ ਹਨ। ਤਕਨੀਕੀ ਅਤੇ ਸੁਰੱਖਿਆ ਨਾਲ ਜੁੜੇ ਸਵਾਲਾਂ ਵਿੱਚ ਉਨ੍ਹਾਂ ਦੀ ਦਿਲਚਸਪੀ ਲਗਾਤਾਰ ਬਣੀ ਹੋਈ ਹੈ

ਜੰਗ ਵਰਗੇ ਖ਼ਤਰਨਾਕ ਮੋਰਚਿਆਂ ''ਤੇ ਇਨਸਾਨਾਂ ਦੀ ਬਜਾਇ ਰੋਬੋਟ ਤਾਇਨਾਤ ਕਰਨ ਦੇ ਵਿਚਾਰ ''ਤੇ ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ''''ਇਸ ਦੇ ਪੱਖ ਵਿੱਚ ਇੱਕ ਅਜਿਹ ਤਰਕ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ ਜੋ ਸਰਕਾਰਾਂ ਦੀ ਨੈਤਿਕ ਧਰਾਤਲ ਨੂੰ ਮਜ਼ਬੂਤ ਕਰ ਦਿੰਦਾ ਹੈ। ਸਰਕਾਰਾਂ ਦੀ ਇਹ ਜ਼ਿੰਮੇਵਾਰੀ ਹੈ ਕਿ ਆਪਣੇ ਸੈਨਿਕਾਂ ਦੀ ਜਾਨ ਬਚਾਉਣ ਲੀ ਉਹ ਅਜਿਹੇ ਸਿਸਟਮ ਵਿਕਸਿਤ ਕਰਨ।''''

ਪਰ ਟੌਮ ਸੁਚੇਤ ਕਰਦੇ ਹਨ ਕਿ ਇਸ ਤਕਨੀਕ ਦੇ ਖ਼ਤਰੇ ਵੀ ਹਨ।

ਬੀਬੀਸੀ ਪੰਜਾਬੀ ਨੂੰ ਆਪਣੇ ਐਂਡਰਾਇਡ ਫ਼ੋਨ ''ਤੇ ਇੰਝ ਲੈ ਕੇ ਆਓ:

https://www.youtube.com/watch?v=xWw19z7Edrs

iran
Getty Images
ਹੈਦਰ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਬਿਨਾ ਟੈਸਟ ਕੀਤੇ ਹੋਏ ਸਿਸਟਮ ਨੂੰ ਮੋਰਚੇ ''ਤੇ ਲਗਾਉਣਾ ਕਿਸੇ ਤਬਾਹੀ ਨੂੰ ਸੱਦਾ ਦੇਣ ਵਰਗਾ ਹੈ।"

ਮਸ਼ੀਨ ਕਰ ਸਕਦੀ ਹੈ ਗ਼ਲਤੀ!

ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ, ''''ਇਹ ਡਰ ਬਣਿਆ ਰਹਿੰਦਾ ਹੈ ਕਿ ਤਕਨੀਕ ਗ਼ਲਤ ਫ਼ੈਸਲੇ ਲੈ ਸਕਦੀ ਹੈ। ਇਹ ਅਜਿਹੇ ਲੋਕਾਂ ਦੀ ਜਾਨ ਲੈ ਸਕਦੀ ਹੈ, ਜਿਨ੍ਹਾਂ ਦੀ ਜਾਨ ਨਹੀਂ ਜਾਣੀ ਚਾਹੀਦੀ। ਇਸ ਬਾਰੇ ਵਿੱਚ ਜ਼ਿਕਰ ਕਰਨਾ ਸਹੀ ਵੀ ਹੈ। ਜੇ ਸੈਨਿਕ ਇੱਕ ਇਨਸਾਨ ਹੋਵੇ ਤਾਂ ਆਪਣੇ ਨਿਸ਼ਾਨੇ ਅਤੇ ਮਸੂਮ ਲੋਕਾਂ ਦਰਮਿਆਨ ਫ਼ਰਕ ਕਰਨ ਦੀ ਜ਼ਿੰਮੇਵਾਰੀ ਉਸਦੀ ਹੁੰਦੀ ਹੈ। ਪਰ ਇੱਕ ਮਸ਼ੀਨ ਹਮੇਸ਼ਾਂ ਕਾਮਯਾਬੀ ਦੇ ਨਲਾ ਅਜਿਹਾ ਅੰਦਰ ਨਹੀਂ ਕਰ ਸਕੇਗੀ।''''

ਉਹ ਅੱਗੇ ਕਹਿੰਦੇ ਹਨ, '''' ਹੁਣ ਸਵਾਲ ਹੈ ਕਿ ਇਸ ਨੂੰ ਲੈ ਕੇ ਕਿੰਨਾ ਖ਼ਤਰਾ ਚੁੱਕਿਆ ਜਾ ਸਕਦਾ ਹੈ। ਕੁਝ ਲੋਕ ਕਹਿਣਗੇ ਕਿ ਜੋਖ਼ਮ ਦੀ ਗੁੰਜਾਇਸ਼ ਨਾ ਦੇ ਬਰਾਬਰ ਹੋਣੀ ਚਾਹੀਦੀ ਹੈ। ਮੈਂ ਇਸ ਵਿਚਾਰ ਨਾਲ ਸਹਿਮਤ ਨਹੀਂ ਹਾਂ। ਮੇਰੀ ਰਾਇ ਵਿੱਚ ਤਕਨੀਕ ਨੂੰ ਉਸੇ ਸਮੇਂ ਇਸਤੇਮਾਲ ਕੀਤਾ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਜਦੋਂ ਉਸ ਦੇ ਇਸਤੇਮਾਲ ਨਾਲ ਜੰਗ ਵਿੱਚ ਹਿੱਸਾ ਨਾ ਲੈ ਰਹੇ ਨਾਗਰਿਕਾਂ ਨੂੰ ਇਨਸਾਨੀ ਸੈਨਾ ਦੇ ਮੁਕਾਬਲੇ ਘੱਟ ਖ਼ਤਰਾ ਹੋਵੇ।''''

ਟੌਮ ਦੀ ਰਾਇ ਵਿੱਚ ਜੰਗ ਦੇ ਕੁਝ ਮੋਰਚੇ ਅਜਿਹੇ ਵੀ ਹਨ ਜਿੱਥੇ ਜ਼ਿਆਦਾ ਜੋਖ਼ਮ ਚੁੱਕਿਆ ਜਾ ਸਕਦਾ ਹੈ।

ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ''''ਤੁਸੀਂ ਅਜਿਹੀ ਸਥਿਤੀ ਦੀ ਕਲਪਨਾ ਕਰੋ ਜਿੱਥੇ ਇੱਕ ਫ਼ਾਈਟਰ ਪਲੇਨ ਵਿੱਚ ਇੱਕ ਪਾਇਲਟ ਹੈ ਅਤੇ ਉਨ੍ਹਾਂ ਦੇ ਕੋਲ 20 ਜਾਂ 30 ਆਟੋਮੈਟਿਕ ਸਿਸਟਮ ਹਨ।

ਉਹ ਅਸਮਾਨ ਵਿੱਚ ਜਿਸ ਜਗ੍ਹਾ ਹੈ, ਉਥੇ ਦੁਸ਼ਮਣ ਤੋਂ ਇਲਾਵਾ ਹੋਰ ਕੋਈ ਨਹੀਂ ਹੈ। ਤੁਸੀਂ ਦੇਖੋਂਗੇ ਕਿ ਅਜਿਹੀ ਜਗ੍ਹਾ ਸਵੈਚਾਲਕ ਸਿਸਟਮ ਕਿਸ ਤਰ੍ਹਾਂ ਸਫ਼ਲਤਾ ਨਾਲ ਵਾਰ ਕਰਦਾ ਹੈ। ਇਹ ਸੁਰੱਖਿਅਤ ਵੀ ਹੈ ਕਿਉਂਕਿ ਇੱਥੇ ਕੋਈ ਸਿਵੀਲੀਅਨ ਯਾਨੀ ਆਮ ਨਾਗਰਿਕ ਨਹੀਂ ਹਨ।"

ਸਵੈਚਾਲਕ ਰੋਬੋਟ ਤਾਇਨਾਤ ਕਰਨ ਦੇ ਪੱਖ ਵਿੱਚ ਇੱਕ ਹੋਰ ਤਰਕ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ ਜੋ ਜ਼ਿਆਦਾਤਰ ਰਸਮੀ ਹੈ। ਟੌਮ ਕਹਿੰਦੇ ਹਨ ਕਿ ਜਿੰਨ ਬੋਤਲ ਵਿੱਚੋਂ ਬਾਹਰ ਆ ਚੁੱਕਿਆ ਹੈ। ਜੇ ਤੁਸੀਂ ਅਜਿਹੇ ਹਥਿਆਰ ਨਹੀਂ ਬਣਾਉਂਦੇ ਤਾਂ ਨਾ ਬਣਾਓ ਤੁਹਾਡੇ ਦੁਸ਼ਮਣ ਤਾਂ ਬਣਾਉਣਗੇ ਹੀ।

ਰੋਬੋਟ
Getty Images
ਟੌਮ ਦੀ ਰਾਇ ਵਿੱਚ ਜੰਗ ਦੇ ਕੁਝ ਮੋਰਚੇ ਅਜਿਹੇ ਵੀ ਹਨ ਜਿੱਥੇ ਜ਼ਿਆਦਾ ਜੋਖ਼ਮ ਚੁੱਕਿਆ ਜਾ ਸਕਦਾ ਹੈ

ਕੀ ਹੋਵੇਗੀ ਰਣਨੀਤੀ?

ਟੌਮ ਸਿਮਪਸਨ ਕਹਿੰਦੇ ਹਨ, "ਜਦੋਂ ਅਜਿਹੇ ਹਥਿਆਰਾਂ ''ਤੇ ਪਾਬੰਦੀ ਦੀ ਗੱਲ ਹੁੰਦੀ ਹੈ ਤਾਂ ਫ਼ਿਰ ਸਵੈ ਕਾਬੂ ਦੀ ਵਕਾਲਤ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਤਾਂ ਇਹ ਸਵਾਲ ਪੁੱਛਿਆ ਜਾਣਾ ਚਾਹੀਦਾ ਹੈ ਕਿ 20 ਸਾਲ ਬਾਅਦ ਕਿਸ ਤਰ੍ਹਾਂ ਦੀ ਹੋਵੇਗੀ?"

ਉਹ ਅੱਗੇ ਕਹਿੰਦੇ ਹਨ, "ਕੁਝ ਅਜਿਹੇ ਦੇਸ ਹੋਣਗੇ ਜਿਨ੍ਹਾਂ ਕੋਲ ਇਸ ਤਰ੍ਹਾਂ ਦੀ ਸਵੈਚਾਲਕ ਪ੍ਰਣਾਲੀ ਹੋਵੇਗੀ ਅਤੇ ਸਾਡੀ ਸੈਨਾ ਕੋਲ ਬਚਾਅ ਲਈ ਅਜਿਹੀ ਸਮਰੱਥਾ ਨਹੀਂ ਹੋਵੇਗੀ। ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਉਸ ਸਥਿਤੀ ਵਿੱਚ ਲੋਕ ਸਰਕਾਰਾਂ ਨੂੰ ਕਹਿਣਗੇ ਕਿ ਸਵੈਕਾਬੂ ਦਾ ਫ਼ੈਸਲਾ ਗ਼ਲਤ ਸੀ। ਸਰਕਾਰ ਦਾ ਪਹਿਲਾ ਫ਼ਰਜ਼ ਦੇਸ ਨੂੰ ਸੁਰੱਖਿਅਤ ਕਰਨ ਦਾ ਹੈ। ਜੋ ਜ਼ਿੰਮੇਵਾਰ ਸਰਕਾਰਾਂ ਹਨ ਉਹ ''ਨੋ ਫ਼ਸਟ ਯੂਜ਼ ਪਾਲਿਸੀ'' ਯਾਨੀ ਅਜਿਹੇ ਹਥਿਆਰਾਂ ਦਾ ਪਹਿਲਾਂ ਇਸਤੇਮਾਲ ਨਾ ਕਰਨ ਦੀ ਨੀਤੀ ਅਪਣਾ ਸਕਦੀਆਂ ਹਨ।"

ਇਹ ਉਹ ਹੀ ਰਣਨੀਤੀ ਹੈ ਜੋ ਤੁਹਾਨੂੰ ਵੀਹਵੀਂ ਸਦੀ ਦੀ ਪਰਮਾਣੂ ਹਥਿਆਰਾਂ ਦੀ ਹੋੜ ਯਾਦ ਦਵਾ ਸਕਦੀ ਹੈ।

ਪਰ ਇੱਕ ਹੋਰ ਸਵਾਲ ਪੁੱਛਿਆ ਜਾਂਦਾ ਹੈ ਕਿ ਖ਼ਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤੁਹਾਨੂੰ ਅਜਿਹਾ ਹੀ ਹਥਿਆਰ ਬਣਾਉਣ ਦੀ ਲੋੜ ਕਿਉਂ ਹੈ?

ਇਸ ਸਵਾਲ ਦੇ ਜਵਾਬ ਵਿੱਚ ਟੌਮ ਕਹਿੰਦੇ ਹਨ, "ਚਲੋ ਇੱਕ ਅਜਿਹੇ ਸਿਸਟਮ ਦੀ ਗੱਲ ਕਰਦੇ ਹਾਂ ਜਿਸ ਵਿੱਚ ਨੈਨੋ ਜਾਂ ਫ਼ਿਰ ਮਾਈਕਰੋ ਤਕਨੀਕ ਦਾ ਇਸਤੇਮਾਲ ਹੋਇਆ ਹੈ ਅਤੇ ਉਸ ਦੇ ਜ਼ਰੀਏ ਇੱਕ ਇਲਾਕੇ ਵਿੱਚ 20 ਤੋਂ 50 ਹਜ਼ਾਰ ਤੱਕ ਉਪਕਰਣ ਤਾਇਨਾਤ ਹਨ। ਇਸ ਸਥਿਤੀ ਵਿੱਚ ਅਜਿਹਾ ਕੋਈ ਤਰੀਕਾ ਨਹੀਂ ਹੈ ਕਿ ਕੋਈ ਇਨਸਾਨ ਯਾਂ ਫ਼ਿਰ ਇਨਸਾਨਾਂ ਦਾ ਦਸਤਾ ਉਸਦਾ ਮੁਕਾਬਲਾ ਕਰ ਸਕੇ।"

ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਉਸ ਦੇ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤੁਹਾਡੇ ਕੋਲ ਚਾਹੇ ਇਕਦਮ ਉਸ ਤਰ੍ਹਾਂ ਦਾ ਸਿਸਟਮ ਨਾ ਹੋਵੇ ਪਰ ਤੁਹਾਨੂੰ ਕਿਸੇ ਤਰ੍ਹਾਂ ਦੇ ਆਟੋਮੈਟਿਕ ਸਿਸਟਮ ਦੀ ਲੋੜ ਹੋਵੇਗੀ।"

ਰੋਬੋਟ
Getty Images
ਸਵਾਲ ਪੁੱਛਿਆ ਜਾਂਦਾ ਹੈ ਕਿ ਖ਼ਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤੁਹਾਨੂੰ ਅਜਿਹਾ ਹੀ ਹਥਿਆਰ ਬਣਾਉਣ ਦੀ ਲੋੜ ਕਿਉਂ ਹੈ?

ਪਾਬੰਦੀ ਦੀ ਮੰਗ

ਟੌਮ ਕਹਿੰਦੇ ਹਨ ਕਿ ਅਜਿਹੇ ਸਿਸਟਮ ਜ਼ਰੀਏ ਹੀ ਸਾਹਮਣੇ ਮੋਜੂਦ ਖ਼ਤਰੇ ਦਾ ਮੁਕਾਬਲਾ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਪਰ ਸਾਫ਼ਟਵੇਅਰ ਇੰਜੀਨੀਅਰ ਲੌਰਾ ਨੋਲੈਨ ਵੱਖਰੀ ਰਾਇ ਰੱਖਦੇ ਹਨ।

ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਕੁਝ ਲੋਕ ਅਜਿਹਾ ਸੋਚਦੇ ਹਨ ਕਿ ਭਵਿੱਖ ਵਿੱਚ ਜੰਗ ਰੋਬੋਟਾਂ ਦਰਮਿਆਨ ਹੋਵੇਗੀ। ਰੋਬੋਟ ਸੈਨਿਕ ਲੜਨਗੇ ਤਾਂ ਅਜਿਹੀ ਜੰਗ ਵਿੱਚ ਖ਼ੂਨ ਨਹੀਂ ਵਹੇਗਾ। ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਇਹ ਇੱਕ ਆਦਰਸ਼ਵਾਦੀ ਕਲਪਨਾ ਹੈ। ਅਸੀਂ ਜ਼ਿਆਦਾਤਰ ਮੌਕਿਆਂ ''ਤੇ ਅਜਿਹੀ ਸਥਿਤੀ ਦੇਖਾਂਗੇ ਕਿ ਇੰਨਾਂ ਮਸ਼ੀਨਾਂ ਨੂੰ ਇਨਸਾਨਾਂ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਤਾਇਨਾਤ ਕੀਤਾ ਗਿਆ ਹੈ ਇਹ ਕਾਫ਼ੀ ਦਰਦਨਾਕ ਸਥਿਤੀ ਹੋਵੇਗੀ।"

ਲੌਰਾ ਨੋਲੈਨ ਟੇਕ ਕੰਪਨੀ ''ਗੂਗਲ'' ਨਾਲ ਕੰਮ ਕਰਦੇ ਸਨ। ਸਾਲ 2017 ਵਿੱਚ ਉਨ੍ਹਾਂ ਨੂੰ ਅਮਰੀਕੀ ਸੁਰੱਖਿਆ ਵਿਭਾਗ ਦੇ ਨਾਲ ਇੱਕ ਪ੍ਰੋਜੈਕਟ ''ਤੇ ਕੰਮ ਕਰਨ ਲਈ ਕਿਹਾ ਗਿਆ।

ਇਸ ਪ੍ਰੋਜੈਕਟ ਵਿੱਚ ਡਰੋਨ ਨਾਲ ਲਏ ਗਏ ਵੀਡੀਓ ਫ਼ੁਟੇਜ਼ ਦਾ ਵਿਸ਼ਲੇਸ਼ਣ ਕਰਨ ਵਾਲੇ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਇੰਟੈਲੀਜੈਂਸ ਸਿਸਟਮ ਵਿਕਸਿਤ ਕਰਨੇ ਸਨ। ਇਹ ਹਥਿਆਰ ਵਿਕਸਿਤ ਕਰਨ ਦਾ ਪ੍ਰੋਜੈਕਟ ਨਹੀਂ ਸੀ।

ਪਰ ਲੌਰਾ ਇਸ ਨੂੰ ਲੈ ਕਿ ਫ਼ਿਕਰਮੰਦ ਸਨ। ਉਨ੍ਹਾਂ ਨੂੰ ਲੱਗਦਾ ਸੀ ਕਿ ਉਹ ਇੱਕ ਅਜਿਹੀ ਆਰਟੀਫ਼ੀਸ਼ੀਅਲ ਤਕਨੀਕ ਦਾ ਹਿੱਸਾ ਹਨ ਜਿਸਦਾ ਰਸਤਾ ਕਿਤੇ ਨਾ ਕਿਤੇ ਜੰਗ ਵੱਲ ਜਾਂਦਾ ਹੈ।

ਉਨ੍ਹਾਂ ਨੇ ਇਸਦੇ ਵਿਰੋਧ ਵਿੱਚ ਅਸਤੀਫ਼ਾ ਦੇ ਦਿੱਤਾ। ਇਸ ਦੇ ਬਾਅਦ ਉਹ ''''ਕਿਲਰ ਰੋਬੇਟ'''' ਨੂੰ ਰੋਕਣ ਲਈ ਇੱਕ ਮੁਹਿੰਮ ਵਿੱਚ ਲੱਗ ਗਏ।

ਉਨ੍ਹਾਂ ਦੀ ਰਾਇ ਵਿੱਚ ਅਜਿਹੇ ਹਥਿਆਰਾਂ ਦੇ ਮੂਲ ਵਿੱਚ ਸਮੱਸਿਆ ਇਹ ਹੈ ਕਿ ਕੰਪਿਊਟਰ ਅਤੇ ਇਨਸਾਨਾਂ ਦੇ ਸੋਚਣ ਦਾ ਤਰੀਕਾ ਵੱਖਰਾ ਹੁੰਦਾ ਹੈ।

ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ, ''''ਕੰਪਿਊਟਰ ਗਣਨਾ ਕਰਦੇ ਹਨ ਜਦੋਂ ਕਿ ਇਨਸਾਨ ਵਿੱਚ ਪਰਖ਼ ਕਰਕੇ ਫ਼ੈਸਲਾ ਲੈਣ ਦੀ ਖ਼ਾਸੀਅਤ ਹੁੰਦੀ ਹੈ। ਗਣਨਾ ਠੋਸ ਅੰਕੜਿਆਂ ''ਤੇ ਅਧਾਰਤ ਹੈ।ਜਦੋਂ ਕਿ ਪਰਖ਼ਕੇ ਫ਼ੈਸਲਾ ਲੈਂਦੇ ਸਮੇਂ, ਬਹੁਤ ਸਾਰੀਆਂ ਚੀਜ਼ਾਂ ਵੱਲ ਧਿਆਨ ਦਿੱਤਾ ਜਾਂਦਾ ਹੈ।''''

ਉਹ ਕਹਿੰਦੇ ਹਨ, '''' ਜੇ ਅਸੀਂ ਉਦਾਹਰਣ ਦੇ ਕੇ ਸਮਝਾਈਏ ਤਾਂ ਸਾਡੇ ਵਿੱਚੋਂ ਬਹੁਤੇ ਲੋਕ ਕਿਸੇ ਅਦਾਲਤ ਵਿੱਚ ਕਿਸੇ ਰੋਬੋਟ ਜੱਜ ਦੇ ਸਾਹਮਣੇ ਆਉਣਾ ਪਸੰਦ ਨਹੀਂ ਕਰਨਗੇ ਜੋ ਕਾਨੂੰਨ ਨੂੰ ਇੱਕ ਖ਼ਾਸ ਤਰੀਕੇ ਨਾਲ ਲਾਗੂ ਕਰਦਾ ਹੋਵੇ।''''

ਤਕਨੀਕ ਦੀਆਂ ਸਮੱਸਿਆਵਾਂ

ਦਿੱਕਤ ਇਹ ਹੈ ਕਿ ਜੰਗ ਦੇ ਮੈਦਾਨ ਦਾ ਕੋਈ ਵੀ ਇਲਾਕਾ ਅਜਿਹਾ ਹੋਵੇ ਜਿੱਥੇ ਸਿਵੀਲਅਨਜ਼ ਦੀ ਆਬਾਦੀ ਯਾਨੀ ਆਮ ਨਾਗਰਿਕ ਹੋਵੇ, ਉਹ ਸੰਘਰਸ਼ ਦੇ ਲਿਹਾਜ਼ ਨਾਲ ਬਹੁਤ ਗੁੰਝਲਦਾਰ ਖੇਤਰ ਹੁੰਦਾ ਹੈ। ਉਥੇ ਕਾਫ਼ੀ ਮੁਸ਼ਕਲ ਫੈਸਲੇ ਲੈਣੇ ਹੁੰਦੇ ਹਨ ਜਿਨ੍ਹਾਂ ਲਈ ਸਹੀ ਪਰਖ਼ ਦੀ ਲੋੜ ਹੁੰਦੀ ਹੈ।

ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ ਕਿ ਮਸ਼ੀਨ ਦੇ ਸਾਫ਼ਟਵੇਅਰ ਨੂੰ ਜਿੰਨਾਂ ਹਾਲਾਤ ਨਾਲ ਮੁਕਾਬਲਾ ਕਰਨ ਲਈ ਡਿਜ਼ਾਈਨ ਕੀਤਾ ਗਿਆ ਹੁੰਦਾ ਹੈ, ਜੇ ਉਨ੍ਹਾਂ ਤੋਂ ਅਲੱਗ ਸਥਿਤੀਆਂ ਸਾਹਮਣੇ ਆਉਂਦੀਆਂ ਹਨ ਤਾਂ ਹਾਲਾਤ ਬਹੁਤ ਹੀ ਅਨਿਸ਼ਚਿਤ ਜਿਹੇ ਹੋ ਸਕਦੇ ਹਨ।

ਜਦੋਂ ਕਿ ਇਨਸਾਨ ਪ੍ਰੀਸਿਥੀਤੀਆਂ ਦੇ ਮੁਤਬਾਕ ਖ਼ੁਦ ਨੂੰ ਢਾਲਕੇ ਫ਼ੈਸਲਾ ਲੈ ਸਕਦੇ ਹਨ। ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਬਗ਼ੈਰ ਡਰਾਈਵਰ ਦੀ ਤਕਨੀਕ ਵਿੱਚ ਅਜਿਹੀ ਹੀ ਦਿੱਕਤ ਨਜ਼ਰ ਆਉਂਦੀ ਹੈ।

ਸਾਲ 2018 ਵਿੱਚ ਅਮਰੀਕਾ ਵਿੱਚ ਊਬਰ ਦੀ ਇੱਕ ਸਵੈਚਾਲਕ ਕਾਰ ਟੈਸਟਿੰਗ ਦੌਰਾਨ ਸਾਈਕਲ ''ਤੇ ਕੋਲੋਂ ਲੰਘ ਰਹੀ ਇੱਕ ਔਰਤ ਨਾਲ ਟਕਰਾ ਗਈ ਸੀ। ਇਸ ਹਾਦਸੇ ਵਿੱਚ ਔਰਤ ਦੀ ਮੌਤ ਹੋ ਗਈ ਸੀ।

ਜਾਂਚ ਵਿੱਚ ਪਾਇਆ ਗਿਆ ਕਿ ਕਾਰ ਦਾ ਸਿਸਟਮ ਔਰਤ ਅੇਤ ਸਾਇਕਲ ਨੂੰ ਅਜਿਹੇ ਸੰਭਾਵਿਤ ਖ਼ਤਰੇ ਦੇ ਤੌਰ ''ਤੇ ਪਛਾਣ ਨਹੀਂ ਸਕਿਆ ਜਿਸ ਨਾਲ ਕਾਰ ਟਕਰਾ ਸਕਦੀ ਹੈ।

ਲੌਰਾ ਦਾ ਤਰਕ ਹੈ ਕਿ ਆਟੋਨਮਸ ਹਥਿਆਰਾਂ ਦੇ ਮਾਮਲੇ ਵਿੱਚ ਸਥਿਤੀਆਂ ਹੋਰ ਵੀ ਜ਼ਿਆਦਾ ਗੁੰਝਲਦਾਰ ਹੋ ਸਕਦੀਆਂ ਹਨ। ਕਿਉਂਕਿ ਜੰਗ ਆਪਣੇ ਆਪ ਵਿੱਚ ਇੱਕ ਗੁੰਝਲਦਾਰ ਸਥਿਤੀ ਹੁੰਦੀ ਹੈ। ਲੌਰਾ ਮੁਤਾਬਕ ਇਥੇ ਜਵਾਬਦੇਹੀ ਨਾਲ ਜੁੜਿਆ ਸਵਾਲ ਵੀ ਸਾਹਮਣੇ ਆਉਂਦਾ ਹੈ।

ਉਹ ਕਹਿੰਦੇ ਹਨ, "ਜੇ ਆਟੋਨੋਮਸ ਹਥਿਆਰ ਨਾਲ ਅਜਿਹਾ ਕੁਝ ਹੋ ਜਾਵੇ ਜਿਸ ਨਾਲ ਯੁੱਧ ਅਪਰਾਧ ਦੀ ਸ਼੍ਰੇਣੀ ਵਿੱਚ ਰੱਖਿਆ ਜਾਵੇ ਤਾਂ ਜਵਾਬਦੇਹੀ ਕਿਸ ਦੀ ਹੋਵਗੀ? ਕੀ ਜਵਾਬਦੇਹੀ ਉਸ ਕਮਾਂਡਰ ਦੀ ਹੋਵੇਗੀ ਜਿਸ ਨੇ ਹਥਿਆਰ ਤਾਇਨਾਤ ਕਰਨ ਦਾ ਹੁਕਮ ਦਿੱਤਾ।"

ਸ਼ਾਇਦ ਨਹੀਂ ਕਿਉਂਕਿ ਟ੍ਰੇਨਿੰਗ ਦੌਰਾਨ ਹਥਿਆਰ ਨੇ ਅਜਿਹਾ ਕੁਝ ਨਾ ਕੀਤਾ ਹੋਵੇ। ਅਜਿਹਾ ਹੋਣ ਦੀ ਕਲਪਨਾ ਸ਼ਾਇਦ ਇੰਜੀਨੀਅਰਾਂ ਨੇ ਵੀ ਨਾ ਕੀਤੀ ਹੋਵੇ। ਅਜਿਹੀ ਸਥਿਤੀ ਵਿੱਚ ਇੰਜੀਨੀਅਰਾਂ ਦੀ ਜਵਾਬਦੇਹੀ ਤੈਅ ਕਰਨਾ ਵੀ ਔਖਾ ਹੋਵੇਗਾ।"

ਲੌਰਾ ਕਹਿੰਦੇ ਹਨ ਕਿ ਉਨ੍ਹਾਂ ਦੀ ਸਮਝ ਵਿੱਚ ਇੰਨਾਂ ਹਥਿਆਰਾਂ ''ਤੇ ਹਰ ਹਾਲ ਵਿੱਚ ਪਾਬੰਦੀ ਲਗਾਈ ਜਾਣੀ ਚਾਹੀਦੀ ਹੈ।

ਰੋਬੋਟ
Getty Images
ਫ਼ਲੈਸ਼ ਕ੍ਰੈਸ਼ ਯਾਨੀ ਅਚਾਨਕ ਤੇਜ਼ੀ ਨਾਲ ਹੋਣ ਵਾਲੀ ਗਿਰਾਵਟ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਇਨਸਾਨ ਕੋਈ ਦਖ਼ਲ ਨਹੀਂ ਦੇ ਸਕਦਾ

ਖ਼ਤਰੇ ਹੀ ਖ਼ਤਰੇ

ਉੱਧਰ, ਸੈਂਟਰ ਫ਼ਾਰ ਨਿਊ ਅਮੈਰੀਕਨ ਸਕਿਊਰਿਟੀ ਵਿੱਚ ਡਾਇਰੈਕਟਰ ਆਫ਼ ਤਕਨੀਕ ਪੌਲ ਸ਼ੌਰੀ ਅਜਿਹੀ ਤਕਨੀਕ ਨਾਲ ਜੁੜੇ ਵੱਖਰੇ ਪਰ ਗੰਭੀਰ ਸਵਾਲ ਖੜੇ ਕਰਦੇ ਹਨ।

ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਵਿਕਾਸ ਦੇ ਨਾਲ ਤਕਨੀਕ ਸਾਨੂੰ ਅਜਿਹੇ ਰਾਹ ''ਤੇ ਲਾ ਜਾ ਰਹੀ ਹੈ ਜਿੱਥੇ ਜ਼ਿੰਦਗੀ ਅਤੇ ਮੌਤ ਨਾ ਜੁੜੇ ਫ਼ੈਸਲੇ ਮਸ਼ੀਨਆਂ ਦੇ ਹਵਾਲੇ ਹੋ ਜਾਣਗੇ ਅਤੇ ਮੈਨੂੰ ਲੱਗਦਾ ਹੈ ਕਿ ਇਨਸਾਨੀਅਤ ਦੇ ਸਾਹਮਣੇ ਇਹ ਇੱਕ ਗੰਭੀਰ ਸਵਾਲ ਹੈ।"

ਪੌਲ ਪੈਂਟਾਗਨ ਵਿੱਚ ਪਾਲਿਸੀ ਐਨਾਲਿਸਟ ਰਹਿ ਚੁੱਕੇ ਹਨ। ਉਨ੍ਹਾਂ ਨੇ ਕਿਤਾਬ ਵੀ ਲਿਖੀ ਹੈ, ''ਆਰਮੀ ਆਫ਼ ਨਨ, ਆਟੋਨੋਮਸ ਵੈਪਨਸ ਐਂਡ ਦਾ ਫ਼ਿਊਚਰ ਆਫ਼ ਵਾਰ''। ਕੀ ਭਵਿੱਖ ਦੀ ਜੰਗ ਵਿੱਚ ਜ਼ਿੰਦਗੀ ਅਤੇ ਮੌਤ ਨਾਲ ਜੁੜੇ ਫ਼ੈਸਲੇ ਰੋਬੋਟ ਕਰਨਗੇ, ਇਸ ਸਵਾਲ ਦੇ ਜਵਾਬ ਵਿੱਚ ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਹਾਲੇ ਵੀ ਅਜਿਹੀਆਂ ਮਸ਼ੀਨਾਂ ਮੋਜੂਦ ਹਨ।

ਪੌਲ ਕਹਿੰਦੇ ਹਨ ਕਿ ਪਹਿਲਾਂ ਤੋਂ ਕੀਤੀ ਗਈ ਪ੍ਰੋਗਰਾਮਿੰਗ ਜ਼ਰੀਏ ਡਰੋਨ ਖ਼ੁਦ ਹੀ ਉਡਾਨ ਭਰਦੇ ਹਨ। ਉਹ ਇਹ ਵੀ ਕਹਿੰਦੇ ਹਨ ਕਿ ਰੋਬੋਟ ਦੇ ਕੋਲ ਕਦੀ ਵੀ ਇੰਨੀ ਬੌਧਿਕ ਸਮਰੱਥਾ ਨਹੀਂ ਹੋ ਸਕਦੀ ਕਿ ਉਹ ਜੰਗ ਦੇ ਨਾਲ ਜੁੜੇ ਰਣਨੀਤਿਕ ਅਤੇ ਜ਼ਮੀਨੀ ਖ਼ਤਰਿਆਂ ਨੂੰ ਸਮਝ ਸਕੇ।

ਪੌਲ ਸ਼ਾਰੀ ਕਹਿੰਦੇ ਹਨ ਕਿ, "ਹਾਲ ਹੀ ਵਿੱਚ ਕੁਝ ਸਥਿਤੀਆਂ ਸਾਹਮਣੇ ਆਈਆਂ ਹਨ। ਸੀਰੀਆ ਦੇ ਅਸਮਾਨ ਵਿੱਚ ਉਡਾਣ ਭਰਦੇ ਰੂਸ ਅਤੇ ਅਮਰੀਕਾ ਦੇ ਲੜਾਕੂ ਜਹਾਜ਼ ਜੋ ਜ਼ਮੀਨ ''ਤੇ ਅਭਿਆਸ ਕਰ ਰਹੀਆਂ ਸੈਨਿਕਾਂ ਦੀ ਮਦਦ ਕਰ ਰਹੇ ਸਨ। ਬੀਤੇ ਸਾਲ ਚੀਨ ਅਤੇ ਭਾਰਤ ਦੀਆਂ ਸੈਨਾਵਾਂ ਦਰਮਿਆਨ ਹੋਈ ਝੜਪ। ਇਸ ਤਰ੍ਹਾਂ ਦੇ ਸੈਨਿਕ ਵਿਵਾਦਾਂ ਦਰਮਿਆਨ ਜੇ ਆਟੋਨੋਮਸ ਹਥਿਆਰ ਤਾਇਨਾਤ ਹੋਣ ਤਾਂ ਵੱਡੇ ਜੋਖ਼ਮ ਦਾ ਡਰ ਰਹਿੰਦਾ ਹੈ। ਜੇ ਅਜਿਹੇ ਹਥਿਆਰ ਗ਼ਲਤ ਜਗ੍ਹਾ ਨਿਸ਼ਾਨਾ ਲਗਾਉਂਦੇ ਹਨ ਤਾਂ ਜੰਗ ਜ਼ਿਆਦਾ ਭੜਕ ਸਕਦੀ ਹੈ।"

ਪੌਲ ਇਹ ਵੀ ਕਹਿੰਦੇ ਹਨ ਕਿ ਸਕਾਟ ਮਾਰਕਿਟ ਵਿੱਚ ਸੁਪਰ ਹਿਊਮਨ ਦੀ ਰਫ਼ਤਾਰ ਵਿੱਚ ਸ਼ੇਅਰ ਖ਼ਰੀਦਨ ਅਤੇ ਵੇਚਣ ਲਈ ਕੰਪਿਊਟਰ ਦਾ ਇਸਤੇਮਾਲ ਹੁੰਦਾ ਹੈ। ਸਭ ਨੇ ਇਸਦੇ ਜੋਖ਼ਮ ਨੂੰ ਦੇਖਿਆ ਹੈ।

ਫ਼ਲੈਸ਼ ਕ੍ਰੈਸ਼ ਯਾਨੀ ਅਚਾਨਕ ਤੇਜ਼ੀ ਨਾਲ ਹੋਣ ਵਾਲੀ ਗਿਰਾਵਟ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਇਨਸਾਨ ਕੋਈ ਦਖ਼ਲ ਨਹੀਂ ਦੇ ਸਕਦਾ ਕਿਉਂਕਿ ਮਸ਼ੀਨਾਂ ਇਹ ਸਭ ਕੁਝ ਮਿਲੀਸੈਕਿੰਡ ਜਿੰਨੇ ਘੱਟ ਸਮੇਂ ਵਿੱਚ ਕਰ ਦਿੰਦੀਆਂ ਹਨ।

ਅਜਿਹਾ ਹੀ ਜੰਗ ਦੀ ਸਥਿਤੀ ਵਿੱਚ ਵੀ ਹੋ ਸਕਦਾ ਹੈ। ਪਲਕ ਝਪਕਣ ਦੀ ਦੇਰੀ ਵਿੱਚ ਦੋ ਪੱਖਾਂ ਦੀਆਂ ਮਸ਼ੀਨਾ ਦਰਮਿਆਨ ਗੋਲੀਬਾਰੀ ਦੇਖਣ ਨੂੰ ਮਿਲ ਸਕਦੀ ਹੈ। ਸਥਿਤੀਆਂ ਉਸ ਸਮੇਂ ਹੋਰ ਵੀ ਭਿਆਨਕ ਹੋ ਸਕਦੀਆਂ ਹਨ ਜਦੋਂ ਦੁਸ਼ਮਣ ਤੁਹਾਡੇ ਹਥਿਆਰਾਂ ਦਾ ਮੂੰਹ ਤੁਹਾਡੇ ਵੱਲ ਹੀ ਮੋੜ ਦੇਵੇ।

ਪੌਲ ਕਹਿੰਦੇ ਹਨ, "ਅਜਿਹਾ ਬਿਲਕੁਲ ਹੋ ਸਕਦਾ ਹੈ। ਕਿਸੇ ਵੀ ਚੀਜ਼ ਨੂੰ ਹੈਕ ਕੀਤਾ ਜਾ ਸਕਦਾ ਹੈ। ਸੈਨਾ ਵੀ ਉਸੇ ਤਰ੍ਹਾਂ ਦੇ ਅਸੁਰੱਖਿਅਤ ਕੰਪਿਊਟਰਾਂ ਦਾ ਇਸਤੇਮਾਲ ਕਰਦੀ ਹੈ ਜਿਸ ਤਰ੍ਹਾਂ ਦੇ ਸਾਰੇ ਲੋਕ ਕਰਦੇ ਹਨ। ਖ਼ੁਦ ਚਲਣ ਵਾਲੀਆਂ ਕਾਰਾਂ ਹੈਕ ਕੀਤੀਆਂ ਜਾ ਚੁੱਕੀਆਂ ਹਨ।"

"ਅਸੀਂ ਇਹ ਦੇਖ ਚੁੱਕੇ ਹਾਂ ਕਿ ਹੈਕਰਸ ਦੂਰ ਬੈਠਕੇ ਵੀ ਕਾਰ ਦਾ ਸਟੇਅਰਿੰਗ ਅਤੇ ਬ੍ਰੇਕ ਕਾਬੂ ਕਰ ਸਕਦੇ ਹਨ। ਪਰ ਜੇ ਕੋਈ ਹੈਕਰ ਹਥਿਆਰਾਂ ''ਤੇ ਕਾਬੂ ਕਰ ਲੈਂਦਾ ਹੈ ਤਾਂ ਨੁਕਸਾਨ ਕਾਫ਼ੀ ਜ਼ਿਆਦਾ ਹੋ ਸਕਦਾ ਹੈ।"

ਪੌਲ ਕਹਿੰਦੇ ਹਨ ਕਿ ''ਕਿਲਰ ਰੋਬੋਟ'' ਨਾਲ ਜੁੜੇ ਕੁਝ ਹੋਰ ਸਵਾਲ ਵੀ ਹਨ।

ਉਹ ਕਹਿੰਦੇ ਹਨ ਕਿ ਮੰਨ ਲੈਂਦੇ ਹਾਂ ਕਿ ਮਸ਼ੀਨਾਂ ਸਹੀ ਜਗ੍ਹਾ ਨਿਸ਼ਾਨਾਂ ਲਗਾਉਂਦੀਆਂ ਹਾਨ ਤਾਂ ਵੀ ਜਾਨ ਦਾ ਨੁਕਸਾਨ ਹੋਵੇਗਾ ਉਸ ਲਈ ਕੋਈ ਇਨਸਾਨ ਜਵਾਬਦੇਹ ਨਹੀਂ ਹੋਵੇਗਾ।

''ਸਵਾਲ ਇਹ ਵੀ ਹੈ ਕਿ ਜੇ ਕੋਈ ਜੰਗ ਦਾ ਬੋਝ ਆਪਣੇ ਮੋਢਿਆਂ ''ਤੇ ਨਹੀਂ ਲੈਂਦਾ ਤਾਂ ਅਸੀਂ ਸਮਾਜ ਵਿੱਚ ਕੀ ਕਹਾਂਗੇ? ਅਸੀਂ ਇਨਸਾਨ ਨੂੰ ਕੀ ਜਵਾਬ ਦੇਵਾਂਗੇ?''

ਇੰਨਾਂ ਤੈਅ ਹੈ ਕਿ ਅੱਜ ਜੰਗ ਵਿੱਚ ਹਿੱਸਾ ਲੈ ਰਹੀਆਂ ਮਸ਼ੀਨਾਂ ਦੀ ਅੱਗੇ ਵੀ ਭੂਮਿਕਾ ਬਣੀ ਰਹੇਗੀ।

robot
Getty Images
ਸਵੈਚਾਲਕ ਰੋਬੋਟਸ ਦੇ ਕੋਲ ਉੰਨੇ ਹੀ ਅਧਿਕਾਰ ਹੋਣਗੇ ਜਿੰਨੇ ਅਸੀਂ ਉਨ੍ਹਾਂ ਨੂੰ ਦੇਵਾਂਗੇ

ਪਰ ਕੀ ਅਸੀਂ ਤਕਨੀਕ ਦੀਆਂ ਹੱਦਾਂ ਸਮਝ ਸਕਾਂਗੇ?

ਮਸ਼ੀਨਾਂ ਨੂੰ ਫ਼ੈਸਲਾ ਲੈਣ ਦੇ ਕਿੰਨੇ ਅਧਿਕਾਰ ਦਿੱਤੇ ਜਾਣਗੇ?

ਭਵਿੱਖ ਵਿੱਚ ਕੀ ਹੋਵੇਗਾ, ਇਸ ਸਵਾਲ ਦਾ ਜਵਾਬ ਇਹੀ ਹੀ ਹੈ ਕਿ ਸਵੈਚਾਲਕ ਰੋਬੋਟਸ ਦੇ ਕੋਲ ਉੰਨੇ ਹੀ ਅਧਿਕਾਰ ਹੋਣਗੇ ਜਿੰਨੇ ਅਸੀਂ ਉਨ੍ਹਾਂ ਨੂੰ ਦੇਵਾਂਗੇ।

ਇਹ ਵੀ ਪੜ੍ਹੋ:

https://www.youtube.com/watch?v=KwIwQE_kQnA

(ਬੀਬੀਸੀ ਪੰਜਾਬੀ ਨਾਲ FACEBOOK, INSTAGRAM, TWITTERਅਤੇ YouTube ''ਤੇ ਜੁੜੋ।)

!function(s,e,n,c,r){if(r=s._ns_bbcws=s._ns_bbcws||r,s[]r]||(s[]r+"_d"]=s[]r+"_d"]||[]],s[]r]=function(){s[]r+"_d"].push(arguments)},s[]r].sources=[]]),c&&s[]r].sources.indexOf(c)<0){var t=e.createElement(n);t.async=1,t.src=c;var a=e.getElementsByTagName(n)[]0];a.parentNode.insertBefore(t,a),s[]r].sources.push(c)}}(window,document,"script","https://news.files.bbci.co.uk/ws/partner-analytics/js/fullTracker.min","s_bbcws");s_bbcws(''syndSource'',''ISAPI'');s_bbcws(''orgUnit'',''ws'');s_bbcws(''platform'',''partner'');s_bbcws(''partner'',''jagbani'');s_bbcws(''producer'',''punjabi'');s_bbcws(''language'',''pa'');s_bbcws(''setStory'', {''origin'': ''cps'',''guid'': ''d8e5452b-cb1a-4575-bff0-ada5f288fd68'',''assetType'': ''STY'',''pageCounter'': ''punjabi.international.story.56708036.page'',''title'': ''ਕੀ ਹੁਣ ਜੰਗ ਵਿਚ ਫੌਜੀਆਂ ਦੀ ਥਾਂ ਰੋਬੋਟ ਲੜਿਆ ਕਰਨਗੇ ਲੜਾਈ'',''published'': ''2021-04-15T12:02:23Z'',''updated'': ''2021-04-15T12:02:23Z''});s_bbcws(''track'',''pageView'');

Related News