The Khalas Tv Blog India ‘Deepfake ਬਣਾਉਣ ਵਾਲਿਆਂ ਦੀ ਖੈਰ ਨਹੀਂ’ ! ਨਵੇਂ ਕਾਨੂੰਨ ‘ਚ ਸਖ਼ਤ ਕਾਰਵਾਈ ! ਪੰਜਾਬ ਦਾ ਪ੍ਰਿੰਸੀਪਲ ਵੀ ਬਣਿਆ ਸ਼ਿਕਾਰ
India Khaas Lekh Technology

‘Deepfake ਬਣਾਉਣ ਵਾਲਿਆਂ ਦੀ ਖੈਰ ਨਹੀਂ’ ! ਨਵੇਂ ਕਾਨੂੰਨ ‘ਚ ਸਖ਼ਤ ਕਾਰਵਾਈ ! ਪੰਜਾਬ ਦਾ ਪ੍ਰਿੰਸੀਪਲ ਵੀ ਬਣਿਆ ਸ਼ਿਕਾਰ

ਬਿਉਰੋ ਰਿਪੋਰਟ : ਡੀਪਫੇਕ ( DEEPFAKE) ਨੂੰ ਲੈਕੇ ਸਰਕਾਰ ਨਵੇਂ ਨਿਯਮ ਲਿਆ ਰਹੀ ਹੈ । ਕੇਂਦਰੀ ਮੰਤਰੀ ਰਾਜੀਵ ਚੰਦਰਸ਼ੇਖਰ ਨੇ ਕਿਹਾ ਅਗਲੇ 7 ਤੋਂ 8 ਦਿਨਾਂ ਦੇ ਅੰਦਰ ਨਵੇਂ IT ਨਿਯਮ ਵਿੱਚ ਨੋਟੀਫਾਈ ਕੀਤਾ ਜਾਵੇਗਾ । ਉਨ੍ਹਾਂ ਨੇ ਕਿਹਾ ਮੈਂ ਡੀਪਫੇਕ
‘ਤੇ 2 ਬੈਠਕਾਂ ਕੀਤੀਆਂ ਹਨ । ਨਵੇਂ IT ਨਿਯਮਾਂ ਵਿੱਚ ਗਲਤ ਸੂਚਨਾ ਅਤੇ ਡੀਪਫੇਕ ਨੂੰ ਲੈਕੇ ਕਾਫੀ ਕਾਨੂੰਨ ਹਨ ਜਿਸ ਨੂੰ ਮੰਨਣਾ ਜ਼ਰੂਰੀ ਹੋਵੇਗਾ ਨਹੀਂ ਤਾਂ ਕਾਰਵਾਈ ਹੋਵੇਗੀ । ਇਸ ਤੋਂ ਪਹਿਲਾਂ ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਨਰਿੰਦਰ ਮੋਦੀ ਵੀ ਡੀਪਫੇਕ ਦਾ ਸ਼ਿਕਾਰ ਹੋ ਚੁੱਕੇ ਹਨ ਉਨ੍ਹਾਂ ਨੇ ਕਿਹਾ AI ਤਕਨੀਕ ਕ੍ਰਾਂਤੀ ਹੈ ਪਰ ਇਸ ਦੀ ਗਲਤ ਵਰਤੋਂ ਵੱਡੇ ਖਤਰੇ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦੀ ਹੈ। 23 ਨਵੰਬਰ ਨੂੰ ਕੇਂਦਰੀ ਮੰਤਰੀ ਅਸ਼ਵਨੀ ਵੈਸ਼ਣਵ ਨੇ ਕਿਹਾ ਸੀ ਕਿ ਡੀਪਫੇਕ ਲੋਕਰਾਜ ਦੇ ਲਈ ਨਵਾਂ ਖਤਰਾਂ ਬਣ ਕੇ ਉਭਰਿਆ ਹੈ । ਕੇਂਦਰੀ ਮੰਤਰੀ ਨੇ ਦੱਸਿਆ ਸੀ ਕਿ ਸਾਰੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮ ‘ਤੇ ਡੀਪਫੇਕ ਦੇ ਖਤਰੇ ਅਤੇ ਉਸ ਦੀ ਗੰਭੀਰਤਾ ਨੂੰ ਮੰਨਿਆ ਹੈ । ਡੀਪਫੇਕ ਬਣਾਉਣ ਵਾਲੇ ਅਤੇ ਉਸ ਨੂੰ ਹੋਸਟ ਕਰਨ ਵਾਲੇ ਪਲੇਟਫਾਰਮ ਦੀ ਜ਼ਿੰਮੇਵਾਰੀ ਤੈਅ ਹੋਵੇਗੀ ।

PM ਮੋਦੀ ਅਤੇ ਸਚਿਨ ਦਾ ਡੀਪਫੇਕ ਵੀਡੀਓ ਬਣਿਆ

ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਨਰਿੰਦਰ ਮੋਦੀ ਵੀ ਡੀਪਫੇਕ ‘ਤੇ ਚਿੰਤਾ ਜਤਾ ਚੁੱਕੇ ਹਨ । ਉਨ੍ਹਾਂ ਦੀ ਵੀ ਗਰਬਾ ਖੇਡ ਦੇ ਹੋਏ ਇੱਕ ਵੀਡੀਓ ਬਣੀ ਸੀ। 2 ਦਿਨ ਪਹਿਲਾਂ ਸਚਿਨ ਤੇਂਦੂਲਕਰ ਵੀ ਡੀਪਫੇਕ ਵੀਡੀਓ ਦਾ ਸ਼ਿਕਾਰ ਹੋਏ ਸਨ। ਉਹ ਸਕਾਈਵਰਡ ਐਵੀਏਟਰ ਕ੍ਰੇਸਟ ਗੇਮਿੰਗ ਐੱਪ ਨੂੰ ਪ੍ਰਮੋਟ ਕਰਦੇ ਹੋਏ ਵਿਖਾਈ ਦਿੱਤੇ ਸਨ। ਸਚਿਨ ਨੇ ਕਿਹਾ ਸੀ ਕਿ ਇਹ ਵੀਡੀਓ ਨਕਲੀ ਹੈ ਅਤੇ ਧੋਖਾ ਦੇਣ ਲਈ ਬਣਾਇਆ ਗਿਆ ਹੈ । ਇਸ ਤੋਂ ਪਹਿਲਾਂ ਸਚਿਨ ਦੀ ਧੀ ਸਾਰਾ ਤੇਂਦੂਲਕਰ ਦੀ ਵੀ ਡੀਪਫੇਕ ਦੇ ਜ਼ਰੀਏ ਤਿਆਰ ਕੀਤੀਆਂ ਇਤਰਾਜ਼ਯੋਗ ਵੀਡੀਓ ਵਾਇਰਲ ਹੋਈ ਸੀ । ਜਿਸ ਦੀ ਸਾਰਾ ਤੇਂਦੂਲਕਰ ਨੂੰ ਆਪਣੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਐਕਾਊਂਟ ‘ਤੇ ਸਫਾਈ ਦੇਣੀ ਪਈ ਸੀ ।

ਅਦਾਕਾਰਾ ਰਸ਼ਮਿਕਾ ਮੰਦਾਨਾ ਅਤੇ ਕਾਜੋਲ ਵੀ ਡੀਪਫੇਕ ਵੀਡੀਓ ਦਾ ਸ਼ਿਕਾਰ ਹੋ ਚੁੱਕੀ ਹੈ । AI ਦੀ ਤਕਨੀਕ ਨਾਲ ਉਨ੍ਹਾਂ ਦੀ ਵੀ ਇਤਰਾਜ਼ਯੋਗ ਵੀਡੀਓ ਤਿਆਰ ਕੀਤੀ ਗਈ ਸੀ । ਇਸ ਮਾਮਲੇ ਦੀ ਉਨ੍ਹਾਂ ਨੇ ਪੁਲਿਸ ਨੂੰ ਸ਼ਿਕਾਇਤ ਕੀਤੀ ਸੀ। ਪੁਲਿਸ ਨੇ ਡੀਪਫੇਕ ਵੀਡੀਓ ਦੇ ਮਾਮਲੇ ਵਿੱਚ ਇੱਕ ਸ਼ਖਸ ਨੂੰ ਗ੍ਰਿਫਤਾਰ ਵੀ ਕੀਤਾ ਸੀ ।

ਜਲੰਧਰ ਦੇ ਇੱਕ ਪ੍ਰਾਈਵੇਟ ਸਕੂਲ ਦੇ ਅਧਿਆਪਕ ਦੀ ਡੀਪਫੇਕ ਨਾਲ ਤਿਆਰ ਕੀਤੀ ਇਤਰਾਜ਼ਯੋਗ ਵੀਡੀਓ ਵਾਇਰਲ ਹੋ ਰਹੀ ਹੈ । ਉਧਰ 2023 ਦੇ ਅਕਤੂਬਰ ਵਿੱਚ ਚੰਡੀਗੜ੍ਹ ਦੇ ਇੱਕ ਪ੍ਰਾਈਵੇਟ ਸਕੂਲ ਤੋਂ ਸਭ ਤੋਂ ਪਹਿਲਾਂ ਮਾਮਲਾ ਸਾਹਮਣੇ ਆਇਆ ਸੀ । ਸਕੂਲ ਦੀਆਂ ਕਈ ਵਿਦਿਆਰਥਣਾ ਨੂੰ ਹਰ ਕੋਈ ਘੂਰ ਕੇ ਵੇਖ ਰਿਹਾ ਸੀ । ਉਨ੍ਹਾਂ ਨੂੰ ਆਉਂਦਾ ਜਾਂਦਾ ਵੇਖ ਕੇ ਦਬੀ ਜ਼ਬਾਨ ਵਿੱਚ ਸਾਥੀ ਵਿਦਿਆਰਥੀ ਕੁਮੈਂਟ ਕਰ ਰਹੇ ਸਨ । ਇਹ ਵਿਦਿਆਰਥਣਾਂ ਬਹੁਤ ਪਰੇਸ਼ਾਨ ਸਨ ਕਿ ਉਨ੍ਹਾਂ ਨਾਲ ਅਜਿਹਾ ਕਿਉਂ ਹੋ ਰਿਹਾ ਹੈ । ਜਦੋਂ ਵਿਦਿਆਰਥਣਾਂ ਨੇ ਸਨੈਪ ਚੈੱਟ ‘ਤੇ ਆਪਣੀ ਤਸਵੀਰਾਂ ਵਾਲਿਆਂ ਅਸ਼ਲੀਲ ਫੋਟੋਆਂ ਵੇਖਿਆ ਤਾਂ ਉਨ੍ਹਾਂ ਦੇ ਹੋਸ਼ ਉੱਡ ਗਏ । ਇਹ ਫੋਟੋਆਂ ਸਕੂਲ ਦੇ ਹੀ ਵਿਦਿਆਰਥੀ ਪੋਰਟਲ ਤੋਂ ਲਈਆਂ ਗਈਆਂ ਸਨ। ਵਿਦਿਆਰਥਣਾ ਨੇ ਸਕੂਲ ਪ੍ਰਸ਼ਾਸਨ ਨੇ ਅੰਦਰੂਨੀ ਜਾਂਚ ਬਿਠਾ ਕੇ ਗੱਲ ਗੋਲਮੋਲ ਕਰ ਦਿੱਤੀ । ਫਿਰ ਇੱਕ ਵਿਦਿਆਰਥਣ ਨੇ ਆਪਣੇ ਪਿਤਾ ਨੂੰ ਰੋਂਦੇ ਹੋਏ ਇਸ ਬਾਰੇ ਦੱਸਿਆਂ ਤਾਂ ਸਿੱਧਾ SSP ਚੰਡੀਗੜ੍ਹ ਨੂੰ ਸ਼ਿਕਾਇਤ ਕੀਤੀ ਗਈ । ਜਦੋਂ ਜਾਂਚ ਹੋਈ ਤਾਂ ਸਕੂਲ ਦਾ ਹੀ 13 ਸਾਲ ਦਾ ਵਿਦਿਆਰਥੀ ਫੜਿਆ । ਉਸ ਨੇ ਹੀ ਇਸ ਫੋਟੋਆਂ ਨੂੰ AI ਦੇ ਜ਼ਰੀਏ ਡੀਪਫੇਕ ਨਾਲ ਇਤਰਾਜ਼ਯੋਗ ਫੋਟੋ ਵਿੱਚ ਬਦਲਿਆ ਸੀ । ਉਸ ਦੇ ਖਿਲਾਫ਼ 67A ਤਹਿਤ ਮੁਕਦਮਾ ਦਰਜ ਕੀਤਾ ਗਿਆ ਅਤੇ ਉਸ ਨੂੰ ਜੁਵੀਨਲ ਕਸਟਡੀ ਵਿੱਚ ਲਿਆ ਗਿਆ । ਇਸੇ ਸਹਿ ਵਿਦਿਆਰਥੀ ਨੇ ਹੀ ਵਿਦਿਆਰਥਣ ਦੇ ਨਾਂ ‘ਤੇ ਸਨੈਪ ਚੈੱਟ ‘ਤੇ ਫੇਕ ਐਕਾਉਂਟ ਬਣਾਇਆ ਸੀ ਅਤੇ ਉੱਥੋਂ ਫੋਟੋਆਂ ਸ਼ੇਅਰ ਕੀਤੀਆਂ ਸਨ । ਜਿਸ ਤੋਂ ਬਾਅਦ ਸਕੂਲ ਵਿੱਚ ਕਾਉਂਸਲਿੰਗ ਦਾ ਪ੍ਰੋਗਰਾਮ ਰੱਖਿਆ ਗਿਆ ਅਤੇ ਵਿਦਿਆਰਥੀਆਂ ਨੂੰ AI ਅਤੇ ਡੀਪਫੇਕ ਤਕਨੀਕ ਬਾਰੇ ਜਾਣਕਾਰੀ ਦਿੱਤੀ ਗਈ ।

ਦੀਪਫੇਕ ਹੁੰਦਾ ਕੀ ਹੈ ਅਤੇ ਕਿਵੇਂ ਇਸ ਤੋਂ ਬਚਿਆ ਜਾ ਸਕਦਾ ਹੈ ?

ਡੀਪਫੇਕ ਸ਼ਬਦ ਪਹਿਲੀ ਵਾਰ 2017 ਵਿੱਚ ਵਰਤੋਂ ਵਿੱਚ ਆਇਆ ਸੀ। ਉਸ ਵੇਲੇ ਅਮਰੀਕਾ ਦੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਨਿਊਜ਼ ਐਗ੍ਰੀਗੇਟਰ Reddit ‘ਤੇ ਡੀਪਫੇਕ ID ਨਾਲ ਕਈ ਮਸ਼ਹੂਰ ਹਸਤਿਆਂ ਦੇ ਵੀਡੀਓ ਪੋਸਟ ਕੀਤੇ ਗਏ ਸਨ । ਇਸ ਵਿੱਚ ਅਦਾਕਾਰਾ ਐਮਾ ਵਾਟਸਨ,ਗੈਲ ਗੈਡੋਟ,ਸਕਾਰਲੇਟ,ਜੋਹਾਨਸਨ ਦੇ ਕਈ ਵੀਡੀਓ ਪੋਸਟ ਸਨ । ਕਿਸੇ ਰੀਅਲ ਵੀਡੀਓ,ਫੋਟੋਆਂ ਜਾਂ ਆਡੀਓ ਵਿੱਚ ਦੂਜੇ ਦਾ ਚਹਿਰਾ,ਆਵਾਜ਼ ਅਤੇ ਐਕਸਪ੍ਰੈਸ਼ਨ ਨੂੰ ਫਿਟ ਕਰ ਦੇਣ ਨੂੰ ਡੀਪਫੇਕ ਨਾਂ ਦਿੱਤਾ ਗਿਆ ਸੀ । ਇਹ ਇੰਨੀ ਸਫਾਈ ਨਾਲ ਹੁੰਦਾ ਹੈ ਕਿ ਇਸ ‘ਤੇ ਕੋਈ ਵੀ ਯਕੀਨ ਕਰ ਸਕਦਾ ਹੈ। ਇਸ ਵਿੱਚ ਫੇਕ ਵੀ ਅਸਲੀ ਵਾਂਗ ਨਜ਼ਰ ਆਉਂਦਾ ਹੈ। ਇਸ ਨੂੰ ਬਣਾਉਣ ਦੇ ਲਈ ਲਰਨਿੰਗ ਅਤੇ ਆਰਟੀਫੀਸ਼ਲ ਇੰਟੈਲੀਜੈਂਸ ਯਾਨੀ AI ਦਾ ਸਹਾਰਾ ਲਿਆ ਜਾਂਦਾ ਹੈ । ਫਿਰ ਵੀਡੀਓ ਅਤੇ ਆਡੀਓ ਨੂੰ ਤਕਨੀਕ ਅਤੇ ਸਾਫਵੇਅਰ ਦੀ ਮਦਦ ਨਾਲ ਤਿਆਰ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ।

AI ਅਤੇ ਸਾਫਟਵੇਅਰ ਮਾਹਿਰ ਮੁਤਾਬਿਕ ਹੁਣ ਰੇਡੀ ਟੂ ਯੂਜ਼ ਤਕਨੀਕ ਅਤੇ ਪੈਕੇਜ ਵੀ ਬਾਜ਼ਾਰ ਵਿੱਚ ਮੌਜੂਦ ਹਨ । ਹੁਣ ਕੋਈ ਵੀ ਇਸ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦਾ ਹੈ। ਮੌਜੂਦਾ ਤਕਨੀਕ ਵਿੱਚ ਤਾਂ ਹੁਣ ਆਵਾਜ਼ ਵੀ ਉਸੇ ਸ਼ਖਸ ਦੀ ਪੇਸ਼ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਜਿਸ ਦਾ ਵੀਡੀਓ ਹੁੰਦਾ ਹੈ । ਇਸ ਨਾਲ ਵਾਇਸ ਕਲੋਨਿੰਗ ਬਹੁਤ ਹੀ ਖਤਰਨਾਕ ਹੋ ਗਈ ਹੈ । AI ਟੂਲ ਦੇ ਜ਼ਰੀਏ ਤੁਹਾਡੀ ਅਵਾਜ਼ ਦੀ ਕਲੋਨਿੰਗ ਕਰਕੇ ਤੁਹਾਡੇ ਦੋਸਤ ਅਤੇ ਰਿਸ਼ਤੇਦਾਰ ਨੂੰ ਫੋਨ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਅਤੇ ਪੈਸੇ ਮੰਗ ਕੇ ਠੱਗੀ ਮਾਰਨ ਦੇ ਮਾਮਲੇ ਸਾਹਮਣੇ ਆਉਂਦੇ ਹਨ ।

ਡੀਪਫੇਕ ਤਕਨੀਕ ਦੇ ਜ਼ਰੀਏ ਵੀਡੀਓ ਬਣਾਉਣ ਦਾ ਤਰੀਕਾ

ਸਭ ਤੋਂ ਪਹਿਲਾਂ ਅਜਿਹੀ ਫੋਟੋ ਜਾਂ ਵੀਡੀਓ ਦੀ ਪਛਾਣ ਕਰੋ ਜਿਸ ਨਾਲ ਨਕਲੀ ਚਹਿਰਾ ਅਤੇ ਆਵਾਜ ਫਿਟ ਕੀਤੀ ਜਾ ਸਕੇ । ਸਾਰੇ ਚਹਿਰਿਆਂ ਨੂੰ ਇਕੱਠਾ ਕਰਨ ਦੀ ਤਕਨੀਕ ਨੂੰ ਇਨਕੋਡਰ ਐਲਗੋਰਿਦਮ ਅਤੇ ਚਹਿਰੇ ਨੂੰ ਬਦਲਣ ਦੀ ਤਕਨੀਕ ਨੂੰ ਫੇਸ ਸਵੈਪ ਕਹਿੰਦੇ ਹਨ । ਦੂਜਾ ਪ੍ਰੋਗਰਾਮ ਡੀਕੋਡਰ ਐਲਗੋਰਿਦਮ ਹੁੰਦਾ ਹੈ। ਫੇਸ ਸਵੈਪ ਹੋਣ ਦੇ ਬਾਅਦ ਐਕਸਪ੍ਰੈਸ਼ਨ ਪਾਇਆ ਜਾਂਦਾ ਹੈ । ਫਿਰ ਆਡੀਓ ਨੂੰ ਐਡ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਅਤੇ ਵੀਡੀਓ ਦੇ ਇੱਕ-ਇੱਕ ਫੇਮ ‘ਤੇ ਕੰਮ ਕੀਤਾ ਜਾਂਦਾ ਹੈ,ਤਾਂਕੀ ਵੀਡੀਓ ਅਸਲੀ ਲੱਗੇ । 24 ਫਰੇਮ ਯਾਨੀ 24 ਇਮੇਜ ਨੂੰ ਮਿਲਾਕੇ ਇੱਕ ਸੈਕੰਡ ਦਾ ਵੀਡੀਓ ਬਣਦਾ ਹੈ ।

ਆਰਟੀਫੀਸ਼ਲ ਇੰਟੈਲੀਜੈਂਸ ਯਾਨੀ AI ਨੇ ਇਹ ਕੰਮ ਹੋਰ ਅਸਾਨ ਕਰ ਦਿੱਤਾ ਹੈ। ਪਬਲਿਕ ਡੋਮੇਨੇ ਵਿੱਚ ਕੁੱਝ ਐਪ ਹਨ ਜਿੰਨਾਂ ਨਾਲ ਸਿਰਫ ਫੋਟੋ ਪਾਉਣੀ ਹੁੰਦੀ ਹੈ ਅਤੇ ਬਾਕੀ ਕੰਮ AI ਕਰਦਾ ਹੈ ਫੇਕ ਵੀਡੀਓ ਜਾਂ ਫੋਟੋ ਤਿਆਰ ਹੋ ਜਾਂਦੀ ਹੈ। ਇਸ ਦੇ ਕਈ ਉਦਾਹਰਣ ਸੋਸ਼ਲ ਵੀਡੀਓ ਚੈੱਟ ਐੱਪ ਹੈ,ਜਿਸ ਵਿੱਚ ਤੁਸੀਂ ਆਪਣਾ ਚਿਹਰਾ ਲੁਕਾਉਣ ਲਈ ਲਾਈਵ ਮਾਸਕ ਲੱਗਾ ਲੈਂਦੇ ਹੋ ਜਾਂ ਫਿਰ ਕਦੇ ਕ੍ਰਾਊਨ ਪਾ ਲੈਂਦੇ ਹੋ। ਜਾਣਕਾਰਾ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਜਿਹੜੇ AI ਤਕਨੀਕ ਦੇ ਮਾਹਿਰ ਵੀਡੀਓ ਬਣਾਉਂਦੇ ਹਨ ਉਸ ਨੂੰ ਵੇਖ ਕੇ ਕੋਈ ਵੀ ਧੋਖਾ ਖਾ ਸਕਦਾ ਹੈ । ਜਦੋਂ ਤੱਕ ਫੇਕ ਵੀਡੀਓ ਦੀ ਸਚਾਈ ਪਤਾ ਚੱਲ ਦੀ ਹੈ,ਵੀਡੀਓ ਦਾ ਪੀੜ੍ਹਤ ਦੀ ਸਾਖ ਮਿੱਟੀ ਵਿੱਚ ਮਿਲ ਚੁੱਕੀ ਹੁੰਦੀ ਹੈ । ਅਮਰੀਕਾ ਵਿੱਚ ਹੋਈ ਹੋਈ ਇੱਕ ਰਿਸਰਚ ਦੇ ਮੁਤਾਬਿਕ ਆਮਤੌਰ ‘ਤੇ 96% AI ਡੀਪਫੇਕ ਵੀਡੀਓ ਦੀ ਵਰਤੋਂ ਪੋਰਨ ਬਣਾਉਣ ਦੇ ਲਈ ਕਰਦੇ ਹਨ।

ਫੇਕ ਵੀਡੀਓ ਦੀ ਪਛਾਣ ਕਰਨ ਵਾਲਿਆਂ ਤੋਂ 2 ਕਦਮ ਅੱਗੇ

ਫੇਕ ਵੀਡੀਓ ਬਣਾਉਣ ਵਾਲੇ ਇਸ ਦੀ ਪੱਛਾਣ ਕਰਨ ਵਾਲਿਆਂ ਤੋਂ 2 ਕਦਮ ਅੱਗੇ ਹਨ । 2018 ਵਿੱਚ ਅਮਰੀਕੀ ਰਿਸਰਚਰਡ ਨੇ ਦੱਸਿਆ ਕਿ ਫੇਕ ਵੀਡੀਓ ‘ਪਲਕਾ’ ਨਹੀਂ ਹਿਲਾਉਂਦੀਆਂ ਹਨ ਤਾਂ ਇਸ ਦੇ ਕੁਝ ਹੀ ਮਹੀਨੇ ਬਾਅਦ ਫੇਕ ਵੀਡੀਓ ਨੇ ‘ਪਲਕਾ’ ਵੀ ਹਿਲਾਉਣੀਆਂ ਸ਼ੁਰੂ ਕਰ ਦਿੱਤੀਆਂ । ਹੁਣ ਤੱਕ ਅਜਿਹਾ ਕੋਈ ਸਰਟੀਫਾਈ ਟੂਲ ਨਹੀਂ ਹੈ ਜੋ ਡੀਪਫੇਕ ਵੀਡੀਓ ਦੀ ਪਛਾਣ ਕਰ ਸਕੇ । ਪਰ ਗੂਗਲ,ਅਮੇਜਨ ਅਤੇ ਮੇਟਾ ਸਮੇਤ ਕਈ ਕੰਪਨੀਆਂ ਹਨ ਜੋ ਇਸ ‘ਤੇ ਲਗਾਤਾਰ ਕੰਮ ਕਰ ਰਹੀਆਂ ਹਨ। ਪਰ ਫਿਰ ਵੀ ਕੁਝ ਚੀਜ਼ਾ ‘ਤੇ ਫੋਕਰ ਕੀਤਾ ਜਾਵੇ ਤਾਂ ਅਸਲੀਅਤ ਸਾਹਮਣੇ ਆ ਸਕਦੀ ਹੈ ।

Exit mobile version