India Khaas Lekh Technology

‘Deepfake ਬਣਾਉਣ ਵਾਲਿਆਂ ਦੀ ਖੈਰ ਨਹੀਂ’ ! ਨਵੇਂ ਕਾਨੂੰਨ ‘ਚ ਸਖ਼ਤ ਕਾਰਵਾਈ ! ਪੰਜਾਬ ਦਾ ਪ੍ਰਿੰਸੀਪਲ ਵੀ ਬਣਿਆ ਸ਼ਿਕਾਰ

ਬਿਉਰੋ ਰਿਪੋਰਟ : ਡੀਪਫੇਕ ( DEEPFAKE) ਨੂੰ ਲੈਕੇ ਸਰਕਾਰ ਨਵੇਂ ਨਿਯਮ ਲਿਆ ਰਹੀ ਹੈ । ਕੇਂਦਰੀ ਮੰਤਰੀ ਰਾਜੀਵ ਚੰਦਰਸ਼ੇਖਰ ਨੇ ਕਿਹਾ ਅਗਲੇ 7 ਤੋਂ 8 ਦਿਨਾਂ ਦੇ ਅੰਦਰ ਨਵੇਂ IT ਨਿਯਮ ਵਿੱਚ ਨੋਟੀਫਾਈ ਕੀਤਾ ਜਾਵੇਗਾ । ਉਨ੍ਹਾਂ ਨੇ ਕਿਹਾ ਮੈਂ ਡੀਪਫੇਕ
‘ਤੇ 2 ਬੈਠਕਾਂ ਕੀਤੀਆਂ ਹਨ । ਨਵੇਂ IT ਨਿਯਮਾਂ ਵਿੱਚ ਗਲਤ ਸੂਚਨਾ ਅਤੇ ਡੀਪਫੇਕ ਨੂੰ ਲੈਕੇ ਕਾਫੀ ਕਾਨੂੰਨ ਹਨ ਜਿਸ ਨੂੰ ਮੰਨਣਾ ਜ਼ਰੂਰੀ ਹੋਵੇਗਾ ਨਹੀਂ ਤਾਂ ਕਾਰਵਾਈ ਹੋਵੇਗੀ । ਇਸ ਤੋਂ ਪਹਿਲਾਂ ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਨਰਿੰਦਰ ਮੋਦੀ ਵੀ ਡੀਪਫੇਕ ਦਾ ਸ਼ਿਕਾਰ ਹੋ ਚੁੱਕੇ ਹਨ ਉਨ੍ਹਾਂ ਨੇ ਕਿਹਾ AI ਤਕਨੀਕ ਕ੍ਰਾਂਤੀ ਹੈ ਪਰ ਇਸ ਦੀ ਗਲਤ ਵਰਤੋਂ ਵੱਡੇ ਖਤਰੇ ਦਾ ਕਾਰਨ ਬਣ ਸਕਦੀ ਹੈ। 23 ਨਵੰਬਰ ਨੂੰ ਕੇਂਦਰੀ ਮੰਤਰੀ ਅਸ਼ਵਨੀ ਵੈਸ਼ਣਵ ਨੇ ਕਿਹਾ ਸੀ ਕਿ ਡੀਪਫੇਕ ਲੋਕਰਾਜ ਦੇ ਲਈ ਨਵਾਂ ਖਤਰਾਂ ਬਣ ਕੇ ਉਭਰਿਆ ਹੈ । ਕੇਂਦਰੀ ਮੰਤਰੀ ਨੇ ਦੱਸਿਆ ਸੀ ਕਿ ਸਾਰੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਪਲੇਟਫਾਰਮ ‘ਤੇ ਡੀਪਫੇਕ ਦੇ ਖਤਰੇ ਅਤੇ ਉਸ ਦੀ ਗੰਭੀਰਤਾ ਨੂੰ ਮੰਨਿਆ ਹੈ । ਡੀਪਫੇਕ ਬਣਾਉਣ ਵਾਲੇ ਅਤੇ ਉਸ ਨੂੰ ਹੋਸਟ ਕਰਨ ਵਾਲੇ ਪਲੇਟਫਾਰਮ ਦੀ ਜ਼ਿੰਮੇਵਾਰੀ ਤੈਅ ਹੋਵੇਗੀ ।

PM ਮੋਦੀ ਅਤੇ ਸਚਿਨ ਦਾ ਡੀਪਫੇਕ ਵੀਡੀਓ ਬਣਿਆ

ਪ੍ਰਧਾਨ ਮੰਤਰੀ ਨਰਿੰਦਰ ਮੋਦੀ ਵੀ ਡੀਪਫੇਕ ‘ਤੇ ਚਿੰਤਾ ਜਤਾ ਚੁੱਕੇ ਹਨ । ਉਨ੍ਹਾਂ ਦੀ ਵੀ ਗਰਬਾ ਖੇਡ ਦੇ ਹੋਏ ਇੱਕ ਵੀਡੀਓ ਬਣੀ ਸੀ। 2 ਦਿਨ ਪਹਿਲਾਂ ਸਚਿਨ ਤੇਂਦੂਲਕਰ ਵੀ ਡੀਪਫੇਕ ਵੀਡੀਓ ਦਾ ਸ਼ਿਕਾਰ ਹੋਏ ਸਨ। ਉਹ ਸਕਾਈਵਰਡ ਐਵੀਏਟਰ ਕ੍ਰੇਸਟ ਗੇਮਿੰਗ ਐੱਪ ਨੂੰ ਪ੍ਰਮੋਟ ਕਰਦੇ ਹੋਏ ਵਿਖਾਈ ਦਿੱਤੇ ਸਨ। ਸਚਿਨ ਨੇ ਕਿਹਾ ਸੀ ਕਿ ਇਹ ਵੀਡੀਓ ਨਕਲੀ ਹੈ ਅਤੇ ਧੋਖਾ ਦੇਣ ਲਈ ਬਣਾਇਆ ਗਿਆ ਹੈ । ਇਸ ਤੋਂ ਪਹਿਲਾਂ ਸਚਿਨ ਦੀ ਧੀ ਸਾਰਾ ਤੇਂਦੂਲਕਰ ਦੀ ਵੀ ਡੀਪਫੇਕ ਦੇ ਜ਼ਰੀਏ ਤਿਆਰ ਕੀਤੀਆਂ ਇਤਰਾਜ਼ਯੋਗ ਵੀਡੀਓ ਵਾਇਰਲ ਹੋਈ ਸੀ । ਜਿਸ ਦੀ ਸਾਰਾ ਤੇਂਦੂਲਕਰ ਨੂੰ ਆਪਣੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਐਕਾਊਂਟ ‘ਤੇ ਸਫਾਈ ਦੇਣੀ ਪਈ ਸੀ ।

ਅਦਾਕਾਰਾ ਰਸ਼ਮਿਕਾ ਮੰਦਾਨਾ ਅਤੇ ਕਾਜੋਲ ਵੀ ਡੀਪਫੇਕ ਵੀਡੀਓ ਦਾ ਸ਼ਿਕਾਰ ਹੋ ਚੁੱਕੀ ਹੈ । AI ਦੀ ਤਕਨੀਕ ਨਾਲ ਉਨ੍ਹਾਂ ਦੀ ਵੀ ਇਤਰਾਜ਼ਯੋਗ ਵੀਡੀਓ ਤਿਆਰ ਕੀਤੀ ਗਈ ਸੀ । ਇਸ ਮਾਮਲੇ ਦੀ ਉਨ੍ਹਾਂ ਨੇ ਪੁਲਿਸ ਨੂੰ ਸ਼ਿਕਾਇਤ ਕੀਤੀ ਸੀ। ਪੁਲਿਸ ਨੇ ਡੀਪਫੇਕ ਵੀਡੀਓ ਦੇ ਮਾਮਲੇ ਵਿੱਚ ਇੱਕ ਸ਼ਖਸ ਨੂੰ ਗ੍ਰਿਫਤਾਰ ਵੀ ਕੀਤਾ ਸੀ ।

ਜਲੰਧਰ ਦੇ ਇੱਕ ਪ੍ਰਾਈਵੇਟ ਸਕੂਲ ਦੇ ਅਧਿਆਪਕ ਦੀ ਡੀਪਫੇਕ ਨਾਲ ਤਿਆਰ ਕੀਤੀ ਇਤਰਾਜ਼ਯੋਗ ਵੀਡੀਓ ਵਾਇਰਲ ਹੋ ਰਹੀ ਹੈ । ਉਧਰ 2023 ਦੇ ਅਕਤੂਬਰ ਵਿੱਚ ਚੰਡੀਗੜ੍ਹ ਦੇ ਇੱਕ ਪ੍ਰਾਈਵੇਟ ਸਕੂਲ ਤੋਂ ਸਭ ਤੋਂ ਪਹਿਲਾਂ ਮਾਮਲਾ ਸਾਹਮਣੇ ਆਇਆ ਸੀ । ਸਕੂਲ ਦੀਆਂ ਕਈ ਵਿਦਿਆਰਥਣਾ ਨੂੰ ਹਰ ਕੋਈ ਘੂਰ ਕੇ ਵੇਖ ਰਿਹਾ ਸੀ । ਉਨ੍ਹਾਂ ਨੂੰ ਆਉਂਦਾ ਜਾਂਦਾ ਵੇਖ ਕੇ ਦਬੀ ਜ਼ਬਾਨ ਵਿੱਚ ਸਾਥੀ ਵਿਦਿਆਰਥੀ ਕੁਮੈਂਟ ਕਰ ਰਹੇ ਸਨ । ਇਹ ਵਿਦਿਆਰਥਣਾਂ ਬਹੁਤ ਪਰੇਸ਼ਾਨ ਸਨ ਕਿ ਉਨ੍ਹਾਂ ਨਾਲ ਅਜਿਹਾ ਕਿਉਂ ਹੋ ਰਿਹਾ ਹੈ । ਜਦੋਂ ਵਿਦਿਆਰਥਣਾਂ ਨੇ ਸਨੈਪ ਚੈੱਟ ‘ਤੇ ਆਪਣੀ ਤਸਵੀਰਾਂ ਵਾਲਿਆਂ ਅਸ਼ਲੀਲ ਫੋਟੋਆਂ ਵੇਖਿਆ ਤਾਂ ਉਨ੍ਹਾਂ ਦੇ ਹੋਸ਼ ਉੱਡ ਗਏ । ਇਹ ਫੋਟੋਆਂ ਸਕੂਲ ਦੇ ਹੀ ਵਿਦਿਆਰਥੀ ਪੋਰਟਲ ਤੋਂ ਲਈਆਂ ਗਈਆਂ ਸਨ। ਵਿਦਿਆਰਥਣਾ ਨੇ ਸਕੂਲ ਪ੍ਰਸ਼ਾਸਨ ਨੇ ਅੰਦਰੂਨੀ ਜਾਂਚ ਬਿਠਾ ਕੇ ਗੱਲ ਗੋਲਮੋਲ ਕਰ ਦਿੱਤੀ । ਫਿਰ ਇੱਕ ਵਿਦਿਆਰਥਣ ਨੇ ਆਪਣੇ ਪਿਤਾ ਨੂੰ ਰੋਂਦੇ ਹੋਏ ਇਸ ਬਾਰੇ ਦੱਸਿਆਂ ਤਾਂ ਸਿੱਧਾ SSP ਚੰਡੀਗੜ੍ਹ ਨੂੰ ਸ਼ਿਕਾਇਤ ਕੀਤੀ ਗਈ । ਜਦੋਂ ਜਾਂਚ ਹੋਈ ਤਾਂ ਸਕੂਲ ਦਾ ਹੀ 13 ਸਾਲ ਦਾ ਵਿਦਿਆਰਥੀ ਫੜਿਆ । ਉਸ ਨੇ ਹੀ ਇਸ ਫੋਟੋਆਂ ਨੂੰ AI ਦੇ ਜ਼ਰੀਏ ਡੀਪਫੇਕ ਨਾਲ ਇਤਰਾਜ਼ਯੋਗ ਫੋਟੋ ਵਿੱਚ ਬਦਲਿਆ ਸੀ । ਉਸ ਦੇ ਖਿਲਾਫ਼ 67A ਤਹਿਤ ਮੁਕਦਮਾ ਦਰਜ ਕੀਤਾ ਗਿਆ ਅਤੇ ਉਸ ਨੂੰ ਜੁਵੀਨਲ ਕਸਟਡੀ ਵਿੱਚ ਲਿਆ ਗਿਆ । ਇਸੇ ਸਹਿ ਵਿਦਿਆਰਥੀ ਨੇ ਹੀ ਵਿਦਿਆਰਥਣ ਦੇ ਨਾਂ ‘ਤੇ ਸਨੈਪ ਚੈੱਟ ‘ਤੇ ਫੇਕ ਐਕਾਉਂਟ ਬਣਾਇਆ ਸੀ ਅਤੇ ਉੱਥੋਂ ਫੋਟੋਆਂ ਸ਼ੇਅਰ ਕੀਤੀਆਂ ਸਨ । ਜਿਸ ਤੋਂ ਬਾਅਦ ਸਕੂਲ ਵਿੱਚ ਕਾਉਂਸਲਿੰਗ ਦਾ ਪ੍ਰੋਗਰਾਮ ਰੱਖਿਆ ਗਿਆ ਅਤੇ ਵਿਦਿਆਰਥੀਆਂ ਨੂੰ AI ਅਤੇ ਡੀਪਫੇਕ ਤਕਨੀਕ ਬਾਰੇ ਜਾਣਕਾਰੀ ਦਿੱਤੀ ਗਈ ।

ਦੀਪਫੇਕ ਹੁੰਦਾ ਕੀ ਹੈ ਅਤੇ ਕਿਵੇਂ ਇਸ ਤੋਂ ਬਚਿਆ ਜਾ ਸਕਦਾ ਹੈ ?

ਡੀਪਫੇਕ ਸ਼ਬਦ ਪਹਿਲੀ ਵਾਰ 2017 ਵਿੱਚ ਵਰਤੋਂ ਵਿੱਚ ਆਇਆ ਸੀ। ਉਸ ਵੇਲੇ ਅਮਰੀਕਾ ਦੇ ਸੋਸ਼ਲ ਮੀਡੀਆ ਨਿਊਜ਼ ਐਗ੍ਰੀਗੇਟਰ Reddit ‘ਤੇ ਡੀਪਫੇਕ ID ਨਾਲ ਕਈ ਮਸ਼ਹੂਰ ਹਸਤਿਆਂ ਦੇ ਵੀਡੀਓ ਪੋਸਟ ਕੀਤੇ ਗਏ ਸਨ । ਇਸ ਵਿੱਚ ਅਦਾਕਾਰਾ ਐਮਾ ਵਾਟਸਨ,ਗੈਲ ਗੈਡੋਟ,ਸਕਾਰਲੇਟ,ਜੋਹਾਨਸਨ ਦੇ ਕਈ ਵੀਡੀਓ ਪੋਸਟ ਸਨ । ਕਿਸੇ ਰੀਅਲ ਵੀਡੀਓ,ਫੋਟੋਆਂ ਜਾਂ ਆਡੀਓ ਵਿੱਚ ਦੂਜੇ ਦਾ ਚਹਿਰਾ,ਆਵਾਜ਼ ਅਤੇ ਐਕਸਪ੍ਰੈਸ਼ਨ ਨੂੰ ਫਿਟ ਕਰ ਦੇਣ ਨੂੰ ਡੀਪਫੇਕ ਨਾਂ ਦਿੱਤਾ ਗਿਆ ਸੀ । ਇਹ ਇੰਨੀ ਸਫਾਈ ਨਾਲ ਹੁੰਦਾ ਹੈ ਕਿ ਇਸ ‘ਤੇ ਕੋਈ ਵੀ ਯਕੀਨ ਕਰ ਸਕਦਾ ਹੈ। ਇਸ ਵਿੱਚ ਫੇਕ ਵੀ ਅਸਲੀ ਵਾਂਗ ਨਜ਼ਰ ਆਉਂਦਾ ਹੈ। ਇਸ ਨੂੰ ਬਣਾਉਣ ਦੇ ਲਈ ਲਰਨਿੰਗ ਅਤੇ ਆਰਟੀਫੀਸ਼ਲ ਇੰਟੈਲੀਜੈਂਸ ਯਾਨੀ AI ਦਾ ਸਹਾਰਾ ਲਿਆ ਜਾਂਦਾ ਹੈ । ਫਿਰ ਵੀਡੀਓ ਅਤੇ ਆਡੀਓ ਨੂੰ ਤਕਨੀਕ ਅਤੇ ਸਾਫਵੇਅਰ ਦੀ ਮਦਦ ਨਾਲ ਤਿਆਰ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ।

AI ਅਤੇ ਸਾਫਟਵੇਅਰ ਮਾਹਿਰ ਮੁਤਾਬਿਕ ਹੁਣ ਰੇਡੀ ਟੂ ਯੂਜ਼ ਤਕਨੀਕ ਅਤੇ ਪੈਕੇਜ ਵੀ ਬਾਜ਼ਾਰ ਵਿੱਚ ਮੌਜੂਦ ਹਨ । ਹੁਣ ਕੋਈ ਵੀ ਇਸ ਦੀ ਵਰਤੋਂ ਕਰ ਸਕਦਾ ਹੈ। ਮੌਜੂਦਾ ਤਕਨੀਕ ਵਿੱਚ ਤਾਂ ਹੁਣ ਆਵਾਜ਼ ਵੀ ਉਸੇ ਸ਼ਖਸ ਦੀ ਪੇਸ਼ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਜਿਸ ਦਾ ਵੀਡੀਓ ਹੁੰਦਾ ਹੈ । ਇਸ ਨਾਲ ਵਾਇਸ ਕਲੋਨਿੰਗ ਬਹੁਤ ਹੀ ਖਤਰਨਾਕ ਹੋ ਗਈ ਹੈ । AI ਟੂਲ ਦੇ ਜ਼ਰੀਏ ਤੁਹਾਡੀ ਅਵਾਜ਼ ਦੀ ਕਲੋਨਿੰਗ ਕਰਕੇ ਤੁਹਾਡੇ ਦੋਸਤ ਅਤੇ ਰਿਸ਼ਤੇਦਾਰ ਨੂੰ ਫੋਨ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਅਤੇ ਪੈਸੇ ਮੰਗ ਕੇ ਠੱਗੀ ਮਾਰਨ ਦੇ ਮਾਮਲੇ ਸਾਹਮਣੇ ਆਉਂਦੇ ਹਨ ।

ਡੀਪਫੇਕ ਤਕਨੀਕ ਦੇ ਜ਼ਰੀਏ ਵੀਡੀਓ ਬਣਾਉਣ ਦਾ ਤਰੀਕਾ

ਸਭ ਤੋਂ ਪਹਿਲਾਂ ਅਜਿਹੀ ਫੋਟੋ ਜਾਂ ਵੀਡੀਓ ਦੀ ਪਛਾਣ ਕਰੋ ਜਿਸ ਨਾਲ ਨਕਲੀ ਚਹਿਰਾ ਅਤੇ ਆਵਾਜ ਫਿਟ ਕੀਤੀ ਜਾ ਸਕੇ । ਸਾਰੇ ਚਹਿਰਿਆਂ ਨੂੰ ਇਕੱਠਾ ਕਰਨ ਦੀ ਤਕਨੀਕ ਨੂੰ ਇਨਕੋਡਰ ਐਲਗੋਰਿਦਮ ਅਤੇ ਚਹਿਰੇ ਨੂੰ ਬਦਲਣ ਦੀ ਤਕਨੀਕ ਨੂੰ ਫੇਸ ਸਵੈਪ ਕਹਿੰਦੇ ਹਨ । ਦੂਜਾ ਪ੍ਰੋਗਰਾਮ ਡੀਕੋਡਰ ਐਲਗੋਰਿਦਮ ਹੁੰਦਾ ਹੈ। ਫੇਸ ਸਵੈਪ ਹੋਣ ਦੇ ਬਾਅਦ ਐਕਸਪ੍ਰੈਸ਼ਨ ਪਾਇਆ ਜਾਂਦਾ ਹੈ । ਫਿਰ ਆਡੀਓ ਨੂੰ ਐਡ ਕੀਤਾ ਜਾਂਦਾ ਹੈ ਅਤੇ ਵੀਡੀਓ ਦੇ ਇੱਕ-ਇੱਕ ਫੇਮ ‘ਤੇ ਕੰਮ ਕੀਤਾ ਜਾਂਦਾ ਹੈ,ਤਾਂਕੀ ਵੀਡੀਓ ਅਸਲੀ ਲੱਗੇ । 24 ਫਰੇਮ ਯਾਨੀ 24 ਇਮੇਜ ਨੂੰ ਮਿਲਾਕੇ ਇੱਕ ਸੈਕੰਡ ਦਾ ਵੀਡੀਓ ਬਣਦਾ ਹੈ ।

ਆਰਟੀਫੀਸ਼ਲ ਇੰਟੈਲੀਜੈਂਸ ਯਾਨੀ AI ਨੇ ਇਹ ਕੰਮ ਹੋਰ ਅਸਾਨ ਕਰ ਦਿੱਤਾ ਹੈ। ਪਬਲਿਕ ਡੋਮੇਨੇ ਵਿੱਚ ਕੁੱਝ ਐਪ ਹਨ ਜਿੰਨਾਂ ਨਾਲ ਸਿਰਫ ਫੋਟੋ ਪਾਉਣੀ ਹੁੰਦੀ ਹੈ ਅਤੇ ਬਾਕੀ ਕੰਮ AI ਕਰਦਾ ਹੈ ਫੇਕ ਵੀਡੀਓ ਜਾਂ ਫੋਟੋ ਤਿਆਰ ਹੋ ਜਾਂਦੀ ਹੈ। ਇਸ ਦੇ ਕਈ ਉਦਾਹਰਣ ਸੋਸ਼ਲ ਵੀਡੀਓ ਚੈੱਟ ਐੱਪ ਹੈ,ਜਿਸ ਵਿੱਚ ਤੁਸੀਂ ਆਪਣਾ ਚਿਹਰਾ ਲੁਕਾਉਣ ਲਈ ਲਾਈਵ ਮਾਸਕ ਲੱਗਾ ਲੈਂਦੇ ਹੋ ਜਾਂ ਫਿਰ ਕਦੇ ਕ੍ਰਾਊਨ ਪਾ ਲੈਂਦੇ ਹੋ। ਜਾਣਕਾਰਾ ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਜਿਹੜੇ AI ਤਕਨੀਕ ਦੇ ਮਾਹਿਰ ਵੀਡੀਓ ਬਣਾਉਂਦੇ ਹਨ ਉਸ ਨੂੰ ਵੇਖ ਕੇ ਕੋਈ ਵੀ ਧੋਖਾ ਖਾ ਸਕਦਾ ਹੈ । ਜਦੋਂ ਤੱਕ ਫੇਕ ਵੀਡੀਓ ਦੀ ਸਚਾਈ ਪਤਾ ਚੱਲ ਦੀ ਹੈ,ਵੀਡੀਓ ਦਾ ਪੀੜ੍ਹਤ ਦੀ ਸਾਖ ਮਿੱਟੀ ਵਿੱਚ ਮਿਲ ਚੁੱਕੀ ਹੁੰਦੀ ਹੈ । ਅਮਰੀਕਾ ਵਿੱਚ ਹੋਈ ਹੋਈ ਇੱਕ ਰਿਸਰਚ ਦੇ ਮੁਤਾਬਿਕ ਆਮਤੌਰ ‘ਤੇ 96% AI ਡੀਪਫੇਕ ਵੀਡੀਓ ਦੀ ਵਰਤੋਂ ਪੋਰਨ ਬਣਾਉਣ ਦੇ ਲਈ ਕਰਦੇ ਹਨ।

ਫੇਕ ਵੀਡੀਓ ਦੀ ਪਛਾਣ ਕਰਨ ਵਾਲਿਆਂ ਤੋਂ 2 ਕਦਮ ਅੱਗੇ

ਫੇਕ ਵੀਡੀਓ ਬਣਾਉਣ ਵਾਲੇ ਇਸ ਦੀ ਪੱਛਾਣ ਕਰਨ ਵਾਲਿਆਂ ਤੋਂ 2 ਕਦਮ ਅੱਗੇ ਹਨ । 2018 ਵਿੱਚ ਅਮਰੀਕੀ ਰਿਸਰਚਰਡ ਨੇ ਦੱਸਿਆ ਕਿ ਫੇਕ ਵੀਡੀਓ ‘ਪਲਕਾ’ ਨਹੀਂ ਹਿਲਾਉਂਦੀਆਂ ਹਨ ਤਾਂ ਇਸ ਦੇ ਕੁਝ ਹੀ ਮਹੀਨੇ ਬਾਅਦ ਫੇਕ ਵੀਡੀਓ ਨੇ ‘ਪਲਕਾ’ ਵੀ ਹਿਲਾਉਣੀਆਂ ਸ਼ੁਰੂ ਕਰ ਦਿੱਤੀਆਂ । ਹੁਣ ਤੱਕ ਅਜਿਹਾ ਕੋਈ ਸਰਟੀਫਾਈ ਟੂਲ ਨਹੀਂ ਹੈ ਜੋ ਡੀਪਫੇਕ ਵੀਡੀਓ ਦੀ ਪਛਾਣ ਕਰ ਸਕੇ । ਪਰ ਗੂਗਲ,ਅਮੇਜਨ ਅਤੇ ਮੇਟਾ ਸਮੇਤ ਕਈ ਕੰਪਨੀਆਂ ਹਨ ਜੋ ਇਸ ‘ਤੇ ਲਗਾਤਾਰ ਕੰਮ ਕਰ ਰਹੀਆਂ ਹਨ। ਪਰ ਫਿਰ ਵੀ ਕੁਝ ਚੀਜ਼ਾ ‘ਤੇ ਫੋਕਰ ਕੀਤਾ ਜਾਵੇ ਤਾਂ ਅਸਲੀਅਤ ਸਾਹਮਣੇ ਆ ਸਕਦੀ ਹੈ ।