Explainer: ಆತಂಕ ತಂದ ರಶ್ಮಿಕಾ ವೈರಲ್ ವಿಡಿಯೋ, ರಾಜೀವ್ ಚಂದ್ರಶೇಖರ್ ಏನಂದ್ರು, ಅಸಲಿ-ನಕಲಿ ಪತ್ತೆ ಹೇಗೆ, ಡೀಪ್ಫೇಕ್ ಕುರಿತು ತಿಳಿಯಿರಿ
What are deepfake videos: ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ- ಝರಾ ಪಟೇಲ್ ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋ ವೈರಲ್ ಆದ ಸಂದರ್ಭದಲ್ಲಿ "ಏನಿದು ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋ" ಎಂಬ ಪ್ರಶ್ನೆ ಎಲ್ಲರಲ್ಲಿಯೂ ಮೂಡಿದೆ. ಇಂತಹ ವಿಡಿಯೋಗಳಲ್ಲಿ ಅಸಲಿ-ನಕಲಿ ಗುರುತಿಸಬಹುದು ಎಂಬ ಅಂಶವನ್ನೂ ನೆಟ್ಟಿಗರು ಚರ್ಚಿಸುತ್ತಿದ್ದಾರೆ. ಕೇಂದ್ರ ಐಟಿ ಸಚಿವ ರಾಜೀವ್ ಚಂದ್ರಶೇಖರ್ ಕೂಡ ಪ್ರತಿಕ್ರಿಯೆ ನೀಡಿದ್ದಾರೆ.
ಕನ್ನಡದ ಕಿರಿಕ್ ಪಾರ್ಟಿ ಚಿತ್ರದಿಂದ ಜನಪ್ರಿಯತೆ ಪಡೆದು ಟಾಲಿವುಡ್ಗೆ ನೆಗೆದು ಇದೀಗ ಬಾಲಿವುಡ್ನಲ್ಲೂ ಮಿಂಚುತ್ತಿರುವ ಪ್ರತಿಭಾನ್ವಿತ ನಟಿ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಅವರು ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋವೊಂದು ಸೋಷಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ಹರಿದಾಡುತ್ತಿದೆ. ಈ ವಿಡಿಯೋ ಹೊಸ ಚರ್ಚೆಯೊಂದಕ್ಕೆ ನಾಂದಿ ಹಾಡಿದ್ದು, ಆರ್ಟಿಫಿಶಿಯಲ್ ಇಂಟಲಿಜೆನ್ಸ್ ಯುಗದ ಡೀಪ್ಫೇಕ್ ತಂತ್ರಜ್ಞಾನದ ಅಪಾಯಗಳ ಕುರಿತು ಚರ್ಚೆಯಾಗುತ್ತಿದೆ. ಮೊದಲ ನೋಟಕ್ಕೆ ಈ ವಿಡಿಯೋದಲ್ಲಿ ಅನಿಮಲ್ ನಟಿ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಇರುವಂತೆಯೇ ಕಾಣಿಸುತ್ತದೆ. ಆದರೆ, ಡೀಪ್ ಆಗಿ ನೋಡಿದರೆ ಈ ಡೀಪ್ಫೇಕ್ ತಂತ್ರಜ್ಞಾನದ ಫೇಕ್ ಮುಖವನ್ನು ಕಂಡುಹಿಡಿಯಬಹುದಾಗಿದೆ.
ಝರಾ ಪಟೇಲ್-ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ವೈರಲ್ ವಿಡಿಯೋದಲ್ಲಿ ಅಸಲಿ-ನಕಲಿ ಪತ್ತೆ ಹೇಗೆ?
ಮೊದಲನೆಯದಾಗಿ ಈ ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಅವರದ್ದೆಂದು ತಿಳಿದು ಲಕ್ಷಾಂತರ ಜನರು ಸೋಷಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ಹಂಚಿಕೊಂಡಿದ್ದರು. ಇದು ನಿಜವಾದ ವಿಡಿಯೋ ಎಂದು ತಿಳಿದುಕೊಂಡವರೂ ಹಂಚಿಕೊಂಡಿದ್ದರು. ಇದು ಫೇಕ್ ಆಗಿರಬಹುದು ಎಂದು ತಿಳಿದವರೂ ಹಂಚಿಕೊಂಡಿದ್ದರು. ಇದೀಗ ಆನ್ಲೈನ್ನಲ್ಲಿ ಈ ವಿಡಿಯೋದ ಪೋಸ್ಟ್ ಮಾರ್ಟಮ್ ನಡೆಯುತ್ತಿದ್ದು, ಅಸಲಿ-ನಕಲಿ ಪತ್ತೆ ಹಚ್ಚುವ ಕಾರ್ಯ ನಡೆಯುತ್ತಿದೆ. ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋದಲ್ಲಿ ನಕಲಿ ವಿಡಿಯೋ ಪತ್ತೆಹಚ್ಚಲು ಇಂತಹ ಸೂತ್ರಗಳನ್ನು ಮುಂದಿನ ದಿನಗಳಲ್ಲಿ ನಾವೆಲ್ಲರೂ ಪಾಲಿಸಬಹುದು.
ಸಾಮಿ ಎಂಬ ಎಕ್ಸ್ ಖಾತೆಯಲ್ಲಿ ವೈರಲ್ ಆಗಿರುವ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣರ ವಿಡಿಯೋದ ಮೊದಲ ಒಂದು ನಿಮಿಷವನ್ನು ಝಿಪ್ ವಿಡಿಯೋವಾಗಿ ಪರಿವರ್ತಿಸಿ ನೀಡಲಾಗಿದೆ. ಇದರಲ್ಲಿ ನಟಿಯ ಐಬ್ರೋ, ಬಾಯಿಯ ಚಲನೆ, ಕಣ್ಣಿನ ಚಲನೆ ಇತ್ಯಾದಿಗಳಲ್ಲಿ ನಕಲಿ ವಿಡಿಯೋದ ಚಿತ್ರಣ ಕಾಣಿಸುತ್ತದೆ. ಹೀಗಾಗಿ ಈ ವಿಡಿಯೋ ಶೇಕಡ 100ರಷ್ಟು ಅಸಲಿ ವಿಡಿಯೋದಂತೆ ಇಲ್ಲ. ಶೇಕಡ 1ರಷ್ಟು ನಕಲಿ ಅಂಶಗಳನ್ನು ಹೊಂದಿರುತ್ತವೆ. ಆದರೆ, ವಂಚನೆ ಇತ್ಯಾದಿಗಳಿಗೆ ಬಳಸಲು ಇಂತಹ ಶೇಕಡರಷ್ಟು ನಕಲಿ ಅಂಶಗಳು ಮಹತ್ವ ಪಡೆಯುವುದಿಲ್ಲ. ಹೀಗಾಗಿ, ಗರಿಷ್ಠ ನೈಜತೆಯನ್ನು ತೋರುವ ಇಂತಹ ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋಗಳಿಂದ ಅಪಾಯ ಹೆಚ್ಚಿರುತ್ತದೆ.
ಕಾನೂನು ಕ್ರಮಕ್ಕೆ ಒತ್ತಾಯ
ಈ ವಿಡಿಯೋವನ್ನು ಪತ್ರಕರ್ತ ಅಭಿಷೇಕ್ ಎಂಬವರು ಎಕ್ಸ್ನಲ್ಲಿ ಹಂಚಿಕೊಂಡು "ಭಾರತದಲ್ಲಿ ಡೀಪ್ಫೇಕ್ ತಂತ್ರಜ್ಞಾನದ ಮೇಲೆ ನಿಗಾ ಇಡಲು ಕಾನೂನು ಮತ್ತು ನಿಯಂತ್ರಣ ಚೌಕಟ್ಟು ರೂಪಿಸುವ ಅಗತ್ಯವಿದೆ" ಎಂದು ಅವರು ಬರೆದಿದ್ದರು. ಜತೆಗೆ ಅವರು ನಕಲಿ ವಿಡಿಯೋದ ಜತೆಗೆ ಡೀಪ್ಫೇಕ್ಗೆ ಮೂಲವಾಗಿದ್ದ ಝರಾ ಪಟೇಲ್ ಅವರ ವಿಡಿಯೋವನ್ನು ಹಂಚಿಕೊಂಡಿದ್ದರು. ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಅವರು ಎಲೆವೆಟರ್ ಪ್ರವೇಶಿಸುವ ವಿಡಿಯೋ ಇದಾಗಿತ್ತು. ಆದರೆ, ನಿಜ ಏನೆಂದರೆ ಇದು ರಶ್ಮಿಕಾ ಮಂದಣ್ಣರ ವಿಡಿಯೋ ಇದಲ್ಲ. ಝರಾ ಪಾಟೀಲ್ ಎಂಬ ಬ್ರಿಟಿಷ್ ಭಾರತೀಯ ಮಹಿಳೆಯು ಇನ್ಸ್ಟಾಗ್ರಾಂನಲ್ಲಿ ಹಂಚಿಕೊಂಡ ವಿಡಿಯೋದ ಆರ್ಟಿಫಿಶಿಯಲ್ ಇಂಟಲಿಜೆನ್ಸ್ ಡೀಫ್ ಫೇಕ್ ಬಳಸಿ ಯಾರೋ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣರ ಮುಖ ಮತ್ತು ದೇಹವನ್ನು ರೂಪಿಸಿದ್ದರು. ಇದೀಗ ಆ ವಿಡಿಯೋ ನಕಲಿ ಎಂದು ಸಾಬೀತಾಗಿದೆ. ಈ ವಿಡಿಯೋ ಕುರಿತು ಎಲ್ಲರೂ ಆತಂಕ ವ್ಯಕ್ತಪಡಿಸಲು ಕಾರಣವಿದೆ. ಇದು ಆರಂಭವಷ್ಟೇ. ಮುಂದಿನ ದಿನಗಳಲ್ಲಿ ಇಂತಹ ಫೇಕ್ ಹಾವಳಿ ಹೆಚ್ಚಲಿದೆ. ಇದರ ತೊಂದರೆ ಬೃಹತ್ ಆಗಲಿದೆ ಎಂಬ ಆತಂಕವಿದೆ.
ಕೇಂದ್ರ ಐಟಿ ಸಚಿವರ ಪ್ರತಿಕ್ರಿಯೆ
ಅಭಿಷೇಕ್ ಹಂಚಿಕೊಂಡ ವಿಡಿಯೋಗೆ ಕೇಂದ್ರ ಮಾಹಿತಿ ತಂತ್ರಜ್ಞಾನ ಸಚಿವರಾದ ರಾಜೀವ್ ಚಂದ್ರಶೇಖರ್ ಪ್ರತಿಕ್ರಿಯೆ ನೀಡಿದ್ದಾರೆ. "ಪ್ರಧಾನ ಮಂತ್ರಿ ನರೇಂದ್ರ ಮೋದಿ ನೇತೃತ್ವದ ಕೇಂದ್ರ ಸರಕಾರವು ಇಂಟರ್ನೆಟ್ ಬಳಸುವ ಡಿಜಿಟಲ್ ನಾಗರಿಕರ ಸುರಕ್ಷತೆ ಮತ್ತು ನಂಬಿಕೆ ಉಳಿಸಲು ಬದ್ಧವಾಗಿದೆ. ಏಪ್ರಿಲ್ 2023ರಲ್ಲಿ ಪ್ರಕಟಿಸಿದ ಐಟಿ ನಿಯಮಗಳ ಪ್ರಕಾರ,
- ಸೋಷಿಯಲ್ ಮೀಡಿಯಾ ಅಥವಾ ಆನ್ಲೈನ್ನಲ್ಲಿ ಯಾವುದೇ ಪೋಸ್ಟ್ ಮಾಡುವಾಗ ಯಾವುದೇ ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಹಂಚಿಕೊಂಡಿಲ್ಲ ಎಂದು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಿ.
- ಯಾವುದೇ ಬಳಕೆದಾರರು ಅಥವಾ ಸರಕಾರವು ಇಂತಹ ತಪ್ಪು ಮಾಹಿತಿಗಳ ಕುರಿತು ವರದಿ ಮಾಡಿದರೆ, 36 ಗಂಟೆಗಳಲ್ಲಿ ಅಂತಹ ತಪ್ಪು ಮಾಹಿತಿ ತೆಗೆದುಹಾಕಿರುವುದನ್ನು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಿ.
- ಡಿಜಿಟಲ್ ಫ್ಲಾಟ್ಫಾರ್ಮ್ಗಳು ಇದನ್ನು ಅನುಸರಿಸದೆ ಇದ್ದರೆ ನಿಯಮ ಏಳು ಅನ್ವಯಿಸುತ್ತದೆ. ಐಪಿಸಿ ನಿಬಂಧನೆಗಳ ಅಡಿಯಲ್ಲಿ ಬಾಧಿತ ವ್ಯಕ್ತಿಯು ಇಂತಹ ವೇದಿಕೆಗಳನ್ನು ಕೋರ್ಟ್ಗೆ ಕರೆದೊಯ್ಯಬಹುದು.
- ಡೀಪ್ಫೇಕ್ಗಳು ಇತ್ತೀಚಿನ ತಂತ್ರಜ್ಞಾನ. ಇದು ಇನ್ನಷ್ಟು ಅಪಾಯಕಾರಿಯಾಗಿದೆ. ಹಾನಿಕಾರವಾದ ತಪ್ಪು ಮಾಹಿತಿ ಹೊಂದಿರುತ್ತದೆ ಎಂದು ರಾಜೀವ್ ಚಂದ್ರಶೇಖರ್ ಪ್ರತಿಕ್ರಿಯೆ ನೀಡಿದ್ದಾರೆ.
ಏನಿದು ಡೀಪ್ಫೇಕ್ ತಂತ್ರಜ್ಞಾನ?
ವಿಡಿಯೋವೊಂದರಲ್ಲಿರುವ ಮುಖಭಾವವನ್ನು ಡೀಪ್ ಜನರೇಟಿವ್ ವಿಧಾನದ ಮೂಲಕ ಬದಲಾಯಿಸುವುದನ್ನು ಡೀಪ್ಫೇಕ್ ಎನ್ನುತ್ತಾರೆ. ನಕಲಿ ಕಂಟೆಂಟ್ ರಚನೆಯಂತೆ ನಕಲಿ ವಿಡಿಯೋ ರಚಿಸಲು ಮೆಷಿನ್ ಲರ್ನಿಂಗ್ ಮತ್ತು ಆರ್ಟಿಫಿಶಿಯಲ್ ಇಂಟಲಿಜೆನ್ಸ್ ಬಳಸಿ ವಿಷುಯಲ್ ಮತ್ತು ಆಡಿಯೋ ಕಂಟೆಂಟ್ ರಚಿಸಲಾಗುತ್ತದೆ. ಆರ್ಟಿಫಿಶಿಯಲ್ ಇಂಟಲಿಜೆನ್ಸ್ ಅಥವಾ ಎಐ ಬಳಸಿ ಹೊಸ ವಿಡಿಯೋ ಅಥವಾ ಆಡಿಯೋ ರಚಿಸಲಾಗುತ್ತದೆ. ಆದರೆ, ಒಂದು ಘಟನೆ ನಡೆಯದೆ ಇದ್ದರೂ ಇಂತಹ ವಿಡಿಯೋ ಮತ್ತು ಆಡಿಯೋದಲ್ಲಿ ನಡೆದಂತೆ ತೋರಿಸಬಹುದು. ಇಲ್ಲಿ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಯಾವುದೋ ಎಲಿವೇಟರ್ನಿಂದ ಹೊರಕ್ಕೆ ಬಾರದೆ ಇದ್ದರೂ ಇದೇ ರೀತಿ ಹೊರಕ್ಕೆ ಬಂದವರ ವಿಡಿಯೋಗೆ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣರ ಮುಖ ಜೋಡಿಸಬಹುದು. ಕಂಪ್ಯೂಟರ್ಗಳು ಈಗ ಶೇಕಡ 100ರಷ್ಟು ನೈಜವಾಗಿರುವಂತೆ ತೋರುವುದನ್ನು ಸೃಷ್ಟಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿವೆ. ನಿಮ್ಮ ಫೋಟೊವೊಂದನ್ನು ಸ್ಕ್ಯಾನ್ ಮಾಡಿ ನಿಮ್ಮದೇ ತದ್ರೂಪಿ ವ್ಯಕ್ತಿಯ ವಿಡಿಯೋವನ್ನು ಸೃಷ್ಟಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿದೆ.
ಇದೇ ಕಾರಣಕ್ಕೆ ಸೋಷಿಯಲ್ ಮೀಡಿಯಾ ಬಳಕೆದಾರರಲ್ಲಿ ಹಲವು ಪ್ರಶ್ನೆಗಳು ಹುಟ್ಟಿಕೊಂಡಿವೆ.
- ನಾವು ನಮ್ಮ ಮಕ್ಕಳ ಫೋಟೋಗಳನ್ನು ಸೋಷಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ಹಂಚಿಕೊಳ್ಳಬಹುದೇ?
- ನಮ್ಮ ಮುಖ ಜೋಡಿಸಿದ ನಕಲಿ ಅಶ್ಲೀಲ ವಿಡಿಯೋ ಬಿಡುಗಡೆಯಾದರೆ ಏನು ಮಾಡಬೇಕು? ಇಂತಹ ಸಂದರ್ಭದಲ್ಲಿ ಭಯಪಡದೆ, ಆತ್ಮಹತ್ಯೆಯಂತಹ ಯೋಚನೆ ಮಾಡದೆ ಧೈರ್ಯವಾಗಿ ಇಂತಹ ಪರಿಸ್ಥಿತಿ ಎದುರಿಸುವ ಅಗತ್ಯವಿರುತ್ತದೆ.
- ನಮ್ಮ ಮುಂದಿನ ದಿನಗಳು ಹೇಗಿರಲಿವೆ? ಎಐ, ಮೆಷಿನ್ ಲರ್ನಿಂಗ್, ಡೀಪ್ಫೇಕ್ಗಳಿಂದ ಮುಂದಿನ ದಿನಗಳಲ್ಲಿ ತಂತ್ರಜ್ಞಾನ ಜಗತ್ತು ಹೇಗಿರಲಿದೆ?
- ಆನ್ಲೈನ್ನಲ್ಲಿ ಸುರಕ್ಷತೆ ವಹಿಸುವುದು ಹೇಗೆ? ಹೀಗೆ ಇಂತಹ ಹಲವು ಪ್ರಶ್ನೆಗಳಿಗೆ ಮತ್ತು ಡೀಪ್ಫೇಕ್ ಕುರಿತು ಸರಿಯಾದ ಮಾಹಿತಿ ತಿಳಿಯಲು ಡಿಜಿಟಲ್ ಜಗತ್ತಿನ ಲೇಖನ ಇಲ್ಲಿದೆ ಓದಿ.
ವಿಭಾಗ