Explainer: ಆತಂಕ ತಂದ ರಶ್ಮಿಕಾ ವೈರಲ್‌ ವಿಡಿಯೋ, ರಾಜೀವ್‌ ಚಂದ್ರಶೇಖರ್‌ ಏನಂದ್ರು, ಅಸಲಿ-ನಕಲಿ ಪತ್ತೆ ಹೇಗೆ, ಡೀಪ್‌ಫೇಕ್‌ ಕುರಿತು ತಿಳಿಯಿರಿ
ಕನ್ನಡ ಸುದ್ದಿ  /  ಮನರಂಜನೆ  /  Explainer: ಆತಂಕ ತಂದ ರಶ್ಮಿಕಾ ವೈರಲ್‌ ವಿಡಿಯೋ, ರಾಜೀವ್‌ ಚಂದ್ರಶೇಖರ್‌ ಏನಂದ್ರು, ಅಸಲಿ-ನಕಲಿ ಪತ್ತೆ ಹೇಗೆ, ಡೀಪ್‌ಫೇಕ್‌ ಕುರಿತು ತಿಳಿಯಿರಿ

Explainer: ಆತಂಕ ತಂದ ರಶ್ಮಿಕಾ ವೈರಲ್‌ ವಿಡಿಯೋ, ರಾಜೀವ್‌ ಚಂದ್ರಶೇಖರ್‌ ಏನಂದ್ರು, ಅಸಲಿ-ನಕಲಿ ಪತ್ತೆ ಹೇಗೆ, ಡೀಪ್‌ಫೇಕ್‌ ಕುರಿತು ತಿಳಿಯಿರಿ

What are deepfake videos: ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ- ಝರಾ ಪಟೇಲ್‌ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋ ವೈರಲ್‌ ಆದ ಸಂದರ್ಭದಲ್ಲಿ "ಏನಿದು ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋ" ಎಂಬ ಪ್ರಶ್ನೆ ಎಲ್ಲರಲ್ಲಿಯೂ ಮೂಡಿದೆ. ಇಂತಹ ವಿಡಿಯೋಗಳಲ್ಲಿ ಅಸಲಿ-ನಕಲಿ ಗುರುತಿಸಬಹುದು ಎಂಬ ಅಂಶವನ್ನೂ ನೆಟ್ಟಿಗರು ಚರ್ಚಿಸುತ್ತಿದ್ದಾರೆ. ಕೇಂದ್ರ ಐಟಿ ಸಚಿವ ರಾಜೀವ್‌ ಚಂದ್ರಶೇಖರ್‌ ಕೂಡ ಪ್ರತಿಕ್ರಿಯೆ ನೀಡಿದ್ದಾರೆ.

ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಡೀಪ್‌ಫೇಕ್‌ ವೈರಲ್‌ ವಿಡಿಯೋ ಹೊಸ ಚರ್ಚೆಗೆ ನಾಂದಿ ಹಾಡಿದೆ
ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಡೀಪ್‌ಫೇಕ್‌ ವೈರಲ್‌ ವಿಡಿಯೋ ಹೊಸ ಚರ್ಚೆಗೆ ನಾಂದಿ ಹಾಡಿದೆ

ಕನ್ನಡದ ಕಿರಿಕ್‌ ಪಾರ್ಟಿ ಚಿತ್ರದಿಂದ ಜನಪ್ರಿಯತೆ ಪಡೆದು ಟಾಲಿವುಡ್‌ಗೆ ನೆಗೆದು ಇದೀಗ ಬಾಲಿವುಡ್‌ನಲ್ಲೂ ಮಿಂಚುತ್ತಿರುವ ಪ್ರತಿಭಾನ್ವಿತ ನಟಿ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಅವರು ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋವೊಂದು ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿ ಹರಿದಾಡುತ್ತಿದೆ. ಈ ವಿಡಿಯೋ ಹೊಸ ಚರ್ಚೆಯೊಂದಕ್ಕೆ ನಾಂದಿ ಹಾಡಿದ್ದು, ಆರ್ಟಿಫಿಶಿಯಲ್‌ ಇಂಟಲಿಜೆನ್ಸ್‌ ಯುಗದ ಡೀಪ್‌ಫೇಕ್‌ ತಂತ್ರಜ್ಞಾನದ ಅಪಾಯಗಳ ಕುರಿತು ಚರ್ಚೆಯಾಗುತ್ತಿದೆ. ಮೊದಲ ನೋಟಕ್ಕೆ ಈ ವಿಡಿಯೋದಲ್ಲಿ ಅನಿಮಲ್‌ ನಟಿ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಇರುವಂತೆಯೇ ಕಾಣಿಸುತ್ತದೆ. ಆದರೆ, ಡೀಪ್‌ ಆಗಿ ನೋಡಿದರೆ ಈ ಡೀಪ್‌ಫೇಕ್‌ ತಂತ್ರಜ್ಞಾನದ ಫೇಕ್‌ ಮುಖವನ್ನು ಕಂಡುಹಿಡಿಯಬಹುದಾಗಿದೆ.

ಝರಾ ಪಟೇಲ್-ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ವೈರಲ್‌ ವಿಡಿಯೋದಲ್ಲಿ ಅಸಲಿ-ನಕಲಿ ಪತ್ತೆ ಹೇಗೆ?

ಮೊದಲನೆಯದಾಗಿ ಈ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಅವರದ್ದೆಂದು ತಿಳಿದು ಲಕ್ಷಾಂತರ ಜನರು ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿ ಹಂಚಿಕೊಂಡಿದ್ದರು. ಇದು ನಿಜವಾದ ವಿಡಿಯೋ ಎಂದು ತಿಳಿದುಕೊಂಡವರೂ ಹಂಚಿಕೊಂಡಿದ್ದರು. ಇದು ಫೇಕ್‌ ಆಗಿರಬಹುದು ಎಂದು ತಿಳಿದವರೂ ಹಂಚಿಕೊಂಡಿದ್ದರು. ಇದೀಗ ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಈ ವಿಡಿಯೋದ ಪೋಸ್ಟ್‌ ಮಾರ್ಟಮ್‌ ನಡೆಯುತ್ತಿದ್ದು, ಅಸಲಿ-ನಕಲಿ ಪತ್ತೆ ಹಚ್ಚುವ ಕಾರ್ಯ ನಡೆಯುತ್ತಿದೆ. ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋದಲ್ಲಿ ನಕಲಿ ವಿಡಿಯೋ ಪತ್ತೆಹಚ್ಚಲು ಇಂತಹ ಸೂತ್ರಗಳನ್ನು ಮುಂದಿನ ದಿನಗಳಲ್ಲಿ ನಾವೆಲ್ಲರೂ ಪಾಲಿಸಬಹುದು.

ಸಾಮಿ ಎಂಬ ಎಕ್ಸ್‌ ಖಾತೆಯಲ್ಲಿ ವೈರಲ್‌ ಆಗಿರುವ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣರ ವಿಡಿಯೋದ ಮೊದಲ ಒಂದು ನಿಮಿಷವನ್ನು ಝಿಪ್‌ ವಿಡಿಯೋವಾಗಿ ಪರಿವರ್ತಿಸಿ ನೀಡಲಾಗಿದೆ. ಇದರಲ್ಲಿ ನಟಿಯ ಐಬ್ರೋ, ಬಾಯಿಯ ಚಲನೆ, ಕಣ್ಣಿನ ಚಲನೆ ಇತ್ಯಾದಿಗಳಲ್ಲಿ ನಕಲಿ ವಿಡಿಯೋದ ಚಿತ್ರಣ ಕಾಣಿಸುತ್ತದೆ. ಹೀಗಾಗಿ ಈ ವಿಡಿಯೋ ಶೇಕಡ 100ರಷ್ಟು ಅಸಲಿ ವಿಡಿಯೋದಂತೆ ಇಲ್ಲ. ಶೇಕಡ 1ರಷ್ಟು ನಕಲಿ ಅಂಶಗಳನ್ನು ಹೊಂದಿರುತ್ತವೆ. ಆದರೆ, ವಂಚನೆ ಇತ್ಯಾದಿಗಳಿಗೆ ಬಳಸಲು ಇಂತಹ ಶೇಕಡರಷ್ಟು ನಕಲಿ ಅಂಶಗಳು ಮಹತ್ವ ಪಡೆಯುವುದಿಲ್ಲ. ಹೀಗಾಗಿ, ಗರಿಷ್ಠ ನೈಜತೆಯನ್ನು ತೋರುವ ಇಂತಹ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋಗಳಿಂದ ಅಪಾಯ ಹೆಚ್ಚಿರುತ್ತದೆ.

ಕಾನೂನು ಕ್ರಮಕ್ಕೆ ಒತ್ತಾಯ

ಈ ವಿಡಿಯೋವನ್ನು ಪತ್ರಕರ್ತ ಅಭಿಷೇಕ್‌ ಎಂಬವರು ಎಕ್ಸ್‌ನಲ್ಲಿ ಹಂಚಿಕೊಂಡು "ಭಾರತದಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ತಂತ್ರಜ್ಞಾನದ ಮೇಲೆ ನಿಗಾ ಇಡಲು ಕಾನೂನು ಮತ್ತು ನಿಯಂತ್ರಣ ಚೌಕಟ್ಟು ರೂಪಿಸುವ ಅಗತ್ಯವಿದೆ" ಎಂದು ಅವರು ಬರೆದಿದ್ದರು. ಜತೆಗೆ ಅವರು ನಕಲಿ ವಿಡಿಯೋದ ಜತೆಗೆ ಡೀಪ್‌ಫೇಕ್‌ಗೆ ಮೂಲವಾಗಿದ್ದ ಝರಾ ಪಟೇಲ್‌ ಅವರ ವಿಡಿಯೋವನ್ನು ಹಂಚಿಕೊಂಡಿದ್ದರು. ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಅವರು ಎಲೆವೆಟರ್‌ ಪ್ರವೇಶಿಸುವ ವಿಡಿಯೋ ಇದಾಗಿತ್ತು. ಆದರೆ, ನಿಜ ಏನೆಂದರೆ ಇದು ರಶ್ಮಿಕಾ ಮಂದಣ್ಣರ ವಿಡಿಯೋ ಇದಲ್ಲ. ಝರಾ ಪಾಟೀಲ್‌ ಎಂಬ ಬ್ರಿಟಿಷ್‌ ಭಾರತೀಯ ಮಹಿಳೆಯು ಇನ್‌ಸ್ಟಾಗ್ರಾಂನಲ್ಲಿ ಹಂಚಿಕೊಂಡ ವಿಡಿಯೋದ ಆರ್ಟಿಫಿಶಿಯಲ್‌ ಇಂಟಲಿಜೆನ್ಸ್‌ ಡೀಫ್‌ ಫೇಕ್‌ ಬಳಸಿ ಯಾರೋ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣರ ಮುಖ ಮತ್ತು ದೇಹವನ್ನು ರೂಪಿಸಿದ್ದರು. ಇದೀಗ ಆ ವಿಡಿಯೋ ನಕಲಿ ಎಂದು ಸಾಬೀತಾಗಿದೆ. ಈ ವಿಡಿಯೋ ಕುರಿತು ಎಲ್ಲರೂ ಆತಂಕ ವ್ಯಕ್ತಪಡಿಸಲು ಕಾರಣವಿದೆ. ಇದು ಆರಂಭವಷ್ಟೇ. ಮುಂದಿನ ದಿನಗಳಲ್ಲಿ ಇಂತಹ ಫೇಕ್‌ ಹಾವಳಿ ಹೆಚ್ಚಲಿದೆ. ಇದರ ತೊಂದರೆ ಬೃಹತ್‌ ಆಗಲಿದೆ ಎಂಬ ಆತಂಕವಿದೆ.

ಕೇಂದ್ರ ಐಟಿ ಸಚಿವರ ಪ್ರತಿಕ್ರಿಯೆ

ಅಭಿಷೇಕ್‌ ಹಂಚಿಕೊಂಡ ವಿಡಿಯೋಗೆ ಕೇಂದ್ರ ಮಾಹಿತಿ ತಂತ್ರಜ್ಞಾನ ಸಚಿವರಾದ ರಾಜೀವ್‌ ಚಂದ್ರಶೇಖರ್‌ ಪ್ರತಿಕ್ರಿಯೆ ನೀಡಿದ್ದಾರೆ. "ಪ್ರಧಾನ ಮಂತ್ರಿ ನರೇಂದ್ರ ಮೋದಿ ನೇತೃತ್ವದ ಕೇಂದ್ರ ಸರಕಾರವು ಇಂಟರ್‌ನೆಟ್‌ ಬಳಸುವ ಡಿಜಿಟಲ್‌ ನಾಗರಿಕರ ಸುರಕ್ಷತೆ ಮತ್ತು ನಂಬಿಕೆ ಉಳಿಸಲು ಬದ್ಧವಾಗಿದೆ. ಏಪ್ರಿಲ್‌ 2023ರಲ್ಲಿ ಪ್ರಕಟಿಸಿದ ಐಟಿ ನಿಯಮಗಳ ಪ್ರಕಾರ,

  1. ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾ ಅಥವಾ ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಯಾವುದೇ ಪೋಸ್ಟ್‌ ಮಾಡುವಾಗ ಯಾವುದೇ ತಪ್ಪು ಮಾಹಿತಿಯನ್ನು ಹಂಚಿಕೊಂಡಿಲ್ಲ ಎಂದು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಿ.
  2. ಯಾವುದೇ ಬಳಕೆದಾರರು ಅಥವಾ ಸರಕಾರವು ಇಂತಹ ತಪ್ಪು ಮಾಹಿತಿಗಳ ಕುರಿತು ವರದಿ ಮಾಡಿದರೆ, 36 ಗಂಟೆಗಳಲ್ಲಿ ಅಂತಹ ತಪ್ಪು ಮಾಹಿತಿ ತೆಗೆದುಹಾಕಿರುವುದನ್ನು ಖಚಿತಪಡಿಸಿಕೊಳ್ಳಿ.
  3. ಡಿಜಿಟಲ್‌ ಫ್ಲಾಟ್‌ಫಾರ್ಮ್‌ಗಳು ಇದನ್ನು ಅನುಸರಿಸದೆ ಇದ್ದರೆ ನಿಯಮ ಏಳು ಅನ್ವಯಿಸುತ್ತದೆ. ಐಪಿಸಿ ನಿಬಂಧನೆಗಳ ಅಡಿಯಲ್ಲಿ ಬಾಧಿತ ವ್ಯಕ್ತಿಯು ಇಂತಹ ವೇದಿಕೆಗಳನ್ನು ಕೋರ್ಟ್‌ಗೆ ಕರೆದೊಯ್ಯಬಹುದು.
  4. ಡೀಪ್‌ಫೇಕ್‌ಗಳು ಇತ್ತೀಚಿನ ತಂತ್ರಜ್ಞಾನ. ಇದು ಇನ್ನಷ್ಟು ಅಪಾಯಕಾರಿಯಾಗಿದೆ. ಹಾನಿಕಾರವಾದ ತಪ್ಪು ಮಾಹಿತಿ ಹೊಂದಿರುತ್ತದೆ ಎಂದು ರಾಜೀವ್‌ ಚಂದ್ರಶೇಖರ್‌ ಪ್ರತಿಕ್ರಿಯೆ ನೀಡಿದ್ದಾರೆ.

ಏನಿದು ಡೀಪ್‌ಫೇಕ್‌ ತಂತ್ರಜ್ಞಾನ?

ವಿಡಿಯೋವೊಂದರಲ್ಲಿರುವ ಮುಖಭಾವವನ್ನು ಡೀಪ್‌ ಜನರೇಟಿವ್‌ ವಿಧಾನದ ಮೂಲಕ ಬದಲಾಯಿಸುವುದನ್ನು ಡೀಪ್‌ಫೇಕ್‌ ಎನ್ನುತ್ತಾರೆ. ನಕಲಿ ಕಂಟೆಂಟ್‌ ರಚನೆಯಂತೆ ನಕಲಿ ವಿಡಿಯೋ ರಚಿಸಲು ಮೆಷಿನ್‌ ಲರ್ನಿಂಗ್‌ ಮತ್ತು ಆರ್ಟಿಫಿಶಿಯಲ್‌ ಇಂಟಲಿಜೆನ್ಸ್‌ ಬಳಸಿ ವಿಷುಯಲ್‌ ಮತ್ತು ಆಡಿಯೋ ಕಂಟೆಂಟ್‌ ರಚಿಸಲಾಗುತ್ತದೆ. ಆರ್ಟಿಫಿಶಿಯಲ್‌ ಇಂಟಲಿಜೆನ್ಸ್‌ ಅಥವಾ ಎಐ ಬಳಸಿ ಹೊಸ ವಿಡಿಯೋ ಅಥವಾ ಆಡಿಯೋ ರಚಿಸಲಾಗುತ್ತದೆ. ಆದರೆ, ಒಂದು ಘಟನೆ ನಡೆಯದೆ ಇದ್ದರೂ ಇಂತಹ ವಿಡಿಯೋ ಮತ್ತು ಆಡಿಯೋದಲ್ಲಿ ನಡೆದಂತೆ ತೋರಿಸಬಹುದು. ಇಲ್ಲಿ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಯಾವುದೋ ಎಲಿವೇಟರ್‌ನಿಂದ ಹೊರಕ್ಕೆ ಬಾರದೆ ಇದ್ದರೂ ಇದೇ ರೀತಿ ಹೊರಕ್ಕೆ ಬಂದವರ ವಿಡಿಯೋಗೆ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣರ ಮುಖ ಜೋಡಿಸಬಹುದು. ಕಂಪ್ಯೂಟರ್‌ಗಳು ಈಗ ಶೇಕಡ 100ರಷ್ಟು ನೈಜವಾಗಿರುವಂತೆ ತೋರುವುದನ್ನು ಸೃಷ್ಟಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿವೆ. ನಿಮ್ಮ ಫೋಟೊವೊಂದನ್ನು ಸ್ಕ್ಯಾನ್‌ ಮಾಡಿ ನಿಮ್ಮದೇ ತದ್ರೂಪಿ ವ್ಯಕ್ತಿಯ ವಿಡಿಯೋವನ್ನು ಸೃಷ್ಟಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿದೆ.

ಇದೇ ಕಾರಣಕ್ಕೆ ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾ ಬಳಕೆದಾರರಲ್ಲಿ ಹಲವು ಪ್ರಶ್ನೆಗಳು ಹುಟ್ಟಿಕೊಂಡಿವೆ.

- ನಾವು ನಮ್ಮ ಮಕ್ಕಳ ಫೋಟೋಗಳನ್ನು ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿ ಹಂಚಿಕೊಳ್ಳಬಹುದೇ?

- ನಮ್ಮ ಮುಖ ಜೋಡಿಸಿದ ನಕಲಿ ಅಶ್ಲೀಲ ವಿಡಿಯೋ ಬಿಡುಗಡೆಯಾದರೆ ಏನು ಮಾಡಬೇಕು? ಇಂತಹ ಸಂದರ್ಭದಲ್ಲಿ ಭಯಪಡದೆ, ಆತ್ಮಹತ್ಯೆಯಂತಹ ಯೋಚನೆ ಮಾಡದೆ ಧೈರ್ಯವಾಗಿ ಇಂತಹ ಪರಿಸ್ಥಿತಿ ಎದುರಿಸುವ ಅಗತ್ಯವಿರುತ್ತದೆ.

- ನಮ್ಮ ಮುಂದಿನ ದಿನಗಳು ಹೇಗಿರಲಿವೆ? ಎಐ, ಮೆಷಿನ್‌ ಲರ್ನಿಂಗ್‌, ಡೀಪ್‌ಫೇಕ್‌ಗಳಿಂದ ಮುಂದಿನ ದಿನಗಳಲ್ಲಿ ತಂತ್ರಜ್ಞಾನ ಜಗತ್ತು ಹೇಗಿರಲಿದೆ?

- ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಸುರಕ್ಷತೆ ವಹಿಸುವುದು ಹೇಗೆ? ಹೀಗೆ ಇಂತಹ ಹಲವು ಪ್ರಶ್ನೆಗಳಿಗೆ ಮತ್ತು ಡೀಪ್‌ಫೇಕ್‌ ಕುರಿತು ಸರಿಯಾದ ಮಾಹಿತಿ ತಿಳಿಯಲು ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನ ಲೇಖನ ಇಲ್ಲಿದೆ ಓದಿ.

Whats_app_banner