logo
ಕನ್ನಡ ಸುದ್ದಿ  /  ಜೀವನಶೈಲಿ  /  Deepfake: ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ತಲ್ಲಣ , ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಮಕ್ಕಳ ಫೋಟೊ ಹಂಚಿಕೊಳ್ಳುವಿರಾ, ಗುರುತಿನ ದುರುಪಯೋಗದ ಆತಂಕ

Deepfake: ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ತಲ್ಲಣ , ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಮಕ್ಕಳ ಫೋಟೊ ಹಂಚಿಕೊಳ್ಳುವಿರಾ, ಗುರುತಿನ ದುರುಪಯೋಗದ ಆತಂಕ

Praveen Chandra B HT Kannada

Jul 13, 2023 06:00 PM IST

google News

Deepfake: ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ತಲ್ಲಣ, ಏನಿದು ಡೀಪ್‌ಫೇಕ್‌, ಇದು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ.

    • Digital Jagathu: ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಈಗ ಆರ್ಟಿಫಿಶಿಯಲ್‌ ಇಂಟಲಿಜೆನ್ಸ್‌ ಸುದ್ದಿ ಮಾಡುತ್ತಿದೆ. ಎಐ ಪ್ರೇರಿತ ಡೀಪ್‌ಫೇಕ್‌ನಿಂದ (deepfake AI) ಏನೆಲ್ಲ ಅನಾಹುತಗಳಾಗಬಹುದು ಎಂಬ ಆತಂಕವೂ ಎದುರಾಗಿದೆ. ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿ ನಮ್ಮ ಫೋಟೊ, ನಮ್ಮ ಮಕ್ಕಳ ಫೋಟೊವನ್ನು ದುರ್ಬಳಕೆ (identity abuse) ಮಾಡುವ ಆತಂಕವೂ ಹೆಚ್ಚಾಗಿದೆ.
Deepfake: ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ತಲ್ಲಣ, ಏನಿದು ಡೀಪ್‌ಫೇಕ್‌, ಇದು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ.
Deepfake: ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ತಲ್ಲಣ, ಏನಿದು ಡೀಪ್‌ಫೇಕ್‌, ಇದು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ.

ನಿಮಗೊಂದು ವಿಡಿಯೋ ಕಾಲ್‌ ಬರುತ್ತದೆ. ಅಲ್ಲಿ ನಿಮ್ಮ ಮಗಳು ಅಳುಮುಖದಲ್ಲಿ "ಅಮ್ಮಾ, ಪ್ಲೀಸ್‌ ಹೆಲ್ಪ್‌ ಮಾಡು, ನನ್ನ ಬ್ಯಾಗ್‌ ಕಳೆದುಹೋಗಿದೆ. ಪರ್ಸ್‌ ಎಟಿಎಂ ಕಳೆದುಹೋಗಿದೆ. ಆನ್‌ಲೈನ್‌ ಬ್ಯಾಂಕಿಂಗ್‌ ಲಾಕ್‌ ಆಗಿದೆ. ಅರ್ಜೆಂಟ್‌ ನಿನ್ನ ನೆಟ್‌ ಬ್ಯಾಂಕಿಂಗ್‌ ಲಾಗಿನ್‌ ಕೊಡು" ಎನ್ನುತ್ತಾಳೆ. ತಾನು ಯಾವುದೋ ಊರಿಗೆ ಹೋದವಳು ಅಲ್ಲೇ ಬಾಕಿಯಾಗಿದ್ದೇನೆ. ವಿಮಾನಕ್ಕೆ ಸಮಯವಾಗುತ್ತಿದೆʼʼ ಎನ್ನುತ್ತಿದ್ದಾಳೆ. ಅವಳ ಕಣ್ಣಲ್ಲಿ ಆತಂಕ ಕಂಡು ನೀವು ಕರಗುವಿರಿ. "ನಿಲ್ಲು ಮಗ, ಈಗ್ಲೇ ಕೊಡುವೆ" ಎಂದು ಹೇಳಿ ನಿಮ್ಮ ಯೂಸರ್‌ ನೇಮ್‌ ಮತ್ತು ಪಾಸ್ವರ್ಡ್‌ ಹೇಳುವಿರಿ. "ಥ್ಯಾಂಕ್ಸ್‌ ಅಮ್ಮ, ನನ್ನ ಮುದ್ದು ಅಮ್ಮ" ಎನ್ನುತ್ತಾಳೆ. ಬಾಯ್‌ ಹೇಳಿ ವಿಡಿಯೋ ಕಾಲ್‌ ಕಟ್‌ ಆಗುತ್ತದೆ.

ನೀವು ನಿಮ್ಮ ಕೆಲಸದಲ್ಲಿ ಮಗ್ನವಾಗುವಿರಿ. ಕೆಲವು ಗಂಟೆಗಳ ಕಾಲ ಕಳೆದಾಗ ವಿಡಿಯೋ ಕಾಲ್‌ ಬರುತ್ತದೆ. ಅಲ್ಲಿ ಮಗಳಿದ್ದಾಳೆ. "ಹಲೋ ಅಮ್ಮ, ಹೇಗಿದ್ದಿ, ಊಟ ಆಯ್ತ" ಪ್ರತಿನಿತ್ಯದಂತೆ ಕುಶಲೋಪರಿ ಮಾತನಾಡುತ್ತಾಳೆ. ನೀವು ಸ್ವಲ್ಪ ಮಾತನಾಡಿ, "ನಿನ್ನ ಸಮಸ್ಯೆ ಸಾಲ್ವ್‌ ಆಯ್ತ, ಮನೆಗೆ ತಲುಪಿದ್ಯಾ" ಎನ್ನುವಿರಿ. "ಅಮ್ಮ ನಿನಗೆ ಏನಾಗಿದೆ, ಇವತ್ತು ಬೆಳಗ್ಗಿನಿಂದಲೇ ಮನೆಯಲ್ಲಿಯೇ ಇದ್ದೇನೆ" ಎಂದಾಗ ನಿಮಗೆ ಕೋಪ ಬರುತ್ತದೆ. "ಅಲ್ಲ, ಆಗ ನೀನು ವಿಡಿಯೋ ಕಾಲ್‌ ಮಾಡಿ ಎಲ್ಲೋ ಸಿಕ್ಕಿ ಹಾಕಿಕೊಂಡಿದ್ದಿ ಅಂತ ಬ್ಯಾಂಕ್‌ ಡಿಟೇಲ್ಸ್‌ ಕೇಳಿದ್ದಿ" ಎಂದು ದಬಾಯಿಸುವಿರಿ. ನಿಮ್ಮ ಮಗಳಲ್ವಾ ಅವಳು, ನಿಮ್ಮಷ್ಟೇ ಕೋಪದಿಂದ "ಏನಾಗಿದೆ ಅಮ್ಮ ನಿನಗೆ" ಎಂದಾಗ ಬೆಳಗ್ಗೆ ಕಾಲ್‌ ಮಾಡಿದ ಘಟನೆಯನ್ನು ನೆನಪಿಸಿ ಆಕೆಗೆ ತಿಳಿಸುವ ಪ್ರಯತ್ನ ಮಾಡುವಿರಿ. "ನಿನಗೆ ನಿಜಕ್ಕೂ ಏನೋ ಆಗಿದೆ, ನಾನು ಕಾಲ್‌ ಮಾಡೇ ಇಲ್ಲ" ಅಂತಾಳೆ ಮಗಳು. "ಹಾಗಾದರೆ, ನಿನ್ನ ದೆವ್ವವ ಕಾಲ್‌ ಮಾಡಿದ್ದು?"......

ಏನೋ ನೆನಪಾಗಿ ನೀವು ನಿಮ್ಮ ಆನ್‌ಲೈನ್‌ ಬ್ಯಾಂಕ್‌ಗೆ ಲಾಗಿನ್‌ ಆಗುವಿರಿ. ಅಲ್ಲಿದ್ದ ಹತ್ತು ಹಲವು ಲಕ್ಷ ರೂಪಾಯಿ ಮಾಯವಾಗಿರುತ್ತದೆ. ಖಾತೆ ಝೀರೋ ಆಗಿರುತ್ತದೆ.

***

ಏನಿದು ಕಟ್ಟುಕತೆಯೋ, ನಿಜ ಕತೆಯೋ ಎಂದು ಕೇಳುವಿರಾ? ಇಲ್ಲಿ ಮೊದಲು ಕರೆ ಮಾಡಿದ್ದು ಡೀಪ್‌ಫೇಕ್‌ ಸೃಷ್ಟಿಸಿದ ಮಗಳ ತದ್ರೂಪಿ ಅವತಾರ ಎಂದುಕೊಳ್ಳಿ. ಎರಡನೆಯ ಬಾರಿಗೆ ಕಾಲ್‌ ಮಾಡಿದ್ದು ನಿಜವಾದ ಮಗಳು. ಇಬ್ಬರೂ ನೋಡಲು ಒಂದೇ ರೀತಿ, ಮಾತನಾಡುವ ರೀತಿನೀತಿಗಳೆಲ್ಲವೂ ಒಂದೇ. ಏಕೆ ಹೀಗಾಯ್ತು? ಏನಿದು ಹೊಸ ವಿಷಯ ಎಂದುಕೊಳ್ಳುವಿರಾ? ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಈಗ ಎಐ ಪ್ರೇರಿತ ಡೀಪ್‌ಫೇಕ್‌ ಆತಂಕ ಹುಟ್ಟಿಸುತ್ತಿದೆ.

ಮಕ್ಕಳ ಫೋಟೊವನ್ನು ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿ ಹಂಚಿಕೊಳ್ಳಬಹುದೇ?

ಇತ್ತೀಚೆಗೆ ಡಾಯ್ಚ್‌ ಟೆಲಿಕಾಂನ ಜಾಹೀರಾತಿನಲ್ಲಿ ಎಐ ಯುವತಿ ಇಳಾ ಇಂತಹ ಒಂದು ಪ್ರಶ್ನೆಯನ್ನು ಹುಟ್ಟು ಹಾಕಿದ್ದಾಳೆ. ಡಾಯ್ಚ್‌ ಟೆಲಿಕಾಂ ಪ್ರಕಟಿಸಿದ A Message from Ella ಎಂಬ ಫ್ರಾಂಕ್‌ ಜಾಹೀರಾತಿನಲ್ಲಿ ಇಳಾ ಎಂಬ ಎಐ ಯುವತಿ ತನ್ನ ಫೋಟೊವನ್ನು ಹೇಗೆ ದುರುಪಯೋಗ ಮಾಡಿಕೊಳ್ಳಲಾಯಿತು ಎಂದು ಹೇಳಿ ಭೀತಿ ಹುಟ್ಟಿಸುತ್ತಾಳೆ. ಇಳಾ ಎಂಬ ನೈಜ ಯುವತಿ ಸಿನಿಮಾ ಥಿಯೇಟರ್‌ನಲ್ಲಿ ತನ್ನ ಹೆತ್ತವರೊಂದಿಗೆ ಸಿನಿಮಾ ನೋಡುತ್ತಿರುವ ಸಂದರ್ಭದಲ್ಲಿ ಆ ಸಿನಿಮಾ ಮಂದಿರದ ಸ್ಕ್ರೀನ್‌ ಮೇಲೆ ಈ ಎಐ ಇಳಾ ಕಾಣಿಸಿಕೊಳ್ಳುತ್ತಾಳೆ. ಹೇಗೆ ನನ್ನ ಐಡೆಂಟೆಟಿ ಅಬ್ಯೂಸ್‌ ಅಥವಾ ಗುರುತಿನ ದುರುಪಯೋಗವಾಯಿತು ಎಂದು ಹೇಳುತ್ತಾಳೆ. ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿ ಪೋಷಕರು ಹಂಚಿಕೊಂಡ ತನ್ನ ಫೋಟೊವನ್ನು ದುರುಪಯೋಗಪಡಿಸಿಕೊಂಡು ಹೇಗೆ ಇಳಾ ಎಂಬ ನಕಲಿ ಇಐಯನ್ನು ಸೃಷ್ಟಿಸಲಾಯಿತು, ಈಕೆಯನ್ನು ನಕಲಿ ಅವತಾರ ಬಳಸಿಕೊಂಡು ಏನೆಲ್ಲ ಮಾಡಬಹುದು ಎಂದು ಈ ಜಾಹೀರಾತು ಎಚ್ಚರಿಸುತ್ತದೆ. ಮೊದಲಿಗೆ ಈ ಕೆಳಗೆ ನೀಡಲಾದ ವಿಡಿಯೋ ನೋಡಿ.

ಈ ರೀತಿ ಎಐ ಡೀಪ್‌ಫೆಕ್‌ ನಿಮ್ಮ ಮುಖವನ್ನು ನಕಲಿಸಿಕೊಂಡು ಸ್ವಂತ ಅಸ್ತಿತ್ವ ಸ್ಥಾಪಿಸಿಕೊಳ್ಳಬಹುದು. ನಿಮ್ಮ ಪಾಸ್‌ಬುಕ್‌, ಪಾಸ್‌ಪೋರ್ಟ್‌, ಬ್ಯಾಂಕ್‌ ಖಾತ ತಮ್ಮದಾಗಿಸಿಕೊಳ್ಳಹಬುದು. ಕ್ರೆಡಿಟ್‌ ಕಾರ್ಡ್‌ ರಚಿಸಿಕೊಂಡು ನಿಮ್ಮ ಹೆಸರಿನಲ್ಲಿ ಖರ್ಚು ಮಾಡಬಹುದು. ನಿಮ್ಮ ಪುಟ್ಟ ಮಗಳ ಧ್ವನಿಯನ್ನು ಎಐ ಅನುಕರಿಸಿ "ಅಮ್ಮ ಕಷ್ಟದಲ್ಲಿದ್ದೇನೆ ಅರ್ಜೆಂಟ್‌ ಹಣ ಕಳುಹಿಸಿ ಪ್ಲೀಸ್‌ಪ್ಲೀಸ್‌ ಎಂದು ಅಳಬಹುದು. ನೀವು ಹಣ ಕಳುಹಿಸಬಹುದು. ಡಿಜಿಟಲ್‌ ಫೂಟ್‌ಪ್ರಿಂಟ್‌ ಎಂದು ನಾವು ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿ ಹಂಚಿಕೊಳ್ಳುವ ನಮ್ಮ ಮಕ್ಕಳ ಫೋಟೊದ ದುರ್ಬಳಕೆಯಾಗಬಹುದು.

ಭಾರತದಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ಎಐ ತಂತ್ರಜ್ಞಾನ

ಡೀಪ್‌ಫೇಕ್‌ ಬಗ್ಗೆ ಭಯಪಡಬೇಕಾಗಿಲ್ಲ ಎಂದುಕೊಂಡಿರಾ? ಭಾರತಕ್ಕೆ ಇಂತಹದ್ದೆಲ್ಲ ಬರೋಲ್ಲ ಅಂದುಕೊಂಡಿರಾ, ಡೀಪ್‌ಫೇಕ್‌ ಈಗಾಗಲೇ ಭಾರತಕ್ಕೆ ಬಂದಾಗಿದೆ. ಉದಾಹರಣೆ ಬೇಕೆ? ವಿವಿಧ ರೀತಿಯಲ್ಲಿ ಈ ತಂತ್ರಜ್ಞಾನವನ್ನು ಜಾಹೀರಾತು, ಮಾಧ್ಯಮ, ಸಿನಿಮಾ, ಮಾರ್ಕೆಟಿಂಗ್‌ ಜಗತ್ತು ವಿವಿಧ ರೀತಿಯಲ್ಲಿ ಬಳಸಿಕೊಳ್ಳುತ್ತಿವೆ. ಇದೇ ಸಮಯದಲ್ಲಿ ರಾಜಕೀಯ ಪ್ರಚಾರ, ರಾಜಕೀಯ ವಿವಾದಕ್ಕೆ, ಸಂಘರ್ಷಕ್ಕೂ ಇಂತಹ ತಂತ್ರ

ಹೃತಿಕ್‌ ರೋಷನ್‌ ಅವರು ಕಳೆದ ವರ್ಷ ಝೊಮೆಟೊ ಜಾಹೀರಾತಿನ ವಿಷಯವೊಂದಕ್ಕೆ ಸಂಬಂಧಪಟ್ಟಂತೆ ಸುದ್ದಿಯಲ್ಲಿದ್ದರು. ಆ ಜಾಹೀರಾತಿನಲ್ಲಿ "ನನಗೆ ಉಜ್ಜಯಿನಿಯ ಥಾಲಿ ತಿನ್ನಬೇಕೆನಿಸುತ್ತದೆ, ಹೀಗಾಗಿ ನಾನು ಮಾಹಾಕಾಳದಿಂದ ಆರ್ಡರ್‌ ಮಾಡುತ್ತಿದ್ದೇನೆ" ಎಂದು ಅವರು ಹೇಳಿಕೆ ನೀಡಿದ್ದರು. ಈ ಸುದ್ದಿಯನ್ನು ನೆನಪಿಸಿಕೊಳ್ಳಿ. ಇದರಿಂದ ಹಿಂದುಗಳ ಭಾವನೆಗೆ ಧಕ್ಕೆಯಾಗಿದೆ ಎಂದು ವಿವಾದ ಉಂಟಾಗಿತ್ತು. ಅಸಲಿಗೆ ಹೃತಿಕ್‌ ರೋಷನ್‌ಗೆ ಈ ವಿಡಿಯೋದ ಕುರಿತು ಸ್ಪಷ್ಟ ಅರಿವು ಇರಲಿಲ್ಲ. ಝೊಮೆಟೊ ದೇಶಾದ್ಯಂತ ಇದೇ ಜಾಹೀರಾತನ್ನು ವಿವಿಧ ರೀತಿಯಲ್ಲಿ ತೋರಿಸುತ್ತದೆ. ಕರ್ನಾಟಕದ ನೋಡುಗರಿಗೆ ಈ ವಿಡಿಯೋದಲ್ಲಿ "ನನಗೆ ದರ್ಶಿನಿಯ ಮಸಾಲೆ ದೋಸೆ ತಿನ್ನಬೇಕು ಎಂದೆನಿಸುತ್ತದೆ" ಎಂದು ಹೇಳಬಹುದು. ಇದು ಎಐ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೋ ಮತ್ತು ಆಡಿಯೋ.

ಇದೇ ರೀತಿ ಸನ್ಮಾನ್‌ ಖಾನ್‌ ಅವರ ಕ್ಯಾಡ್‌ಬರಿ ಜಾಹೀರಾತು ಕೂಡ ಇರುತ್ತದೆ. ಈ ರೂಪದರ್ಶಿಗಳ ಅನುಮತಿಯೊಂದಿಗೆ ಇವರ ಧ್ವನಿ, ಮುಖದ ಹಾವಭಾವವನ್ನು ಕಾಪಿ ಮಾಡಿ ಎಐ ತಂತ್ರಜ್ಞಾನಕ್ಕೆ ನೀಡಲಾಗುತ್ತದೆ. ಬಳಿಕ ಆ ಎಐ ತಂತ್ರಜ್ಞಾನ ಇವರ ಹೆಸರು, ರೂಪ, ಧ್ವನಿಯಲ್ಲಿ ಇಂತಹ ಜಾಹೀರಾತುಗಳನ್ನು ಸೃಷ್ಟಿಸುತ್ತದೆ. ಇಲ್ಲಿ ಈ ನಟರಿಗೆ ಇಂತಹ ಜಾಹೀರಾತುಗಳಲ್ಲಿ ನಟಿಸುವ ಸಮಯದ ಉಳಿತಾಯವಾಗುತ್ತದೆ. ಶೂಟಿಂಗ್‌ ವೆಚ್ಚವೂ ಕಡಿಮೆಯಾಗುತ್ತದೆ.

ಡೀಪ್‌ಫೇಕ್‌: ಕೆಲವು ಉದಾಹರಣೆಗಳು

  1. - 2020ರಲ್ಲಿ ದೆಹಲಿ ಅಸೆಂಬ್ಲಿ ಚುನಾವಣೆ ಸಂದರ್ಭದಲ್ಲಿ ಬಿಜೆಪಿಯು ಡೀಪ್‌ಫೇಕ್‌ ತಂತ್ರಜ್ಞಾನ ಬಳಸಿಕೊಂಡಿತ್ತು. ಬಿಜೆಪಿ ನಾಯಕ ಮನೋಜ್‌ ತಿವಾರಿಯವರು ಎರಡು ಬೇರೆಬೇರೆ ಭಾಷೆಯಲ್ಲಿ ಮಾತನಾಡುವ ವಿಡಿಯೋವನ್ನು ಸೃಷ್ಟಿಸಿ ವಿವಿಧ ಭಾಷೆಯ ಜನರನ್ನು ಸೆಳೆಯಲು ಯತ್ನಿಸಲಾಗಿತ್ತು. ಒಂದು ವಿಡಿಯೋದಲ್ಲಿ ತಿವಾರಿ Haryanvi ಭಾಷೆಯಲ್ಲಿ ಮಾತನಾಡುತ್ತಾರೆ. ಇನ್ನೊಂದು ವಿಡಿಯೋದಲ್ಲಿ ಹಿಂದಿಯಲ್ಲಿ ಮಾತನಾಡುತ್ತಾರೆ. ಅದು ಎಐ ಡೀಪ್‌ಫೇಕ್‌ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೋ ಆಗಿತ್ತು. ಎರಡು ವಿಡಿಯೋ ಕೂಡ ಇವರು ನೈಜ್ಯವಾಗಿ ಮಾತನಾಡಿದಂತೆ ಇತ್ತು.
  2. - 2022ರಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋವೊಂದರಲ್ಲಿ ಉಕ್ರೇನ್‌ ಅಧ್ಯಕ್ಷ ಝೆಲೆನ್‌ಸ್ಕಿ ಅವರು ತನ್ನ ಸೇನೆಗೆ ರಷ್ಯಾಕ್ಕೆ ಶರಣಾಗುವಂತೆ ತಿಳಿಸಿದ್ದರು. ಈ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋ ನಂಬಿ ಸೈನಿಕರು ಶರಣಾಗಿದ್ದರೆ ಏನಾಗುತ್ತಿತ್ತು?
  3. - ಪ್ರಧಾನಿ ನರೇಂದ್ರ ಮೋದಿಯವರ ಹಲವು ನಕಲಿ ವಿಡಿಯೋ ಆಡಿಯೋಗಳು ಡಿಜಿಟಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿದೆ. "ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋ ನರೇಂದ್ರ ಮೋದಿ" ಎಂದು ಗೂಗಲ್‌ನಲ್ಲಿ ಹುಡುಕಿ ನೋಡಿ.
  4. - ನ್ಯೂಯಾರ್ಕ್‌ನ ವಿದ್ಯಾರ್ಥಿಗಳು ತಮ್ಮ ಪ್ರಿನ್ಸಿಪಾಲ್‌ ಅವರ ವಿಡಿಯೋವೊಂದನ್ನು ಹಂಚಿಕೊಂಡಿದ್ದರು. ಆ ವಿಡಿಯೋದಲ್ಲಿ ಪ್ರಿನ್ಸಿಪಾಲ್‌ ಜನಾಂಗಿಯ ನಿಂದನೆಯ ಹೇಳಿಕೆ ನೀಡುವ ಕ್ಲಿಪ್‌ ಇತ್ತು. ನಿಜ ಏನೆಂದರೆ, ಪ್ರಿನ್ಸಿಪಾಲ್‌ ಅಂತಹ ಹೇಳಿಕೆ ನೀಡಿರಲಿಲ್ಲ. ನ್ಯೂಯಾರ್ಕ್‌ನ ವಿದ್ಯಾರ್ಥಿಗಳ ಗುಂಪೊಂದು ಇದನ್ನು ಸೃಷ್ಟಿ ಮಾಡಿತ್ತು.
  5. - ರಾಜಕೀಯಕ್ಕೂ ಡೀಪ್‌ಫೇಕ್‌ ಬಳಕೆ ಹೆಚ್ಚಾಗುತ್ತಿದೆ. 2018ರಲ್ಲಿ ಡೊನಾಲ್ಡ್‌ ಟ್ರಂಪ್‌ ಅವರು "ಬೆಲ್ಜಿಯಂ ದೇಶವು ಪ್ಯಾರಿಸ್‌ ಹವಾಮಾನ ಒಪ್ಪಂದದಿಂದ ಹಿಂದೆ ಸರಿಯುತ್ತಿದೆ" ಎಂದು ಹೇಳಿದ ವಿಡಿಯೋ ಸಾಕಷ್ಟು ಅಲ್ಲೊಲ್ಲ ಕಲ್ಲೋಲ ಉಂಟು ಮಾಡಿತ್ತು. ಆದರೆ, ಅದು ಡೀಪ್‌ಫೇಕ್‌ನಿಂದ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೋ ಆಗಿತ್ತು. ಡೊನಾಲ್ಡ್‌ ಟ್ರಂಪ್‌ ಹೆಸರಲ್ಲಿ ಸೃಷ್ಟಿಯಾದಷ್ಟು ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋಗಳು ಇನ್ಯಾರ ಹೆಸರಲ್ಲಿ ಸೃಷ್ಟಿಯಾಗಿರಲಿಕ್ಕಿಲ್ಲ. ಇಂತಹ ನೂರಾರು ಉದಾಹರಣೆಗಳು ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ದೊರಕುತ್ತವೆ.

ಏನಿದು ಡೀಪ್‌ಫೇಕ್‌? ಇದು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ?

ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ಎಂಬ ಪದವು ಹೊಸ ತಲ್ಲಣವನ್ನು ಉಂಟು ಮಾಡುತ್ತಿದೆ. ಆರ್ಟಿಫಿಶಿಯಲ್‌ ಇಂಟಲಿಜೆನ್ಸ್‌ ಅಥವಾ ಎಐ ಬಳಸಿ ಹೊಸ ವಿಡಿಯೋ ಅಥವಾ ಆಡಿಯೋ ರಚಿಸಲಾಗುತ್ತದೆ. ಆದರೆ, ಒಂದು ಘಟನೆ ನಡೆಯದೆ ಇದ್ದರೂ ಇಂತಹ ವಿಡಿಯೋ ಮತ್ತು ಆಡಿಯೋದಲ್ಲಿ ನಡೆದಂತೆ ತೋರಿಸಬಹುದು. ಪ್ರಧಾನಿ ಮೋದಿಯವರು ಏನೋ ಒಂದು ಹೇಳಿಕೆ ನೀಡದೆ ಇದ್ದರೂ ಅವರೇ ಹೇಳಿಕೆ ನೀಡಿದಂತೆ ಆಡಿಯೋ ಮತ್ತು ವಿಡಿಯೋವನ್ನುಈ ಎಐ ಮೂಲಕ ಸೃಷ್ಟಿಸಿಕೊಳ್ಳಬಹುದು.

ಈಗ ಯಂತ್ರಮಾನವ ಎಷ್ಟೇ ಅಭಿವೃದ್ಧಿಯಾಗಿದ್ದರೂ ನಾವು ಅದನ್ನು ಕೃತಕವೆಂದೇ ಪರಿಗಣಿಸುತ್ತೇವೆ. ಎಲ್ಲಾದರೂ ನಿಮಗೆ ಅದು ಯಂತ್ರಮಾನವ ಎಂದು ತಿಳಿಯದಂತೆ ಥೇಟ್‌ ಯಾರೋ ನಿಮ್ಮ ಸ್ನೇಹಿತರಂತೆ ಕಂಡರೆ ಹೇಗಿರುತ್ತದೆ. ಕಂಪ್ಯೂಟರ್‌ಗಳು ಈಗ ಶೇಕಡ 100ರಷ್ಟು ನೈಜವಾಗಿರುವಂತೆ ತೋರುವುದನ್ನು ಸೃಷ್ಟಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿವೆ. ನಿಮ್ಮ ಫೋಟೊವೊಂದನ್ನು ಸ್ಕ್ಯಾನ್‌ ಮಾಡಿ ನಿಮ್ಮದೇ ತದ್ರೂಪಿ ವ್ಯಕ್ತಿಯ ವಿಡಿಯೋವನ್ನು ಸೃಷ್ಟಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿದೆ. ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿ ನಿಮ್ಮ ಮಕ್ಕಳ ಫೋಟೊವನ್ನು ಬಳಸಿ ಹೊಸ ವ್ಯಕ್ತಿಯನ್ನೂ ಸೃಷ್ಟಿಸಬಹುದು. ಡೀಪ್‌ಫೇಕ್‌ ಎಐ ಎನ್ನುವುದು ಒಂದು ಬಗೆಯ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯಾಗಿದ್ದು, ಚಿತ್ರಗಳು, ಆಡಿಯೋ ಮತ್ತು ವಿಡಿಯೋ ಹೋಕ್ಸ್‌ಗಳನ್ನು ಸೃಷ್ಟಿಸುತ್ತದೆ. ಈಗ ಲಭ್ಯವಿರುವ ಕಂಟೆಂಟ್‌ ಬಳಸಿ ಅದೇ ರೀತಿಯ ಇನ್ನೊಂದು ಕಂಟೆಂಟ್‌ ಅನ್ನು ಬೇರೆಯ ಉದ್ದೇಶಕ್ಕೆ ಬಳಸಲಾಗುತ್ತದೆ. ನಿಮ್ಮ ಪಾಸ್‌ಪೋರ್ಟ್‌, ಬ್ಯಾಂಕ್‌ ಖಾತೆಯಲ್ಲಿ ದುರುಳರು ಇದನ್ನು ಬಳಸಿ ದುರ್ಬಳಕೆ ಮಾಡಬಹುದು. ಈ ಜಗತ್ತಿನಲ್ಲಿ ನೀವು ಅಪರಿಚಿತರಾಗಬಹುದು. ನಕಲಿ ರೂಪ ಈ ಭೂಮಿಯಲ್ಲಿ ನಿಮ್ಮ ಹೆಸರಿನಲ್ಲಿ ಜೀವಿಸಬಹುದು.

ನಕಲಿಗಳ ಲೋಕದಲ್ಲಿ ಆತಂಕ ಹುಟ್ಟಿಸುತ್ತಿದೆ ಡೀಪ್‌ಫೇಕ್‌, ಅಸಲಿಗಳೇ ಎಚ್ಚೆತ್ತುಕೊಳ್ಳಿ

ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಬಹುತೇಕ ಪೋರ್ನೊಗ್ರಫಿ ಕಂಟೆಂಟ್‌ಗಳು ಈ ರೀತಿಯ ಎಐ ತಂತ್ರಜ್ಞಾನದಿಂದ ಸೃಷ್ಟಿಯಾಗಿರುತ್ತವೆ ಎಂಬ ವಿಷಯ ತಿಳಿದರೆ ಬಹುತೇಕರಿಗೆ ಅಚ್ಚರಿಯಾಗಬಹುದು. ಡೀಪ್‌ಫೇಕ್‌ ಎನ್ನುವುದು ಅಶ್ಲೀಲ ವೆಬ್‌ಗಳಲ್ಲಿ ಹಲವು ವರ್ಷಗಳಿಂದ ಬಳಕೆಯಾಗುತ್ತಿದೆ. ಲೈವ್‌ ಕಾರ್ಯಕ್ರಮವೆಂದು ಇಂತಹ ಡೀಪ್‌ಫೇಕ್‌ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೋಗಳ ಮೂಲಕ, ಲೈವ್‌ ಕಾರ್ಯಕ್ರಮಗಳ ಜನರನ್ನು ದಾರಿತಪ್ಪಿಸಲಾಗುತ್ತಿತ್ತು. ಆದರೆ, ಅಲ್ಲಿ ರಿಯಲ್‌ ವ್ಯಕ್ತಿಗಳಂತೆ ಕಂಡ ನಟನಟಿಯರು ಎಐ ಸೃಷ್ಟಿಸಿದ ಮಖ ಮತ್ತು ದೇಹಗಳು ಆಗಿರುತ್ತವೆ. ಆದರೆ, ಅಲ್ಲಿ ನೋಡಿರುವ ಮುಖವು ಎಲ್ಲೋ ನೋಡಿರುವ ಮುಖ ಎಂದೆನಿಸಿದರೆ ಅದು ಯಾರದ್ದೋ ಮುಖವನ್ನು ಕಾಪಿ ಮಾಡಿ ಕೊಂಚ ವಯಸ್ಸು ಕಡಿಮೆ ಅಥವಾ ಹೆಚ್ಚು ಮಾಡಿ ಸೃಷ್ಟಿಸಿದ ಮುಖಗಳಾಗಿರುತ್ತವೆ.

ಈಗಾಗಲೇ ಫೇಕ್‌ ವಿಡಿಯೋ ಆಡಿಯೋಗಳ ಬಗ್ಗೆ ಜನರಿಗೆ ಗೊತ್ತಿದೆ. ಯಾವುದೋ ವಿಡಿಯೋಕ್ಕೆ ಯಾರದ್ದೋ ಮುಖವನ್ನು ಅಂಟಿಸುವುದು, ಧ್ವನಿ ಸೇರಿಸುವುದು ಇತ್ಯಾದಿ ಮಾಡಿ ನಕಲಿ ವಿಡಿಯೋ ಅಥವಾ ಆಡಿಯೋ ಸೃಷ್ಟಿಸಬಲ್ಲದು. ತುಂಬಾ ಆಳವಾಗಿ ಸ್ಟಡಿ ಮಾಡಿದರೆ ಅದು ಅಸಲಿಯೋ, ನಕಲಿಯೋ ಎಂದು ತಿಳಿಯುತ್ತದೆ. ಅಸಲಿಯೋ ನಕಲಿಯೋ ಎಂದು ತಿಳಿಯಲು ಸಾಧ್ಯವಿಲ್ಲದಂತೆ ಡೀಪ್‌ಫೇಕ್‌ನಲ್ಲಿ ವಿಡಿಯೋ ರಚಿಸಬಹುದು.

ಹಲವು ವಿಧಾನಗಳ ಮೂಲಕ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋ ರಚಿಸಬಹುದು. ಸಾಮಾನ್ಯವಾಗಿ ಮುಖ ಬದಲಾಯಿಸುವ ಆಳವಾದ ನರ ಜಾಲಗಳನ್ನು ಬಳಸಲಾಗುತ್ತದೆ. ಅಂದರೆ ಡೀಪ್‌ ನ್ಯೂರಲ್‌ ನೆಟ್‌ವರ್ಕ್‌ ತಂತ್ರದ ಮೂಲಕ ಇಂತಹ ಚಿತ್ರಗಳನ್ನು ರಚಿಸಲಾಗುತ್ತದೆ. ಯಾವುದೋ ಸಿನಿಮಾದ ದೃಶ್ಯವೊಂದಕ್ಕೆ ನಾಯಕನ ಬದಲು ನಿಮ್ಮ ಮುಖವನ್ನು ಸೇರಿಸಬಹುದು. ವ್ಯಕ್ತಿಯ ಚಹರೆ, ವರ್ತನೆ ಎಲ್ಲವವನ್ನೂ ಈ ಪ್ರೋಗ್ರಾಂ ಕಂಡುಹಿಡಿದು ಹೊಸತನ್ನು ಸೃಷ್ಟಿಸುತ್ತದೆ. Zao, DeepFace Lab, FakeApp ಇತ್ಯಾದಿಗಳ ಮೂಲಕ ಇಂತಹ ಸಾಧ್ಯತೆ ತಿಳಿಯಬಹುದು. ಇನ್ನೂ ಸುಧಾರಿತ ತಂತ್ರಜ್ಞಾನಗಳು ಗಿತ್‌ಹಬ್‌ನಲ್ಲಿ ದೊರಕುತ್ತವೆ.

ನಕಲಿಗಳ ಲೋಕದಲ್ಲಿ ಆತಂಕ ಹುಟ್ಟಿಸುತ್ತಿದೆ ಡೀಪ್‌ಫೇಕ್‌, ಅಸಲಿಗಳೇ ಎಚ್ಚೆತ್ತುಕೊಳ್ಳಿ ಎಂದು ಹೇಳುವುದಷ್ಟೇ ಈ ಅಂಕಣದ ಉದ್ದೇಶ. ಅಂದಹಾಗೆ, ಡೀಪ್‌ಫೇಕ್‌ನಿಂದ ಸಾಕಷ್ಟು ಅನುಕೂಲತೆಗಳೂ ಇವೆ. ಜತೆಗೆ, ಇಂತಹ ವಿಡಿಯೋಗಳನ್ನು, ಆಡಿಯೋಗಳನ್ನು ಗುರುತಿಸಲು ದಾರಿಗಳಿವೆ. ಅವುಗಳ ಬಗ್ಗೆ ಮುಂದೊಂದು ದಿನ ಚರ್ಚಿಸೋಣ.

(ಪೂರಕ ಮಾಹಿತಿ: ಬಿಸ್ನೆಸ್‌ಇನ್‌ಸೈಡರ್‌, ಇಂಡಿಯಾಮ್ಯಾಟರ್ಸ್‌ ಮತ್ತು ಇತರೆ ಆನ್‌ಲೈನ್‌ ರಿಸರ್ಚ್‌)

ಡಿಜಿಟಲ್‌ ಜಗತ್ತು ಅಂಕಣ ಬರಹದ ಬಗ್ಗೆ ನಿಮ್ಮ ಅಭಿಪ್ರಾಯ, ಪ್ರತಿಕ್ರಿಯೆ, ಸಲಹೆಗಳಿಗೆ ಸ್ವಾಗತ. ಇಮೇಲ್: praveen.chandra@htdigital.in, ht.kannada@htdigital.in

    ಹಂಚಿಕೊಳ್ಳಲು ಲೇಖನಗಳು

ಮುಂದಿನ ಲೇಖನ