Deepfake: ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ತಲ್ಲಣ , ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಮಕ್ಕಳ ಫೋಟೊ ಹಂಚಿಕೊಳ್ಳುವಿರಾ, ಗುರುತಿನ ದುರುಪಯೋಗದ ಆತಂಕ
ಕನ್ನಡ ಸುದ್ದಿ  /  ಜೀವನಶೈಲಿ  /  Deepfake: ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ತಲ್ಲಣ , ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಮಕ್ಕಳ ಫೋಟೊ ಹಂಚಿಕೊಳ್ಳುವಿರಾ, ಗುರುತಿನ ದುರುಪಯೋಗದ ಆತಂಕ

Deepfake: ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ತಲ್ಲಣ , ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಮಕ್ಕಳ ಫೋಟೊ ಹಂಚಿಕೊಳ್ಳುವಿರಾ, ಗುರುತಿನ ದುರುಪಯೋಗದ ಆತಂಕ

Digital Jagathu: ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಈಗ ಆರ್ಟಿಫಿಶಿಯಲ್‌ ಇಂಟಲಿಜೆನ್ಸ್‌ ಸುದ್ದಿ ಮಾಡುತ್ತಿದೆ. ಎಐ ಪ್ರೇರಿತ ಡೀಪ್‌ಫೇಕ್‌ನಿಂದ (deepfake AI) ಏನೆಲ್ಲ ಅನಾಹುತಗಳಾಗಬಹುದು ಎಂಬ ಆತಂಕವೂ ಎದುರಾಗಿದೆ. ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿ ನಮ್ಮ ಫೋಟೊ, ನಮ್ಮ ಮಕ್ಕಳ ಫೋಟೊವನ್ನು ದುರ್ಬಳಕೆ (identity abuse) ಮಾಡುವ ಆತಂಕವೂ ಹೆಚ್ಚಾಗಿದೆ.

Deepfake: ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ತಲ್ಲಣ, ಏನಿದು ಡೀಪ್‌ಫೇಕ್‌, ಇದು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ.
Deepfake: ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ತಲ್ಲಣ, ಏನಿದು ಡೀಪ್‌ಫೇಕ್‌, ಇದು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ.

ನಿಮಗೊಂದು ವಿಡಿಯೋ ಕಾಲ್‌ ಬರುತ್ತದೆ. ಅಲ್ಲಿ ನಿಮ್ಮ ಮಗಳು ಅಳುಮುಖದಲ್ಲಿ "ಅಮ್ಮಾ, ಪ್ಲೀಸ್‌ ಹೆಲ್ಪ್‌ ಮಾಡು, ನನ್ನ ಬ್ಯಾಗ್‌ ಕಳೆದುಹೋಗಿದೆ. ಪರ್ಸ್‌ ಎಟಿಎಂ ಕಳೆದುಹೋಗಿದೆ. ಆನ್‌ಲೈನ್‌ ಬ್ಯಾಂಕಿಂಗ್‌ ಲಾಕ್‌ ಆಗಿದೆ. ಅರ್ಜೆಂಟ್‌ ನಿನ್ನ ನೆಟ್‌ ಬ್ಯಾಂಕಿಂಗ್‌ ಲಾಗಿನ್‌ ಕೊಡು" ಎನ್ನುತ್ತಾಳೆ. ತಾನು ಯಾವುದೋ ಊರಿಗೆ ಹೋದವಳು ಅಲ್ಲೇ ಬಾಕಿಯಾಗಿದ್ದೇನೆ. ವಿಮಾನಕ್ಕೆ ಸಮಯವಾಗುತ್ತಿದೆʼʼ ಎನ್ನುತ್ತಿದ್ದಾಳೆ. ಅವಳ ಕಣ್ಣಲ್ಲಿ ಆತಂಕ ಕಂಡು ನೀವು ಕರಗುವಿರಿ. "ನಿಲ್ಲು ಮಗ, ಈಗ್ಲೇ ಕೊಡುವೆ" ಎಂದು ಹೇಳಿ ನಿಮ್ಮ ಯೂಸರ್‌ ನೇಮ್‌ ಮತ್ತು ಪಾಸ್ವರ್ಡ್‌ ಹೇಳುವಿರಿ. "ಥ್ಯಾಂಕ್ಸ್‌ ಅಮ್ಮ, ನನ್ನ ಮುದ್ದು ಅಮ್ಮ" ಎನ್ನುತ್ತಾಳೆ. ಬಾಯ್‌ ಹೇಳಿ ವಿಡಿಯೋ ಕಾಲ್‌ ಕಟ್‌ ಆಗುತ್ತದೆ.

ನೀವು ನಿಮ್ಮ ಕೆಲಸದಲ್ಲಿ ಮಗ್ನವಾಗುವಿರಿ. ಕೆಲವು ಗಂಟೆಗಳ ಕಾಲ ಕಳೆದಾಗ ವಿಡಿಯೋ ಕಾಲ್‌ ಬರುತ್ತದೆ. ಅಲ್ಲಿ ಮಗಳಿದ್ದಾಳೆ. "ಹಲೋ ಅಮ್ಮ, ಹೇಗಿದ್ದಿ, ಊಟ ಆಯ್ತ" ಪ್ರತಿನಿತ್ಯದಂತೆ ಕುಶಲೋಪರಿ ಮಾತನಾಡುತ್ತಾಳೆ. ನೀವು ಸ್ವಲ್ಪ ಮಾತನಾಡಿ, "ನಿನ್ನ ಸಮಸ್ಯೆ ಸಾಲ್ವ್‌ ಆಯ್ತ, ಮನೆಗೆ ತಲುಪಿದ್ಯಾ" ಎನ್ನುವಿರಿ. "ಅಮ್ಮ ನಿನಗೆ ಏನಾಗಿದೆ, ಇವತ್ತು ಬೆಳಗ್ಗಿನಿಂದಲೇ ಮನೆಯಲ್ಲಿಯೇ ಇದ್ದೇನೆ" ಎಂದಾಗ ನಿಮಗೆ ಕೋಪ ಬರುತ್ತದೆ. "ಅಲ್ಲ, ಆಗ ನೀನು ವಿಡಿಯೋ ಕಾಲ್‌ ಮಾಡಿ ಎಲ್ಲೋ ಸಿಕ್ಕಿ ಹಾಕಿಕೊಂಡಿದ್ದಿ ಅಂತ ಬ್ಯಾಂಕ್‌ ಡಿಟೇಲ್ಸ್‌ ಕೇಳಿದ್ದಿ" ಎಂದು ದಬಾಯಿಸುವಿರಿ. ನಿಮ್ಮ ಮಗಳಲ್ವಾ ಅವಳು, ನಿಮ್ಮಷ್ಟೇ ಕೋಪದಿಂದ "ಏನಾಗಿದೆ ಅಮ್ಮ ನಿನಗೆ" ಎಂದಾಗ ಬೆಳಗ್ಗೆ ಕಾಲ್‌ ಮಾಡಿದ ಘಟನೆಯನ್ನು ನೆನಪಿಸಿ ಆಕೆಗೆ ತಿಳಿಸುವ ಪ್ರಯತ್ನ ಮಾಡುವಿರಿ. "ನಿನಗೆ ನಿಜಕ್ಕೂ ಏನೋ ಆಗಿದೆ, ನಾನು ಕಾಲ್‌ ಮಾಡೇ ಇಲ್ಲ" ಅಂತಾಳೆ ಮಗಳು. "ಹಾಗಾದರೆ, ನಿನ್ನ ದೆವ್ವವ ಕಾಲ್‌ ಮಾಡಿದ್ದು?"......

ಏನೋ ನೆನಪಾಗಿ ನೀವು ನಿಮ್ಮ ಆನ್‌ಲೈನ್‌ ಬ್ಯಾಂಕ್‌ಗೆ ಲಾಗಿನ್‌ ಆಗುವಿರಿ. ಅಲ್ಲಿದ್ದ ಹತ್ತು ಹಲವು ಲಕ್ಷ ರೂಪಾಯಿ ಮಾಯವಾಗಿರುತ್ತದೆ. ಖಾತೆ ಝೀರೋ ಆಗಿರುತ್ತದೆ.

***

ಏನಿದು ಕಟ್ಟುಕತೆಯೋ, ನಿಜ ಕತೆಯೋ ಎಂದು ಕೇಳುವಿರಾ? ಇಲ್ಲಿ ಮೊದಲು ಕರೆ ಮಾಡಿದ್ದು ಡೀಪ್‌ಫೇಕ್‌ ಸೃಷ್ಟಿಸಿದ ಮಗಳ ತದ್ರೂಪಿ ಅವತಾರ ಎಂದುಕೊಳ್ಳಿ. ಎರಡನೆಯ ಬಾರಿಗೆ ಕಾಲ್‌ ಮಾಡಿದ್ದು ನಿಜವಾದ ಮಗಳು. ಇಬ್ಬರೂ ನೋಡಲು ಒಂದೇ ರೀತಿ, ಮಾತನಾಡುವ ರೀತಿನೀತಿಗಳೆಲ್ಲವೂ ಒಂದೇ. ಏಕೆ ಹೀಗಾಯ್ತು? ಏನಿದು ಹೊಸ ವಿಷಯ ಎಂದುಕೊಳ್ಳುವಿರಾ? ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಈಗ ಎಐ ಪ್ರೇರಿತ ಡೀಪ್‌ಫೇಕ್‌ ಆತಂಕ ಹುಟ್ಟಿಸುತ್ತಿದೆ.

ಮಕ್ಕಳ ಫೋಟೊವನ್ನು ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿ ಹಂಚಿಕೊಳ್ಳಬಹುದೇ?

ಇತ್ತೀಚೆಗೆ ಡಾಯ್ಚ್‌ ಟೆಲಿಕಾಂನ ಜಾಹೀರಾತಿನಲ್ಲಿ ಎಐ ಯುವತಿ ಇಳಾ ಇಂತಹ ಒಂದು ಪ್ರಶ್ನೆಯನ್ನು ಹುಟ್ಟು ಹಾಕಿದ್ದಾಳೆ. ಡಾಯ್ಚ್‌ ಟೆಲಿಕಾಂ ಪ್ರಕಟಿಸಿದ A Message from Ella ಎಂಬ ಫ್ರಾಂಕ್‌ ಜಾಹೀರಾತಿನಲ್ಲಿ ಇಳಾ ಎಂಬ ಎಐ ಯುವತಿ ತನ್ನ ಫೋಟೊವನ್ನು ಹೇಗೆ ದುರುಪಯೋಗ ಮಾಡಿಕೊಳ್ಳಲಾಯಿತು ಎಂದು ಹೇಳಿ ಭೀತಿ ಹುಟ್ಟಿಸುತ್ತಾಳೆ. ಇಳಾ ಎಂಬ ನೈಜ ಯುವತಿ ಸಿನಿಮಾ ಥಿಯೇಟರ್‌ನಲ್ಲಿ ತನ್ನ ಹೆತ್ತವರೊಂದಿಗೆ ಸಿನಿಮಾ ನೋಡುತ್ತಿರುವ ಸಂದರ್ಭದಲ್ಲಿ ಆ ಸಿನಿಮಾ ಮಂದಿರದ ಸ್ಕ್ರೀನ್‌ ಮೇಲೆ ಈ ಎಐ ಇಳಾ ಕಾಣಿಸಿಕೊಳ್ಳುತ್ತಾಳೆ. ಹೇಗೆ ನನ್ನ ಐಡೆಂಟೆಟಿ ಅಬ್ಯೂಸ್‌ ಅಥವಾ ಗುರುತಿನ ದುರುಪಯೋಗವಾಯಿತು ಎಂದು ಹೇಳುತ್ತಾಳೆ. ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿ ಪೋಷಕರು ಹಂಚಿಕೊಂಡ ತನ್ನ ಫೋಟೊವನ್ನು ದುರುಪಯೋಗಪಡಿಸಿಕೊಂಡು ಹೇಗೆ ಇಳಾ ಎಂಬ ನಕಲಿ ಇಐಯನ್ನು ಸೃಷ್ಟಿಸಲಾಯಿತು, ಈಕೆಯನ್ನು ನಕಲಿ ಅವತಾರ ಬಳಸಿಕೊಂಡು ಏನೆಲ್ಲ ಮಾಡಬಹುದು ಎಂದು ಈ ಜಾಹೀರಾತು ಎಚ್ಚರಿಸುತ್ತದೆ. ಮೊದಲಿಗೆ ಈ ಕೆಳಗೆ ನೀಡಲಾದ ವಿಡಿಯೋ ನೋಡಿ.

ಈ ರೀತಿ ಎಐ ಡೀಪ್‌ಫೆಕ್‌ ನಿಮ್ಮ ಮುಖವನ್ನು ನಕಲಿಸಿಕೊಂಡು ಸ್ವಂತ ಅಸ್ತಿತ್ವ ಸ್ಥಾಪಿಸಿಕೊಳ್ಳಬಹುದು. ನಿಮ್ಮ ಪಾಸ್‌ಬುಕ್‌, ಪಾಸ್‌ಪೋರ್ಟ್‌, ಬ್ಯಾಂಕ್‌ ಖಾತ ತಮ್ಮದಾಗಿಸಿಕೊಳ್ಳಹಬುದು. ಕ್ರೆಡಿಟ್‌ ಕಾರ್ಡ್‌ ರಚಿಸಿಕೊಂಡು ನಿಮ್ಮ ಹೆಸರಿನಲ್ಲಿ ಖರ್ಚು ಮಾಡಬಹುದು. ನಿಮ್ಮ ಪುಟ್ಟ ಮಗಳ ಧ್ವನಿಯನ್ನು ಎಐ ಅನುಕರಿಸಿ "ಅಮ್ಮ ಕಷ್ಟದಲ್ಲಿದ್ದೇನೆ ಅರ್ಜೆಂಟ್‌ ಹಣ ಕಳುಹಿಸಿ ಪ್ಲೀಸ್‌ಪ್ಲೀಸ್‌ ಎಂದು ಅಳಬಹುದು. ನೀವು ಹಣ ಕಳುಹಿಸಬಹುದು. ಡಿಜಿಟಲ್‌ ಫೂಟ್‌ಪ್ರಿಂಟ್‌ ಎಂದು ನಾವು ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿ ಹಂಚಿಕೊಳ್ಳುವ ನಮ್ಮ ಮಕ್ಕಳ ಫೋಟೊದ ದುರ್ಬಳಕೆಯಾಗಬಹುದು.

ಭಾರತದಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ಎಐ ತಂತ್ರಜ್ಞಾನ

ಡೀಪ್‌ಫೇಕ್‌ ಬಗ್ಗೆ ಭಯಪಡಬೇಕಾಗಿಲ್ಲ ಎಂದುಕೊಂಡಿರಾ? ಭಾರತಕ್ಕೆ ಇಂತಹದ್ದೆಲ್ಲ ಬರೋಲ್ಲ ಅಂದುಕೊಂಡಿರಾ, ಡೀಪ್‌ಫೇಕ್‌ ಈಗಾಗಲೇ ಭಾರತಕ್ಕೆ ಬಂದಾಗಿದೆ. ಉದಾಹರಣೆ ಬೇಕೆ? ವಿವಿಧ ರೀತಿಯಲ್ಲಿ ಈ ತಂತ್ರಜ್ಞಾನವನ್ನು ಜಾಹೀರಾತು, ಮಾಧ್ಯಮ, ಸಿನಿಮಾ, ಮಾರ್ಕೆಟಿಂಗ್‌ ಜಗತ್ತು ವಿವಿಧ ರೀತಿಯಲ್ಲಿ ಬಳಸಿಕೊಳ್ಳುತ್ತಿವೆ. ಇದೇ ಸಮಯದಲ್ಲಿ ರಾಜಕೀಯ ಪ್ರಚಾರ, ರಾಜಕೀಯ ವಿವಾದಕ್ಕೆ, ಸಂಘರ್ಷಕ್ಕೂ ಇಂತಹ ತಂತ್ರ

ಹೃತಿಕ್‌ ರೋಷನ್‌ ಅವರು ಕಳೆದ ವರ್ಷ ಝೊಮೆಟೊ ಜಾಹೀರಾತಿನ ವಿಷಯವೊಂದಕ್ಕೆ ಸಂಬಂಧಪಟ್ಟಂತೆ ಸುದ್ದಿಯಲ್ಲಿದ್ದರು. ಆ ಜಾಹೀರಾತಿನಲ್ಲಿ "ನನಗೆ ಉಜ್ಜಯಿನಿಯ ಥಾಲಿ ತಿನ್ನಬೇಕೆನಿಸುತ್ತದೆ, ಹೀಗಾಗಿ ನಾನು ಮಾಹಾಕಾಳದಿಂದ ಆರ್ಡರ್‌ ಮಾಡುತ್ತಿದ್ದೇನೆ" ಎಂದು ಅವರು ಹೇಳಿಕೆ ನೀಡಿದ್ದರು. ಈ ಸುದ್ದಿಯನ್ನು ನೆನಪಿಸಿಕೊಳ್ಳಿ. ಇದರಿಂದ ಹಿಂದುಗಳ ಭಾವನೆಗೆ ಧಕ್ಕೆಯಾಗಿದೆ ಎಂದು ವಿವಾದ ಉಂಟಾಗಿತ್ತು. ಅಸಲಿಗೆ ಹೃತಿಕ್‌ ರೋಷನ್‌ಗೆ ಈ ವಿಡಿಯೋದ ಕುರಿತು ಸ್ಪಷ್ಟ ಅರಿವು ಇರಲಿಲ್ಲ. ಝೊಮೆಟೊ ದೇಶಾದ್ಯಂತ ಇದೇ ಜಾಹೀರಾತನ್ನು ವಿವಿಧ ರೀತಿಯಲ್ಲಿ ತೋರಿಸುತ್ತದೆ. ಕರ್ನಾಟಕದ ನೋಡುಗರಿಗೆ ಈ ವಿಡಿಯೋದಲ್ಲಿ "ನನಗೆ ದರ್ಶಿನಿಯ ಮಸಾಲೆ ದೋಸೆ ತಿನ್ನಬೇಕು ಎಂದೆನಿಸುತ್ತದೆ" ಎಂದು ಹೇಳಬಹುದು. ಇದು ಎಐ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೋ ಮತ್ತು ಆಡಿಯೋ.

ಇದೇ ರೀತಿ ಸನ್ಮಾನ್‌ ಖಾನ್‌ ಅವರ ಕ್ಯಾಡ್‌ಬರಿ ಜಾಹೀರಾತು ಕೂಡ ಇರುತ್ತದೆ. ಈ ರೂಪದರ್ಶಿಗಳ ಅನುಮತಿಯೊಂದಿಗೆ ಇವರ ಧ್ವನಿ, ಮುಖದ ಹಾವಭಾವವನ್ನು ಕಾಪಿ ಮಾಡಿ ಎಐ ತಂತ್ರಜ್ಞಾನಕ್ಕೆ ನೀಡಲಾಗುತ್ತದೆ. ಬಳಿಕ ಆ ಎಐ ತಂತ್ರಜ್ಞಾನ ಇವರ ಹೆಸರು, ರೂಪ, ಧ್ವನಿಯಲ್ಲಿ ಇಂತಹ ಜಾಹೀರಾತುಗಳನ್ನು ಸೃಷ್ಟಿಸುತ್ತದೆ. ಇಲ್ಲಿ ಈ ನಟರಿಗೆ ಇಂತಹ ಜಾಹೀರಾತುಗಳಲ್ಲಿ ನಟಿಸುವ ಸಮಯದ ಉಳಿತಾಯವಾಗುತ್ತದೆ. ಶೂಟಿಂಗ್‌ ವೆಚ್ಚವೂ ಕಡಿಮೆಯಾಗುತ್ತದೆ.

ಡೀಪ್‌ಫೇಕ್‌: ಕೆಲವು ಉದಾಹರಣೆಗಳು

  1. - 2020ರಲ್ಲಿ ದೆಹಲಿ ಅಸೆಂಬ್ಲಿ ಚುನಾವಣೆ ಸಂದರ್ಭದಲ್ಲಿ ಬಿಜೆಪಿಯು ಡೀಪ್‌ಫೇಕ್‌ ತಂತ್ರಜ್ಞಾನ ಬಳಸಿಕೊಂಡಿತ್ತು. ಬಿಜೆಪಿ ನಾಯಕ ಮನೋಜ್‌ ತಿವಾರಿಯವರು ಎರಡು ಬೇರೆಬೇರೆ ಭಾಷೆಯಲ್ಲಿ ಮಾತನಾಡುವ ವಿಡಿಯೋವನ್ನು ಸೃಷ್ಟಿಸಿ ವಿವಿಧ ಭಾಷೆಯ ಜನರನ್ನು ಸೆಳೆಯಲು ಯತ್ನಿಸಲಾಗಿತ್ತು. ಒಂದು ವಿಡಿಯೋದಲ್ಲಿ ತಿವಾರಿ Haryanvi ಭಾಷೆಯಲ್ಲಿ ಮಾತನಾಡುತ್ತಾರೆ. ಇನ್ನೊಂದು ವಿಡಿಯೋದಲ್ಲಿ ಹಿಂದಿಯಲ್ಲಿ ಮಾತನಾಡುತ್ತಾರೆ. ಅದು ಎಐ ಡೀಪ್‌ಫೇಕ್‌ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೋ ಆಗಿತ್ತು. ಎರಡು ವಿಡಿಯೋ ಕೂಡ ಇವರು ನೈಜ್ಯವಾಗಿ ಮಾತನಾಡಿದಂತೆ ಇತ್ತು.
  2. - 2022ರಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋವೊಂದರಲ್ಲಿ ಉಕ್ರೇನ್‌ ಅಧ್ಯಕ್ಷ ಝೆಲೆನ್‌ಸ್ಕಿ ಅವರು ತನ್ನ ಸೇನೆಗೆ ರಷ್ಯಾಕ್ಕೆ ಶರಣಾಗುವಂತೆ ತಿಳಿಸಿದ್ದರು. ಈ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋ ನಂಬಿ ಸೈನಿಕರು ಶರಣಾಗಿದ್ದರೆ ಏನಾಗುತ್ತಿತ್ತು?
  3. - ಪ್ರಧಾನಿ ನರೇಂದ್ರ ಮೋದಿಯವರ ಹಲವು ನಕಲಿ ವಿಡಿಯೋ ಆಡಿಯೋಗಳು ಡಿಜಿಟಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿದೆ. "ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋ ನರೇಂದ್ರ ಮೋದಿ" ಎಂದು ಗೂಗಲ್‌ನಲ್ಲಿ ಹುಡುಕಿ ನೋಡಿ.
  4. - ನ್ಯೂಯಾರ್ಕ್‌ನ ವಿದ್ಯಾರ್ಥಿಗಳು ತಮ್ಮ ಪ್ರಿನ್ಸಿಪಾಲ್‌ ಅವರ ವಿಡಿಯೋವೊಂದನ್ನು ಹಂಚಿಕೊಂಡಿದ್ದರು. ಆ ವಿಡಿಯೋದಲ್ಲಿ ಪ್ರಿನ್ಸಿಪಾಲ್‌ ಜನಾಂಗಿಯ ನಿಂದನೆಯ ಹೇಳಿಕೆ ನೀಡುವ ಕ್ಲಿಪ್‌ ಇತ್ತು. ನಿಜ ಏನೆಂದರೆ, ಪ್ರಿನ್ಸಿಪಾಲ್‌ ಅಂತಹ ಹೇಳಿಕೆ ನೀಡಿರಲಿಲ್ಲ. ನ್ಯೂಯಾರ್ಕ್‌ನ ವಿದ್ಯಾರ್ಥಿಗಳ ಗುಂಪೊಂದು ಇದನ್ನು ಸೃಷ್ಟಿ ಮಾಡಿತ್ತು.
  5. - ರಾಜಕೀಯಕ್ಕೂ ಡೀಪ್‌ಫೇಕ್‌ ಬಳಕೆ ಹೆಚ್ಚಾಗುತ್ತಿದೆ. 2018ರಲ್ಲಿ ಡೊನಾಲ್ಡ್‌ ಟ್ರಂಪ್‌ ಅವರು "ಬೆಲ್ಜಿಯಂ ದೇಶವು ಪ್ಯಾರಿಸ್‌ ಹವಾಮಾನ ಒಪ್ಪಂದದಿಂದ ಹಿಂದೆ ಸರಿಯುತ್ತಿದೆ" ಎಂದು ಹೇಳಿದ ವಿಡಿಯೋ ಸಾಕಷ್ಟು ಅಲ್ಲೊಲ್ಲ ಕಲ್ಲೋಲ ಉಂಟು ಮಾಡಿತ್ತು. ಆದರೆ, ಅದು ಡೀಪ್‌ಫೇಕ್‌ನಿಂದ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೋ ಆಗಿತ್ತು. ಡೊನಾಲ್ಡ್‌ ಟ್ರಂಪ್‌ ಹೆಸರಲ್ಲಿ ಸೃಷ್ಟಿಯಾದಷ್ಟು ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋಗಳು ಇನ್ಯಾರ ಹೆಸರಲ್ಲಿ ಸೃಷ್ಟಿಯಾಗಿರಲಿಕ್ಕಿಲ್ಲ. ಇಂತಹ ನೂರಾರು ಉದಾಹರಣೆಗಳು ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ದೊರಕುತ್ತವೆ.

ಏನಿದು ಡೀಪ್‌ಫೇಕ್‌? ಇದು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ?

ಡಿಜಿಟಲ್‌ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ಎಂಬ ಪದವು ಹೊಸ ತಲ್ಲಣವನ್ನು ಉಂಟು ಮಾಡುತ್ತಿದೆ. ಆರ್ಟಿಫಿಶಿಯಲ್‌ ಇಂಟಲಿಜೆನ್ಸ್‌ ಅಥವಾ ಎಐ ಬಳಸಿ ಹೊಸ ವಿಡಿಯೋ ಅಥವಾ ಆಡಿಯೋ ರಚಿಸಲಾಗುತ್ತದೆ. ಆದರೆ, ಒಂದು ಘಟನೆ ನಡೆಯದೆ ಇದ್ದರೂ ಇಂತಹ ವಿಡಿಯೋ ಮತ್ತು ಆಡಿಯೋದಲ್ಲಿ ನಡೆದಂತೆ ತೋರಿಸಬಹುದು. ಪ್ರಧಾನಿ ಮೋದಿಯವರು ಏನೋ ಒಂದು ಹೇಳಿಕೆ ನೀಡದೆ ಇದ್ದರೂ ಅವರೇ ಹೇಳಿಕೆ ನೀಡಿದಂತೆ ಆಡಿಯೋ ಮತ್ತು ವಿಡಿಯೋವನ್ನುಈ ಎಐ ಮೂಲಕ ಸೃಷ್ಟಿಸಿಕೊಳ್ಳಬಹುದು.

ಈಗ ಯಂತ್ರಮಾನವ ಎಷ್ಟೇ ಅಭಿವೃದ್ಧಿಯಾಗಿದ್ದರೂ ನಾವು ಅದನ್ನು ಕೃತಕವೆಂದೇ ಪರಿಗಣಿಸುತ್ತೇವೆ. ಎಲ್ಲಾದರೂ ನಿಮಗೆ ಅದು ಯಂತ್ರಮಾನವ ಎಂದು ತಿಳಿಯದಂತೆ ಥೇಟ್‌ ಯಾರೋ ನಿಮ್ಮ ಸ್ನೇಹಿತರಂತೆ ಕಂಡರೆ ಹೇಗಿರುತ್ತದೆ. ಕಂಪ್ಯೂಟರ್‌ಗಳು ಈಗ ಶೇಕಡ 100ರಷ್ಟು ನೈಜವಾಗಿರುವಂತೆ ತೋರುವುದನ್ನು ಸೃಷ್ಟಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿವೆ. ನಿಮ್ಮ ಫೋಟೊವೊಂದನ್ನು ಸ್ಕ್ಯಾನ್‌ ಮಾಡಿ ನಿಮ್ಮದೇ ತದ್ರೂಪಿ ವ್ಯಕ್ತಿಯ ವಿಡಿಯೋವನ್ನು ಸೃಷ್ಟಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿದೆ. ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾದಲ್ಲಿ ನಿಮ್ಮ ಮಕ್ಕಳ ಫೋಟೊವನ್ನು ಬಳಸಿ ಹೊಸ ವ್ಯಕ್ತಿಯನ್ನೂ ಸೃಷ್ಟಿಸಬಹುದು. ಡೀಪ್‌ಫೇಕ್‌ ಎಐ ಎನ್ನುವುದು ಒಂದು ಬಗೆಯ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯಾಗಿದ್ದು, ಚಿತ್ರಗಳು, ಆಡಿಯೋ ಮತ್ತು ವಿಡಿಯೋ ಹೋಕ್ಸ್‌ಗಳನ್ನು ಸೃಷ್ಟಿಸುತ್ತದೆ. ಈಗ ಲಭ್ಯವಿರುವ ಕಂಟೆಂಟ್‌ ಬಳಸಿ ಅದೇ ರೀತಿಯ ಇನ್ನೊಂದು ಕಂಟೆಂಟ್‌ ಅನ್ನು ಬೇರೆಯ ಉದ್ದೇಶಕ್ಕೆ ಬಳಸಲಾಗುತ್ತದೆ. ನಿಮ್ಮ ಪಾಸ್‌ಪೋರ್ಟ್‌, ಬ್ಯಾಂಕ್‌ ಖಾತೆಯಲ್ಲಿ ದುರುಳರು ಇದನ್ನು ಬಳಸಿ ದುರ್ಬಳಕೆ ಮಾಡಬಹುದು. ಈ ಜಗತ್ತಿನಲ್ಲಿ ನೀವು ಅಪರಿಚಿತರಾಗಬಹುದು. ನಕಲಿ ರೂಪ ಈ ಭೂಮಿಯಲ್ಲಿ ನಿಮ್ಮ ಹೆಸರಿನಲ್ಲಿ ಜೀವಿಸಬಹುದು.

ನಕಲಿಗಳ ಲೋಕದಲ್ಲಿ ಆತಂಕ ಹುಟ್ಟಿಸುತ್ತಿದೆ ಡೀಪ್‌ಫೇಕ್‌, ಅಸಲಿಗಳೇ ಎಚ್ಚೆತ್ತುಕೊಳ್ಳಿ

ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಬಹುತೇಕ ಪೋರ್ನೊಗ್ರಫಿ ಕಂಟೆಂಟ್‌ಗಳು ಈ ರೀತಿಯ ಎಐ ತಂತ್ರಜ್ಞಾನದಿಂದ ಸೃಷ್ಟಿಯಾಗಿರುತ್ತವೆ ಎಂಬ ವಿಷಯ ತಿಳಿದರೆ ಬಹುತೇಕರಿಗೆ ಅಚ್ಚರಿಯಾಗಬಹುದು. ಡೀಪ್‌ಫೇಕ್‌ ಎನ್ನುವುದು ಅಶ್ಲೀಲ ವೆಬ್‌ಗಳಲ್ಲಿ ಹಲವು ವರ್ಷಗಳಿಂದ ಬಳಕೆಯಾಗುತ್ತಿದೆ. ಲೈವ್‌ ಕಾರ್ಯಕ್ರಮವೆಂದು ಇಂತಹ ಡೀಪ್‌ಫೇಕ್‌ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೋಗಳ ಮೂಲಕ, ಲೈವ್‌ ಕಾರ್ಯಕ್ರಮಗಳ ಜನರನ್ನು ದಾರಿತಪ್ಪಿಸಲಾಗುತ್ತಿತ್ತು. ಆದರೆ, ಅಲ್ಲಿ ರಿಯಲ್‌ ವ್ಯಕ್ತಿಗಳಂತೆ ಕಂಡ ನಟನಟಿಯರು ಎಐ ಸೃಷ್ಟಿಸಿದ ಮಖ ಮತ್ತು ದೇಹಗಳು ಆಗಿರುತ್ತವೆ. ಆದರೆ, ಅಲ್ಲಿ ನೋಡಿರುವ ಮುಖವು ಎಲ್ಲೋ ನೋಡಿರುವ ಮುಖ ಎಂದೆನಿಸಿದರೆ ಅದು ಯಾರದ್ದೋ ಮುಖವನ್ನು ಕಾಪಿ ಮಾಡಿ ಕೊಂಚ ವಯಸ್ಸು ಕಡಿಮೆ ಅಥವಾ ಹೆಚ್ಚು ಮಾಡಿ ಸೃಷ್ಟಿಸಿದ ಮುಖಗಳಾಗಿರುತ್ತವೆ.

ಈಗಾಗಲೇ ಫೇಕ್‌ ವಿಡಿಯೋ ಆಡಿಯೋಗಳ ಬಗ್ಗೆ ಜನರಿಗೆ ಗೊತ್ತಿದೆ. ಯಾವುದೋ ವಿಡಿಯೋಕ್ಕೆ ಯಾರದ್ದೋ ಮುಖವನ್ನು ಅಂಟಿಸುವುದು, ಧ್ವನಿ ಸೇರಿಸುವುದು ಇತ್ಯಾದಿ ಮಾಡಿ ನಕಲಿ ವಿಡಿಯೋ ಅಥವಾ ಆಡಿಯೋ ಸೃಷ್ಟಿಸಬಲ್ಲದು. ತುಂಬಾ ಆಳವಾಗಿ ಸ್ಟಡಿ ಮಾಡಿದರೆ ಅದು ಅಸಲಿಯೋ, ನಕಲಿಯೋ ಎಂದು ತಿಳಿಯುತ್ತದೆ. ಅಸಲಿಯೋ ನಕಲಿಯೋ ಎಂದು ತಿಳಿಯಲು ಸಾಧ್ಯವಿಲ್ಲದಂತೆ ಡೀಪ್‌ಫೇಕ್‌ನಲ್ಲಿ ವಿಡಿಯೋ ರಚಿಸಬಹುದು.

ಹಲವು ವಿಧಾನಗಳ ಮೂಲಕ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೋ ರಚಿಸಬಹುದು. ಸಾಮಾನ್ಯವಾಗಿ ಮುಖ ಬದಲಾಯಿಸುವ ಆಳವಾದ ನರ ಜಾಲಗಳನ್ನು ಬಳಸಲಾಗುತ್ತದೆ. ಅಂದರೆ ಡೀಪ್‌ ನ್ಯೂರಲ್‌ ನೆಟ್‌ವರ್ಕ್‌ ತಂತ್ರದ ಮೂಲಕ ಇಂತಹ ಚಿತ್ರಗಳನ್ನು ರಚಿಸಲಾಗುತ್ತದೆ. ಯಾವುದೋ ಸಿನಿಮಾದ ದೃಶ್ಯವೊಂದಕ್ಕೆ ನಾಯಕನ ಬದಲು ನಿಮ್ಮ ಮುಖವನ್ನು ಸೇರಿಸಬಹುದು. ವ್ಯಕ್ತಿಯ ಚಹರೆ, ವರ್ತನೆ ಎಲ್ಲವವನ್ನೂ ಈ ಪ್ರೋಗ್ರಾಂ ಕಂಡುಹಿಡಿದು ಹೊಸತನ್ನು ಸೃಷ್ಟಿಸುತ್ತದೆ. Zao, DeepFace Lab, FakeApp ಇತ್ಯಾದಿಗಳ ಮೂಲಕ ಇಂತಹ ಸಾಧ್ಯತೆ ತಿಳಿಯಬಹುದು. ಇನ್ನೂ ಸುಧಾರಿತ ತಂತ್ರಜ್ಞಾನಗಳು ಗಿತ್‌ಹಬ್‌ನಲ್ಲಿ ದೊರಕುತ್ತವೆ.

ನಕಲಿಗಳ ಲೋಕದಲ್ಲಿ ಆತಂಕ ಹುಟ್ಟಿಸುತ್ತಿದೆ ಡೀಪ್‌ಫೇಕ್‌, ಅಸಲಿಗಳೇ ಎಚ್ಚೆತ್ತುಕೊಳ್ಳಿ ಎಂದು ಹೇಳುವುದಷ್ಟೇ ಈ ಅಂಕಣದ ಉದ್ದೇಶ. ಅಂದಹಾಗೆ, ಡೀಪ್‌ಫೇಕ್‌ನಿಂದ ಸಾಕಷ್ಟು ಅನುಕೂಲತೆಗಳೂ ಇವೆ. ಜತೆಗೆ, ಇಂತಹ ವಿಡಿಯೋಗಳನ್ನು, ಆಡಿಯೋಗಳನ್ನು ಗುರುತಿಸಲು ದಾರಿಗಳಿವೆ. ಅವುಗಳ ಬಗ್ಗೆ ಮುಂದೊಂದು ದಿನ ಚರ್ಚಿಸೋಣ.

(ಪೂರಕ ಮಾಹಿತಿ: ಬಿಸ್ನೆಸ್‌ಇನ್‌ಸೈಡರ್‌, ಇಂಡಿಯಾಮ್ಯಾಟರ್ಸ್‌ ಮತ್ತು ಇತರೆ ಆನ್‌ಲೈನ್‌ ರಿಸರ್ಚ್‌)

ಡಿಜಿಟಲ್‌ ಜಗತ್ತು ಅಂಕಣ ಬರಹದ ಬಗ್ಗೆ ನಿಮ್ಮ ಅಭಿಪ್ರಾಯ, ಪ್ರತಿಕ್ರಿಯೆ, ಸಲಹೆಗಳಿಗೆ ಸ್ವಾಗತ. ಇಮೇಲ್: praveen.chandra@htdigital.in, ht.kannada@htdigital.in

Whats_app_banner