Deepfake: ಡಿಜಿಟಲ್ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್ಫೇಕ್ ತಲ್ಲಣ , ಆನ್ಲೈನ್ನಲ್ಲಿ ಮಕ್ಕಳ ಫೋಟೊ ಹಂಚಿಕೊಳ್ಳುವಿರಾ, ಗುರುತಿನ ದುರುಪಯೋಗದ ಆತಂಕ
Digital Jagathu: ಡಿಜಿಟಲ್ ಜಗತ್ತಿನಲ್ಲಿ ಈಗ ಆರ್ಟಿಫಿಶಿಯಲ್ ಇಂಟಲಿಜೆನ್ಸ್ ಸುದ್ದಿ ಮಾಡುತ್ತಿದೆ. ಎಐ ಪ್ರೇರಿತ ಡೀಪ್ಫೇಕ್ನಿಂದ (deepfake AI) ಏನೆಲ್ಲ ಅನಾಹುತಗಳಾಗಬಹುದು ಎಂಬ ಆತಂಕವೂ ಎದುರಾಗಿದೆ. ಸೋಷಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ನಮ್ಮ ಫೋಟೊ, ನಮ್ಮ ಮಕ್ಕಳ ಫೋಟೊವನ್ನು ದುರ್ಬಳಕೆ (identity abuse) ಮಾಡುವ ಆತಂಕವೂ ಹೆಚ್ಚಾಗಿದೆ.
ನಿಮಗೊಂದು ವಿಡಿಯೋ ಕಾಲ್ ಬರುತ್ತದೆ. ಅಲ್ಲಿ ನಿಮ್ಮ ಮಗಳು ಅಳುಮುಖದಲ್ಲಿ "ಅಮ್ಮಾ, ಪ್ಲೀಸ್ ಹೆಲ್ಪ್ ಮಾಡು, ನನ್ನ ಬ್ಯಾಗ್ ಕಳೆದುಹೋಗಿದೆ. ಪರ್ಸ್ ಎಟಿಎಂ ಕಳೆದುಹೋಗಿದೆ. ಆನ್ಲೈನ್ ಬ್ಯಾಂಕಿಂಗ್ ಲಾಕ್ ಆಗಿದೆ. ಅರ್ಜೆಂಟ್ ನಿನ್ನ ನೆಟ್ ಬ್ಯಾಂಕಿಂಗ್ ಲಾಗಿನ್ ಕೊಡು" ಎನ್ನುತ್ತಾಳೆ. ತಾನು ಯಾವುದೋ ಊರಿಗೆ ಹೋದವಳು ಅಲ್ಲೇ ಬಾಕಿಯಾಗಿದ್ದೇನೆ. ವಿಮಾನಕ್ಕೆ ಸಮಯವಾಗುತ್ತಿದೆʼʼ ಎನ್ನುತ್ತಿದ್ದಾಳೆ. ಅವಳ ಕಣ್ಣಲ್ಲಿ ಆತಂಕ ಕಂಡು ನೀವು ಕರಗುವಿರಿ. "ನಿಲ್ಲು ಮಗ, ಈಗ್ಲೇ ಕೊಡುವೆ" ಎಂದು ಹೇಳಿ ನಿಮ್ಮ ಯೂಸರ್ ನೇಮ್ ಮತ್ತು ಪಾಸ್ವರ್ಡ್ ಹೇಳುವಿರಿ. "ಥ್ಯಾಂಕ್ಸ್ ಅಮ್ಮ, ನನ್ನ ಮುದ್ದು ಅಮ್ಮ" ಎನ್ನುತ್ತಾಳೆ. ಬಾಯ್ ಹೇಳಿ ವಿಡಿಯೋ ಕಾಲ್ ಕಟ್ ಆಗುತ್ತದೆ.
ನೀವು ನಿಮ್ಮ ಕೆಲಸದಲ್ಲಿ ಮಗ್ನವಾಗುವಿರಿ. ಕೆಲವು ಗಂಟೆಗಳ ಕಾಲ ಕಳೆದಾಗ ವಿಡಿಯೋ ಕಾಲ್ ಬರುತ್ತದೆ. ಅಲ್ಲಿ ಮಗಳಿದ್ದಾಳೆ. "ಹಲೋ ಅಮ್ಮ, ಹೇಗಿದ್ದಿ, ಊಟ ಆಯ್ತ" ಪ್ರತಿನಿತ್ಯದಂತೆ ಕುಶಲೋಪರಿ ಮಾತನಾಡುತ್ತಾಳೆ. ನೀವು ಸ್ವಲ್ಪ ಮಾತನಾಡಿ, "ನಿನ್ನ ಸಮಸ್ಯೆ ಸಾಲ್ವ್ ಆಯ್ತ, ಮನೆಗೆ ತಲುಪಿದ್ಯಾ" ಎನ್ನುವಿರಿ. "ಅಮ್ಮ ನಿನಗೆ ಏನಾಗಿದೆ, ಇವತ್ತು ಬೆಳಗ್ಗಿನಿಂದಲೇ ಮನೆಯಲ್ಲಿಯೇ ಇದ್ದೇನೆ" ಎಂದಾಗ ನಿಮಗೆ ಕೋಪ ಬರುತ್ತದೆ. "ಅಲ್ಲ, ಆಗ ನೀನು ವಿಡಿಯೋ ಕಾಲ್ ಮಾಡಿ ಎಲ್ಲೋ ಸಿಕ್ಕಿ ಹಾಕಿಕೊಂಡಿದ್ದಿ ಅಂತ ಬ್ಯಾಂಕ್ ಡಿಟೇಲ್ಸ್ ಕೇಳಿದ್ದಿ" ಎಂದು ದಬಾಯಿಸುವಿರಿ. ನಿಮ್ಮ ಮಗಳಲ್ವಾ ಅವಳು, ನಿಮ್ಮಷ್ಟೇ ಕೋಪದಿಂದ "ಏನಾಗಿದೆ ಅಮ್ಮ ನಿನಗೆ" ಎಂದಾಗ ಬೆಳಗ್ಗೆ ಕಾಲ್ ಮಾಡಿದ ಘಟನೆಯನ್ನು ನೆನಪಿಸಿ ಆಕೆಗೆ ತಿಳಿಸುವ ಪ್ರಯತ್ನ ಮಾಡುವಿರಿ. "ನಿನಗೆ ನಿಜಕ್ಕೂ ಏನೋ ಆಗಿದೆ, ನಾನು ಕಾಲ್ ಮಾಡೇ ಇಲ್ಲ" ಅಂತಾಳೆ ಮಗಳು. "ಹಾಗಾದರೆ, ನಿನ್ನ ದೆವ್ವವ ಕಾಲ್ ಮಾಡಿದ್ದು?"......
ಏನೋ ನೆನಪಾಗಿ ನೀವು ನಿಮ್ಮ ಆನ್ಲೈನ್ ಬ್ಯಾಂಕ್ಗೆ ಲಾಗಿನ್ ಆಗುವಿರಿ. ಅಲ್ಲಿದ್ದ ಹತ್ತು ಹಲವು ಲಕ್ಷ ರೂಪಾಯಿ ಮಾಯವಾಗಿರುತ್ತದೆ. ಖಾತೆ ಝೀರೋ ಆಗಿರುತ್ತದೆ.
***
ಏನಿದು ಕಟ್ಟುಕತೆಯೋ, ನಿಜ ಕತೆಯೋ ಎಂದು ಕೇಳುವಿರಾ? ಇಲ್ಲಿ ಮೊದಲು ಕರೆ ಮಾಡಿದ್ದು ಡೀಪ್ಫೇಕ್ ಸೃಷ್ಟಿಸಿದ ಮಗಳ ತದ್ರೂಪಿ ಅವತಾರ ಎಂದುಕೊಳ್ಳಿ. ಎರಡನೆಯ ಬಾರಿಗೆ ಕಾಲ್ ಮಾಡಿದ್ದು ನಿಜವಾದ ಮಗಳು. ಇಬ್ಬರೂ ನೋಡಲು ಒಂದೇ ರೀತಿ, ಮಾತನಾಡುವ ರೀತಿನೀತಿಗಳೆಲ್ಲವೂ ಒಂದೇ. ಏಕೆ ಹೀಗಾಯ್ತು? ಏನಿದು ಹೊಸ ವಿಷಯ ಎಂದುಕೊಳ್ಳುವಿರಾ? ಡಿಜಿಟಲ್ ಜಗತ್ತಿನಲ್ಲಿ ಈಗ ಎಐ ಪ್ರೇರಿತ ಡೀಪ್ಫೇಕ್ ಆತಂಕ ಹುಟ್ಟಿಸುತ್ತಿದೆ.
ಮಕ್ಕಳ ಫೋಟೊವನ್ನು ಸೋಷಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ಹಂಚಿಕೊಳ್ಳಬಹುದೇ?
ಇತ್ತೀಚೆಗೆ ಡಾಯ್ಚ್ ಟೆಲಿಕಾಂನ ಜಾಹೀರಾತಿನಲ್ಲಿ ಎಐ ಯುವತಿ ಇಳಾ ಇಂತಹ ಒಂದು ಪ್ರಶ್ನೆಯನ್ನು ಹುಟ್ಟು ಹಾಕಿದ್ದಾಳೆ. ಡಾಯ್ಚ್ ಟೆಲಿಕಾಂ ಪ್ರಕಟಿಸಿದ A Message from Ella ಎಂಬ ಫ್ರಾಂಕ್ ಜಾಹೀರಾತಿನಲ್ಲಿ ಇಳಾ ಎಂಬ ಎಐ ಯುವತಿ ತನ್ನ ಫೋಟೊವನ್ನು ಹೇಗೆ ದುರುಪಯೋಗ ಮಾಡಿಕೊಳ್ಳಲಾಯಿತು ಎಂದು ಹೇಳಿ ಭೀತಿ ಹುಟ್ಟಿಸುತ್ತಾಳೆ. ಇಳಾ ಎಂಬ ನೈಜ ಯುವತಿ ಸಿನಿಮಾ ಥಿಯೇಟರ್ನಲ್ಲಿ ತನ್ನ ಹೆತ್ತವರೊಂದಿಗೆ ಸಿನಿಮಾ ನೋಡುತ್ತಿರುವ ಸಂದರ್ಭದಲ್ಲಿ ಆ ಸಿನಿಮಾ ಮಂದಿರದ ಸ್ಕ್ರೀನ್ ಮೇಲೆ ಈ ಎಐ ಇಳಾ ಕಾಣಿಸಿಕೊಳ್ಳುತ್ತಾಳೆ. ಹೇಗೆ ನನ್ನ ಐಡೆಂಟೆಟಿ ಅಬ್ಯೂಸ್ ಅಥವಾ ಗುರುತಿನ ದುರುಪಯೋಗವಾಯಿತು ಎಂದು ಹೇಳುತ್ತಾಳೆ. ಸೋಷಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ಪೋಷಕರು ಹಂಚಿಕೊಂಡ ತನ್ನ ಫೋಟೊವನ್ನು ದುರುಪಯೋಗಪಡಿಸಿಕೊಂಡು ಹೇಗೆ ಇಳಾ ಎಂಬ ನಕಲಿ ಇಐಯನ್ನು ಸೃಷ್ಟಿಸಲಾಯಿತು, ಈಕೆಯನ್ನು ನಕಲಿ ಅವತಾರ ಬಳಸಿಕೊಂಡು ಏನೆಲ್ಲ ಮಾಡಬಹುದು ಎಂದು ಈ ಜಾಹೀರಾತು ಎಚ್ಚರಿಸುತ್ತದೆ. ಮೊದಲಿಗೆ ಈ ಕೆಳಗೆ ನೀಡಲಾದ ವಿಡಿಯೋ ನೋಡಿ.
ಈ ರೀತಿ ಎಐ ಡೀಪ್ಫೆಕ್ ನಿಮ್ಮ ಮುಖವನ್ನು ನಕಲಿಸಿಕೊಂಡು ಸ್ವಂತ ಅಸ್ತಿತ್ವ ಸ್ಥಾಪಿಸಿಕೊಳ್ಳಬಹುದು. ನಿಮ್ಮ ಪಾಸ್ಬುಕ್, ಪಾಸ್ಪೋರ್ಟ್, ಬ್ಯಾಂಕ್ ಖಾತ ತಮ್ಮದಾಗಿಸಿಕೊಳ್ಳಹಬುದು. ಕ್ರೆಡಿಟ್ ಕಾರ್ಡ್ ರಚಿಸಿಕೊಂಡು ನಿಮ್ಮ ಹೆಸರಿನಲ್ಲಿ ಖರ್ಚು ಮಾಡಬಹುದು. ನಿಮ್ಮ ಪುಟ್ಟ ಮಗಳ ಧ್ವನಿಯನ್ನು ಎಐ ಅನುಕರಿಸಿ "ಅಮ್ಮ ಕಷ್ಟದಲ್ಲಿದ್ದೇನೆ ಅರ್ಜೆಂಟ್ ಹಣ ಕಳುಹಿಸಿ ಪ್ಲೀಸ್ಪ್ಲೀಸ್ ಎಂದು ಅಳಬಹುದು. ನೀವು ಹಣ ಕಳುಹಿಸಬಹುದು. ಡಿಜಿಟಲ್ ಫೂಟ್ಪ್ರಿಂಟ್ ಎಂದು ನಾವು ಸೋಷಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ಹಂಚಿಕೊಳ್ಳುವ ನಮ್ಮ ಮಕ್ಕಳ ಫೋಟೊದ ದುರ್ಬಳಕೆಯಾಗಬಹುದು.
ಭಾರತದಲ್ಲಿ ಡೀಪ್ಫೇಕ್ ಎಐ ತಂತ್ರಜ್ಞಾನ
ಡೀಪ್ಫೇಕ್ ಬಗ್ಗೆ ಭಯಪಡಬೇಕಾಗಿಲ್ಲ ಎಂದುಕೊಂಡಿರಾ? ಭಾರತಕ್ಕೆ ಇಂತಹದ್ದೆಲ್ಲ ಬರೋಲ್ಲ ಅಂದುಕೊಂಡಿರಾ, ಡೀಪ್ಫೇಕ್ ಈಗಾಗಲೇ ಭಾರತಕ್ಕೆ ಬಂದಾಗಿದೆ. ಉದಾಹರಣೆ ಬೇಕೆ? ವಿವಿಧ ರೀತಿಯಲ್ಲಿ ಈ ತಂತ್ರಜ್ಞಾನವನ್ನು ಜಾಹೀರಾತು, ಮಾಧ್ಯಮ, ಸಿನಿಮಾ, ಮಾರ್ಕೆಟಿಂಗ್ ಜಗತ್ತು ವಿವಿಧ ರೀತಿಯಲ್ಲಿ ಬಳಸಿಕೊಳ್ಳುತ್ತಿವೆ. ಇದೇ ಸಮಯದಲ್ಲಿ ರಾಜಕೀಯ ಪ್ರಚಾರ, ರಾಜಕೀಯ ವಿವಾದಕ್ಕೆ, ಸಂಘರ್ಷಕ್ಕೂ ಇಂತಹ ತಂತ್ರ
ಹೃತಿಕ್ ರೋಷನ್ ಅವರು ಕಳೆದ ವರ್ಷ ಝೊಮೆಟೊ ಜಾಹೀರಾತಿನ ವಿಷಯವೊಂದಕ್ಕೆ ಸಂಬಂಧಪಟ್ಟಂತೆ ಸುದ್ದಿಯಲ್ಲಿದ್ದರು. ಆ ಜಾಹೀರಾತಿನಲ್ಲಿ "ನನಗೆ ಉಜ್ಜಯಿನಿಯ ಥಾಲಿ ತಿನ್ನಬೇಕೆನಿಸುತ್ತದೆ, ಹೀಗಾಗಿ ನಾನು ಮಾಹಾಕಾಳದಿಂದ ಆರ್ಡರ್ ಮಾಡುತ್ತಿದ್ದೇನೆ" ಎಂದು ಅವರು ಹೇಳಿಕೆ ನೀಡಿದ್ದರು. ಈ ಸುದ್ದಿಯನ್ನು ನೆನಪಿಸಿಕೊಳ್ಳಿ. ಇದರಿಂದ ಹಿಂದುಗಳ ಭಾವನೆಗೆ ಧಕ್ಕೆಯಾಗಿದೆ ಎಂದು ವಿವಾದ ಉಂಟಾಗಿತ್ತು. ಅಸಲಿಗೆ ಹೃತಿಕ್ ರೋಷನ್ಗೆ ಈ ವಿಡಿಯೋದ ಕುರಿತು ಸ್ಪಷ್ಟ ಅರಿವು ಇರಲಿಲ್ಲ. ಝೊಮೆಟೊ ದೇಶಾದ್ಯಂತ ಇದೇ ಜಾಹೀರಾತನ್ನು ವಿವಿಧ ರೀತಿಯಲ್ಲಿ ತೋರಿಸುತ್ತದೆ. ಕರ್ನಾಟಕದ ನೋಡುಗರಿಗೆ ಈ ವಿಡಿಯೋದಲ್ಲಿ "ನನಗೆ ದರ್ಶಿನಿಯ ಮಸಾಲೆ ದೋಸೆ ತಿನ್ನಬೇಕು ಎಂದೆನಿಸುತ್ತದೆ" ಎಂದು ಹೇಳಬಹುದು. ಇದು ಎಐ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೋ ಮತ್ತು ಆಡಿಯೋ.
ಇದೇ ರೀತಿ ಸನ್ಮಾನ್ ಖಾನ್ ಅವರ ಕ್ಯಾಡ್ಬರಿ ಜಾಹೀರಾತು ಕೂಡ ಇರುತ್ತದೆ. ಈ ರೂಪದರ್ಶಿಗಳ ಅನುಮತಿಯೊಂದಿಗೆ ಇವರ ಧ್ವನಿ, ಮುಖದ ಹಾವಭಾವವನ್ನು ಕಾಪಿ ಮಾಡಿ ಎಐ ತಂತ್ರಜ್ಞಾನಕ್ಕೆ ನೀಡಲಾಗುತ್ತದೆ. ಬಳಿಕ ಆ ಎಐ ತಂತ್ರಜ್ಞಾನ ಇವರ ಹೆಸರು, ರೂಪ, ಧ್ವನಿಯಲ್ಲಿ ಇಂತಹ ಜಾಹೀರಾತುಗಳನ್ನು ಸೃಷ್ಟಿಸುತ್ತದೆ. ಇಲ್ಲಿ ಈ ನಟರಿಗೆ ಇಂತಹ ಜಾಹೀರಾತುಗಳಲ್ಲಿ ನಟಿಸುವ ಸಮಯದ ಉಳಿತಾಯವಾಗುತ್ತದೆ. ಶೂಟಿಂಗ್ ವೆಚ್ಚವೂ ಕಡಿಮೆಯಾಗುತ್ತದೆ.
ಡೀಪ್ಫೇಕ್: ಕೆಲವು ಉದಾಹರಣೆಗಳು
- - 2020ರಲ್ಲಿ ದೆಹಲಿ ಅಸೆಂಬ್ಲಿ ಚುನಾವಣೆ ಸಂದರ್ಭದಲ್ಲಿ ಬಿಜೆಪಿಯು ಡೀಪ್ಫೇಕ್ ತಂತ್ರಜ್ಞಾನ ಬಳಸಿಕೊಂಡಿತ್ತು. ಬಿಜೆಪಿ ನಾಯಕ ಮನೋಜ್ ತಿವಾರಿಯವರು ಎರಡು ಬೇರೆಬೇರೆ ಭಾಷೆಯಲ್ಲಿ ಮಾತನಾಡುವ ವಿಡಿಯೋವನ್ನು ಸೃಷ್ಟಿಸಿ ವಿವಿಧ ಭಾಷೆಯ ಜನರನ್ನು ಸೆಳೆಯಲು ಯತ್ನಿಸಲಾಗಿತ್ತು. ಒಂದು ವಿಡಿಯೋದಲ್ಲಿ ತಿವಾರಿ Haryanvi ಭಾಷೆಯಲ್ಲಿ ಮಾತನಾಡುತ್ತಾರೆ. ಇನ್ನೊಂದು ವಿಡಿಯೋದಲ್ಲಿ ಹಿಂದಿಯಲ್ಲಿ ಮಾತನಾಡುತ್ತಾರೆ. ಅದು ಎಐ ಡೀಪ್ಫೇಕ್ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೋ ಆಗಿತ್ತು. ಎರಡು ವಿಡಿಯೋ ಕೂಡ ಇವರು ನೈಜ್ಯವಾಗಿ ಮಾತನಾಡಿದಂತೆ ಇತ್ತು.
- - 2022ರಲ್ಲಿ ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋವೊಂದರಲ್ಲಿ ಉಕ್ರೇನ್ ಅಧ್ಯಕ್ಷ ಝೆಲೆನ್ಸ್ಕಿ ಅವರು ತನ್ನ ಸೇನೆಗೆ ರಷ್ಯಾಕ್ಕೆ ಶರಣಾಗುವಂತೆ ತಿಳಿಸಿದ್ದರು. ಈ ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋ ನಂಬಿ ಸೈನಿಕರು ಶರಣಾಗಿದ್ದರೆ ಏನಾಗುತ್ತಿತ್ತು?
- - ಪ್ರಧಾನಿ ನರೇಂದ್ರ ಮೋದಿಯವರ ಹಲವು ನಕಲಿ ವಿಡಿಯೋ ಆಡಿಯೋಗಳು ಡಿಜಿಟಲ್ ಮೀಡಿಯಾದಲ್ಲಿದೆ. "ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋ ನರೇಂದ್ರ ಮೋದಿ" ಎಂದು ಗೂಗಲ್ನಲ್ಲಿ ಹುಡುಕಿ ನೋಡಿ.
- - ನ್ಯೂಯಾರ್ಕ್ನ ವಿದ್ಯಾರ್ಥಿಗಳು ತಮ್ಮ ಪ್ರಿನ್ಸಿಪಾಲ್ ಅವರ ವಿಡಿಯೋವೊಂದನ್ನು ಹಂಚಿಕೊಂಡಿದ್ದರು. ಆ ವಿಡಿಯೋದಲ್ಲಿ ಪ್ರಿನ್ಸಿಪಾಲ್ ಜನಾಂಗಿಯ ನಿಂದನೆಯ ಹೇಳಿಕೆ ನೀಡುವ ಕ್ಲಿಪ್ ಇತ್ತು. ನಿಜ ಏನೆಂದರೆ, ಪ್ರಿನ್ಸಿಪಾಲ್ ಅಂತಹ ಹೇಳಿಕೆ ನೀಡಿರಲಿಲ್ಲ. ನ್ಯೂಯಾರ್ಕ್ನ ವಿದ್ಯಾರ್ಥಿಗಳ ಗುಂಪೊಂದು ಇದನ್ನು ಸೃಷ್ಟಿ ಮಾಡಿತ್ತು.
- - ರಾಜಕೀಯಕ್ಕೂ ಡೀಪ್ಫೇಕ್ ಬಳಕೆ ಹೆಚ್ಚಾಗುತ್ತಿದೆ. 2018ರಲ್ಲಿ ಡೊನಾಲ್ಡ್ ಟ್ರಂಪ್ ಅವರು "ಬೆಲ್ಜಿಯಂ ದೇಶವು ಪ್ಯಾರಿಸ್ ಹವಾಮಾನ ಒಪ್ಪಂದದಿಂದ ಹಿಂದೆ ಸರಿಯುತ್ತಿದೆ" ಎಂದು ಹೇಳಿದ ವಿಡಿಯೋ ಸಾಕಷ್ಟು ಅಲ್ಲೊಲ್ಲ ಕಲ್ಲೋಲ ಉಂಟು ಮಾಡಿತ್ತು. ಆದರೆ, ಅದು ಡೀಪ್ಫೇಕ್ನಿಂದ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೋ ಆಗಿತ್ತು. ಡೊನಾಲ್ಡ್ ಟ್ರಂಪ್ ಹೆಸರಲ್ಲಿ ಸೃಷ್ಟಿಯಾದಷ್ಟು ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋಗಳು ಇನ್ಯಾರ ಹೆಸರಲ್ಲಿ ಸೃಷ್ಟಿಯಾಗಿರಲಿಕ್ಕಿಲ್ಲ. ಇಂತಹ ನೂರಾರು ಉದಾಹರಣೆಗಳು ಡಿಜಿಟಲ್ ಜಗತ್ತಿನಲ್ಲಿ ದೊರಕುತ್ತವೆ.
ಏನಿದು ಡೀಪ್ಫೇಕ್? ಇದು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ?
ಡಿಜಿಟಲ್ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್ಫೇಕ್ ಎಂಬ ಪದವು ಹೊಸ ತಲ್ಲಣವನ್ನು ಉಂಟು ಮಾಡುತ್ತಿದೆ. ಆರ್ಟಿಫಿಶಿಯಲ್ ಇಂಟಲಿಜೆನ್ಸ್ ಅಥವಾ ಎಐ ಬಳಸಿ ಹೊಸ ವಿಡಿಯೋ ಅಥವಾ ಆಡಿಯೋ ರಚಿಸಲಾಗುತ್ತದೆ. ಆದರೆ, ಒಂದು ಘಟನೆ ನಡೆಯದೆ ಇದ್ದರೂ ಇಂತಹ ವಿಡಿಯೋ ಮತ್ತು ಆಡಿಯೋದಲ್ಲಿ ನಡೆದಂತೆ ತೋರಿಸಬಹುದು. ಪ್ರಧಾನಿ ಮೋದಿಯವರು ಏನೋ ಒಂದು ಹೇಳಿಕೆ ನೀಡದೆ ಇದ್ದರೂ ಅವರೇ ಹೇಳಿಕೆ ನೀಡಿದಂತೆ ಆಡಿಯೋ ಮತ್ತು ವಿಡಿಯೋವನ್ನುಈ ಎಐ ಮೂಲಕ ಸೃಷ್ಟಿಸಿಕೊಳ್ಳಬಹುದು.
ಈಗ ಯಂತ್ರಮಾನವ ಎಷ್ಟೇ ಅಭಿವೃದ್ಧಿಯಾಗಿದ್ದರೂ ನಾವು ಅದನ್ನು ಕೃತಕವೆಂದೇ ಪರಿಗಣಿಸುತ್ತೇವೆ. ಎಲ್ಲಾದರೂ ನಿಮಗೆ ಅದು ಯಂತ್ರಮಾನವ ಎಂದು ತಿಳಿಯದಂತೆ ಥೇಟ್ ಯಾರೋ ನಿಮ್ಮ ಸ್ನೇಹಿತರಂತೆ ಕಂಡರೆ ಹೇಗಿರುತ್ತದೆ. ಕಂಪ್ಯೂಟರ್ಗಳು ಈಗ ಶೇಕಡ 100ರಷ್ಟು ನೈಜವಾಗಿರುವಂತೆ ತೋರುವುದನ್ನು ಸೃಷ್ಟಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿವೆ. ನಿಮ್ಮ ಫೋಟೊವೊಂದನ್ನು ಸ್ಕ್ಯಾನ್ ಮಾಡಿ ನಿಮ್ಮದೇ ತದ್ರೂಪಿ ವ್ಯಕ್ತಿಯ ವಿಡಿಯೋವನ್ನು ಸೃಷ್ಟಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿದೆ. ಸೋಷಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ನಿಮ್ಮ ಮಕ್ಕಳ ಫೋಟೊವನ್ನು ಬಳಸಿ ಹೊಸ ವ್ಯಕ್ತಿಯನ್ನೂ ಸೃಷ್ಟಿಸಬಹುದು. ಡೀಪ್ಫೇಕ್ ಎಐ ಎನ್ನುವುದು ಒಂದು ಬಗೆಯ ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯಾಗಿದ್ದು, ಚಿತ್ರಗಳು, ಆಡಿಯೋ ಮತ್ತು ವಿಡಿಯೋ ಹೋಕ್ಸ್ಗಳನ್ನು ಸೃಷ್ಟಿಸುತ್ತದೆ. ಈಗ ಲಭ್ಯವಿರುವ ಕಂಟೆಂಟ್ ಬಳಸಿ ಅದೇ ರೀತಿಯ ಇನ್ನೊಂದು ಕಂಟೆಂಟ್ ಅನ್ನು ಬೇರೆಯ ಉದ್ದೇಶಕ್ಕೆ ಬಳಸಲಾಗುತ್ತದೆ. ನಿಮ್ಮ ಪಾಸ್ಪೋರ್ಟ್, ಬ್ಯಾಂಕ್ ಖಾತೆಯಲ್ಲಿ ದುರುಳರು ಇದನ್ನು ಬಳಸಿ ದುರ್ಬಳಕೆ ಮಾಡಬಹುದು. ಈ ಜಗತ್ತಿನಲ್ಲಿ ನೀವು ಅಪರಿಚಿತರಾಗಬಹುದು. ನಕಲಿ ರೂಪ ಈ ಭೂಮಿಯಲ್ಲಿ ನಿಮ್ಮ ಹೆಸರಿನಲ್ಲಿ ಜೀವಿಸಬಹುದು.
ನಕಲಿಗಳ ಲೋಕದಲ್ಲಿ ಆತಂಕ ಹುಟ್ಟಿಸುತ್ತಿದೆ ಡೀಪ್ಫೇಕ್, ಅಸಲಿಗಳೇ ಎಚ್ಚೆತ್ತುಕೊಳ್ಳಿ
ಆನ್ಲೈನ್ನಲ್ಲಿ ಬಹುತೇಕ ಪೋರ್ನೊಗ್ರಫಿ ಕಂಟೆಂಟ್ಗಳು ಈ ರೀತಿಯ ಎಐ ತಂತ್ರಜ್ಞಾನದಿಂದ ಸೃಷ್ಟಿಯಾಗಿರುತ್ತವೆ ಎಂಬ ವಿಷಯ ತಿಳಿದರೆ ಬಹುತೇಕರಿಗೆ ಅಚ್ಚರಿಯಾಗಬಹುದು. ಡೀಪ್ಫೇಕ್ ಎನ್ನುವುದು ಅಶ್ಲೀಲ ವೆಬ್ಗಳಲ್ಲಿ ಹಲವು ವರ್ಷಗಳಿಂದ ಬಳಕೆಯಾಗುತ್ತಿದೆ. ಲೈವ್ ಕಾರ್ಯಕ್ರಮವೆಂದು ಇಂತಹ ಡೀಪ್ಫೇಕ್ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೋಗಳ ಮೂಲಕ, ಲೈವ್ ಕಾರ್ಯಕ್ರಮಗಳ ಜನರನ್ನು ದಾರಿತಪ್ಪಿಸಲಾಗುತ್ತಿತ್ತು. ಆದರೆ, ಅಲ್ಲಿ ರಿಯಲ್ ವ್ಯಕ್ತಿಗಳಂತೆ ಕಂಡ ನಟನಟಿಯರು ಎಐ ಸೃಷ್ಟಿಸಿದ ಮಖ ಮತ್ತು ದೇಹಗಳು ಆಗಿರುತ್ತವೆ. ಆದರೆ, ಅಲ್ಲಿ ನೋಡಿರುವ ಮುಖವು ಎಲ್ಲೋ ನೋಡಿರುವ ಮುಖ ಎಂದೆನಿಸಿದರೆ ಅದು ಯಾರದ್ದೋ ಮುಖವನ್ನು ಕಾಪಿ ಮಾಡಿ ಕೊಂಚ ವಯಸ್ಸು ಕಡಿಮೆ ಅಥವಾ ಹೆಚ್ಚು ಮಾಡಿ ಸೃಷ್ಟಿಸಿದ ಮುಖಗಳಾಗಿರುತ್ತವೆ.
ಈಗಾಗಲೇ ಫೇಕ್ ವಿಡಿಯೋ ಆಡಿಯೋಗಳ ಬಗ್ಗೆ ಜನರಿಗೆ ಗೊತ್ತಿದೆ. ಯಾವುದೋ ವಿಡಿಯೋಕ್ಕೆ ಯಾರದ್ದೋ ಮುಖವನ್ನು ಅಂಟಿಸುವುದು, ಧ್ವನಿ ಸೇರಿಸುವುದು ಇತ್ಯಾದಿ ಮಾಡಿ ನಕಲಿ ವಿಡಿಯೋ ಅಥವಾ ಆಡಿಯೋ ಸೃಷ್ಟಿಸಬಲ್ಲದು. ತುಂಬಾ ಆಳವಾಗಿ ಸ್ಟಡಿ ಮಾಡಿದರೆ ಅದು ಅಸಲಿಯೋ, ನಕಲಿಯೋ ಎಂದು ತಿಳಿಯುತ್ತದೆ. ಅಸಲಿಯೋ ನಕಲಿಯೋ ಎಂದು ತಿಳಿಯಲು ಸಾಧ್ಯವಿಲ್ಲದಂತೆ ಡೀಪ್ಫೇಕ್ನಲ್ಲಿ ವಿಡಿಯೋ ರಚಿಸಬಹುದು.
ಹಲವು ವಿಧಾನಗಳ ಮೂಲಕ ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋ ರಚಿಸಬಹುದು. ಸಾಮಾನ್ಯವಾಗಿ ಮುಖ ಬದಲಾಯಿಸುವ ಆಳವಾದ ನರ ಜಾಲಗಳನ್ನು ಬಳಸಲಾಗುತ್ತದೆ. ಅಂದರೆ ಡೀಪ್ ನ್ಯೂರಲ್ ನೆಟ್ವರ್ಕ್ ತಂತ್ರದ ಮೂಲಕ ಇಂತಹ ಚಿತ್ರಗಳನ್ನು ರಚಿಸಲಾಗುತ್ತದೆ. ಯಾವುದೋ ಸಿನಿಮಾದ ದೃಶ್ಯವೊಂದಕ್ಕೆ ನಾಯಕನ ಬದಲು ನಿಮ್ಮ ಮುಖವನ್ನು ಸೇರಿಸಬಹುದು. ವ್ಯಕ್ತಿಯ ಚಹರೆ, ವರ್ತನೆ ಎಲ್ಲವವನ್ನೂ ಈ ಪ್ರೋಗ್ರಾಂ ಕಂಡುಹಿಡಿದು ಹೊಸತನ್ನು ಸೃಷ್ಟಿಸುತ್ತದೆ. Zao, DeepFace Lab, FakeApp ಇತ್ಯಾದಿಗಳ ಮೂಲಕ ಇಂತಹ ಸಾಧ್ಯತೆ ತಿಳಿಯಬಹುದು. ಇನ್ನೂ ಸುಧಾರಿತ ತಂತ್ರಜ್ಞಾನಗಳು ಗಿತ್ಹಬ್ನಲ್ಲಿ ದೊರಕುತ್ತವೆ.
ನಕಲಿಗಳ ಲೋಕದಲ್ಲಿ ಆತಂಕ ಹುಟ್ಟಿಸುತ್ತಿದೆ ಡೀಪ್ಫೇಕ್, ಅಸಲಿಗಳೇ ಎಚ್ಚೆತ್ತುಕೊಳ್ಳಿ ಎಂದು ಹೇಳುವುದಷ್ಟೇ ಈ ಅಂಕಣದ ಉದ್ದೇಶ. ಅಂದಹಾಗೆ, ಡೀಪ್ಫೇಕ್ನಿಂದ ಸಾಕಷ್ಟು ಅನುಕೂಲತೆಗಳೂ ಇವೆ. ಜತೆಗೆ, ಇಂತಹ ವಿಡಿಯೋಗಳನ್ನು, ಆಡಿಯೋಗಳನ್ನು ಗುರುತಿಸಲು ದಾರಿಗಳಿವೆ. ಅವುಗಳ ಬಗ್ಗೆ ಮುಂದೊಂದು ದಿನ ಚರ್ಚಿಸೋಣ.
(ಪೂರಕ ಮಾಹಿತಿ: ಬಿಸ್ನೆಸ್ಇನ್ಸೈಡರ್, ಇಂಡಿಯಾಮ್ಯಾಟರ್ಸ್ ಮತ್ತು ಇತರೆ ಆನ್ಲೈನ್ ರಿಸರ್ಚ್)
ಡಿಜಿಟಲ್ ಜಗತ್ತು ಅಂಕಣ ಬರಹದ ಬಗ್ಗೆ ನಿಮ್ಮ ಅಭಿಪ್ರಾಯ, ಪ್ರತಿಕ್ರಿಯೆ, ಸಲಹೆಗಳಿಗೆ ಸ್ವಾಗತ. ಇಮೇಲ್: praveen.chandra@htdigital.in, ht.kannada@htdigital.in