AI Deepfake: ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಡೀಪ್ ಫೇಕ್ ವಿಡಿಯೋ ವೈರಲ್; ಆತಂಕ ವ್ಯಕ್ತಪಡಿಸಿದ ಅಮಿತಾಬ್ ಬಚ್ಚನ್, ಎರಡೂ ವಿಡಿಯೋ ಇಲ್ಲಿದೆ ನೋಡಿ
Rashmika Mandana AI deepfake video Viral: ನಟಿ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣರ ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋವೊಂದು ವೈರಲ್ ಆಗಿದೆ. ಎಲೆವೇಟರ್ಗೆ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಪ್ರವೇಶಿಸುವ ವಿಡಿಯೋವು ಒರಿಜಿನಲ್ ಅಲ್ಲ, ಅದು ಡೀಫ್ಫೇಕ್ ತಂತ್ರಜ್ಞಾನದಿಂದ ತಯಾರಿಸಿದ ವಿಡಿಯೋವಾಗಿದೆ. ಈ ವಿಡಿಯೋದ ಕುರಿತು ಎಲ್ಲರೂ ಆತಂಕ ವ್ಯಕ್ತಪಡಿಸಿದ್ದಾರೆ.
ಬೆಂಗಳೂರು: ನಟಿ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣರ ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋವೊಂದು ವೈರಲ್ ಆಗಿದೆ. ಎಲೆವೇಟರ್ಗೆ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಪ್ರವೇಶಿಸುವ ವಿಡಿಯೋವು ಒರಿಜಿನಲ್ ಅಲ್ಲ, ಅದು ಡೀಫ್ಫೇಕ್ ತಂತ್ರಜ್ಞಾನದಿಂದ ತಯಾರಿಸಿದ ವಿಡಿಯೋವಾಗಿದೆ. ಅಮಿತಾಬ್ ಬಚ್ಚನ್ ಸೇರಿದಂತೆ ಸಾಕಷ್ಟು ಸೆಲೆಬ್ರಿಟಿಗಳು ಈ ವಿಡಿಯೋದ ಕುರಿತು ಆಘಾತ ವ್ಯಕ್ತಪಡಿಸಿದ್ದಾರೆ. ಈ ವಿಡಿಯೋ ತಯಾರಿಸಿರುವವರ ವಿರುದ್ಧ ಕಾನೂನು ಕ್ರಮ ಕೈಗೊಳ್ಳುವಂತೆ ತಿಳಿಸಿದ್ದಾರೆ.
ವಿಡಿಯೋದಲ್ಲಿ ಏನಿದೆ?
ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಅವರು ಎಲೆವೆಟರ್ ಪ್ರವೇಶಿಸುವ ವಿಡಿಯೋ ಇದಾಗಿದೆ. ಆದರೆ, ಈ ವಿಡಿಯೋ ಒರಿಜಿನಲ್ ಅಲ್ಲ. ಝರಾ ಪಾಟೀಲ್ ಎಂಬ ಬ್ರಿಟಿಷ್ ಭಾರತೀಯ ಮಹಿಳೆಯು ಇನ್ಸ್ಟಾಗ್ರಾಂನಲ್ಲಿ ಹಂಚಿಕೊಂಡ ವಿಡಿಯೋದ ಆರ್ಟಿಫಿಶಿಯಲ್ ಇಂಟಲಿಜೆನ್ಸ್ ಡೀಫ್ ಫೇಕ್ ಆವೃತ್ತಿಯಾಗಿದೆ. ಝರಾ ಖಾನ್ ಅವರ ಮುಖದ ಬದಲು ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಮುಖವನ್ನು ಈ ವಿಡಿಯೋದಲ್ಲಿ ಜೋಡಿಸಲಾಗಿದೆ.
"ಈ ವಿಡಿಯೋದ ಕುರಿತು ಕಾನೂನು ಕ್ರಮ ಕೈಗೊಳ್ಳುವ ತುರ್ತು ಇದೆ. ನಾವು ಈಗ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣರ ವೈರಲ್ ವಿಡಿಯೋ ನೋಡುತ್ತಿದ್ದೇವೆ. ಆದರೆ, ಅದು ಝರಾ ಪಾಟೇಲ್ ಅವರ ವಿಡಿಯೋದ ಡೀಪ್ಫೇಕ್ ಆವೃತ್ತಿಯಾಗಿದೆ." ಎಂದು ಅಭಿಷೇಕ್ ಎಂಬವರು ಅಭಿಪ್ರಾಯಪಟ್ಟಿದ್ದಾರೆ.
ಡೀಪ್ಫೇಕ್ ವಿಡಿಯೋ: ಕಾನೂನು ಕ್ರಮ ಕೈಗೊಳ್ಳಲು ಅಮಿತಾಬ್ ಬಚ್ಚನ್ ಆಗ್ರಹ
ರಶ್ಮಿಕಾ ಮಂದಣ್ಣರ ವಿಡಿಯೋವನ್ನು ಡೀಪ್ಫೇಕ್ ಮೂಲಕ ಸೃಷ್ಟಿಸಿರುವುದರ ಕುರಿತು ಅಮಿತಾಬ್ ಬಚ್ಚನ್ ಆಕ್ರೋಶ ವ್ಯಕ್ತಪಡಿಸಿದ್ದಾರೆ. ಇದಕ್ಕೆ ಕಾನೂನಿನಡಿ ಕಠಿಣ ಕ್ರಮ ಕೈಗೊಳ್ಳಬೇಕು ಎಂದು ಅವರು ಹೇಳಿದ್ದಾರೆ.
ರಶ್ಮಿಕಾ ಮಂದಣ್ಣರ ಮುಖದ ಡೀಫ್ಪೇಕ್ ವಿಡಿಯೋ
ಝರಾ ಖಾನ್ರ ಮೂಲ ವಿಡಿಯೋ
ಡೀಪ್ಫೇಕ್ನಿಂದ ಧ್ವನಿಯನ್ನು ನಕಲಿ ಮಾಡುವ ಆತಂಕ ಹೆಚ್ಚಾಗಿತ್ತು. ಇದೀಗ ವಿಡಿಯೋವನ್ನೇ ಬದಲಾಯಿಸಬಹುದು ಎಂಬ ಆತಂಕ ಹೆಚ್ಚಾಗಿದೆ. ಇದರಿಂದ ಸೋಷಿಯಲ್ ಮೀಡಿಯಾಲದಲ್ಲಿರುವ ನಮ್ಮ ವಿಡಿಯೋಗಳು ಇನ್ಯಾರದೋ ವಿಡಿಯೋಗಳಾಗಿ ಬದಲಾಗಬಹುದು. ಇದನ್ನು ಸೈಬರ್ ಕ್ರಿಮಿನಲ್ಗಳು ತಮಗೆ ಬೇಕಾದಂತೆ ಬಳಸಿಕೊಳ್ಳಬಹುದು ಎನ್ನುವ ಆತಂಕವಿದೆ.
ಏನಿದು ಡೀಪ್ಫೇಕ್? ಇದು ಹೇಗೆ ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತದೆ?
ಡಿಜಿಟಲ್ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್ಫೇಕ್ ಎಂಬ ಪದವು ಹೊಸ ತಲ್ಲಣವನ್ನು ಉಂಟು ಮಾಡುತ್ತಿದೆ. ಆರ್ಟಿಫಿಶಿಯಲ್ ಇಂಟಲಿಜೆನ್ಸ್ ಅಥವಾ ಎಐ ಬಳಸಿ ಹೊಸ ವಿಡಿಯೋ ಅಥವಾ ಆಡಿಯೋ ರಚಿಸಲಾಗುತ್ತದೆ. ಆದರೆ, ಒಂದು ಘಟನೆ ನಡೆಯದೆ ಇದ್ದರೂ ಇಂತಹ ವಿಡಿಯೋ ಮತ್ತು ಆಡಿಯೋದಲ್ಲಿ ನಡೆದಂತೆ ತೋರಿಸಬಹುದು. ಇದೀಗ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಅವರಿಗೆ ಸಂಬಂಧಪಡದ ದೃಶ್ಯವೊಂದರಲ್ಲಿ ಅವರ ಮುಖ ಕಾಣಿಸಿಕೊಂಡು ವೈರಲ್ ಆಗಿದೆ.
ಈಗ ಯಂತ್ರಮಾನವ ಎಷ್ಟೇ ಅಭಿವೃದ್ಧಿಯಾಗಿದ್ದರೂ ನಾವು ಅದನ್ನು ಕೃತಕವೆಂದೇ ಪರಿಗಣಿಸುತ್ತೇವೆ. ಎಲ್ಲಾದರೂ ನಿಮಗೆ ಅದು ಯಂತ್ರಮಾನವ ಎಂದು ತಿಳಿಯದಂತೆ ಥೇಟ್ ಯಾರೋ ನಿಮ್ಮ ಸ್ನೇಹಿತರಂತೆ ಕಂಡರೆ ಹೇಗಿರುತ್ತದೆ. ಕಂಪ್ಯೂಟರ್ಗಳು ಈಗ ಶೇಕಡ 100ರಷ್ಟು ನೈಜವಾಗಿರುವಂತೆ ತೋರುವುದನ್ನು ಸೃಷ್ಟಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿವೆ.
ನಿಮ್ಮ ಫೋಟೊವೊಂದನ್ನು ಸ್ಕ್ಯಾನ್ ಮಾಡಿ ನಿಮ್ಮದೇ ತದ್ರೂಪಿ ವ್ಯಕ್ತಿಯ ವಿಡಿಯೋವನ್ನು ಸೃಷ್ಟಿಸುವ ಸಾಮರ್ಥ್ಯ ಹೊಂದಿದೆ. ಸೋಷಿಯಲ್ ಮೀಡಿಯಾದಲ್ಲಿ ನಿಮ್ಮ ಮಕ್ಕಳ ಫೋಟೊವನ್ನು ಬಳಸಿ ಹೊಸ ವ್ಯಕ್ತಿಯನ್ನೂ ಸೃಷ್ಟಿಸಬಹುದು. ಡೀಪ್ಫೇಕ್ ಕುರಿತು ಸಂಪೂರ್ಣ ವಿವರನ್ನು ಕನ್ನಡದಲ್ಲಿ ತಿಳಿದುಕೊಳ್ಳಲು ನೀವು ತಪ್ಪದೇ ಹಿಂದೂಸ್ತಾನ್ ಟೈಮ್ಸ್ ಕನ್ನಡದ "ಡಿಜಿಟಲ್ ಜಗತ್ತಿನಲ್ಲಿ ಡೀಪ್ಫೇಕ್ ತಲ್ಲಣ , ಆನ್ಲೈನ್ನಲ್ಲಿ ಮಕ್ಕಳ ಫೋಟೊ ಹಂಚಿಕೊಳ್ಳುವಿರಾ, ಗುರುತಿನ ದುರುಪಯೋಗದ ಆತಂಕ" ಎಂಬ ಲೇಖನವನ್ನು ಓದಿ.
ವಿಭಾಗ