ಬುಧವಾರ, 15 ಮೇ 2024
×
ADVERTISEMENT
ಈ ಕ್ಷಣ :
ADVERTISEMENT
ಆಳ–ಅಗಲ | ಡೀಪ್‌ಫೇಕ್‌: ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ‘ಅತಿಬುದ್ಧಿ’
ಆಳ–ಅಗಲ | ಡೀಪ್‌ಫೇಕ್‌: ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ‘ಅತಿಬುದ್ಧಿ’
Published 7 ನವೆಂಬರ್ 2023, 23:30 IST
Last Updated 7 ನವೆಂಬರ್ 2023, 23:30 IST
ಅಕ್ಷರ ಗಾತ್ರ

ನಟಿ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಅವರ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊವೊಂದು ಸಾಮಾಜಿಕ ಜಾಲತಾಣಗಳಲ್ಲಿ ಭಾರಿ ಚರ್ಚೆಗೆ ಗ್ರಾಸವಾಗಿತ್ತು. ನಟಿ ಕತ್ರಿಕಾ ಕೈಫ್‌ ಅವರ ಡೀಪ್‌ಫೇಕ್‌ ಚಿತ್ರವೊಂದು ಮಂಗಳವಾರ ಜಾಲತಾಣಗಳಲ್ಲಿ ಹಂಚಿಕೆಯಾಗಿದೆ. ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯ ದುರ್ಬಳಕೆಗೆ ನಿದರ್ಶನವಿದು. ಈ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊ, ಚಿತ್ರಗಳ ಬಗ್ಗೆ ಕೇಂದ್ರ ಸರ್ಕಾರವು ತನಿಖೆಯನ್ನೂ ಆರಂಭಿಸಿದೆ. ಹಲವು ದೇಶಗಳಲ್ಲಿ ಇದು ಈಗಾಗಲೇ ದೊಡ್ಡಮಟ್ಟದ ಪಿಡುಗು ಎಂಬಂತಾಗಿದೆ. ಭಾರತದಲ್ಲೂ ಡೀಪ್‌ಫೇಕ್‌ ದೊಡ್ಡಮಟ್ಟದಲ್ಲೇ ಇದ್ದರೂ, ಅದು ಸುದ್ದಿಯಾಗಿರಲಿಲ್ಲ. ಈಗ ಗಣ್ಯರು ಮತ್ತು ಜನಪ್ರಿಯ ವ್ಯಕ್ತಿಗಳು ಡೀಪ್‌ಫೇಕ್‌ನ ಸಂತ್ರಸ್ತರಾದೊಡನೆ ಅದರ ಅಪಾಯದ ಬಗ್ಗೆ ಚರ್ಚೆ ಮುನ್ನೆಲೆಗೆ ಬಂದಿದೆ.

***

‘ನನ್ನ ಕುಟುಂಬ, ಸ್ನೇಹಿತರು ಹಾಗೂ ಹಿತಾಭಿಲಾಷಿಗಳಿಗೆ ನಾನೊಬ್ಬ ಹೆಣ್ಣಾಗಿ, ನಟಿಯಾಗಿ ಧನ್ಯವಾದ ಹೇಳಲು ಬಯಸುತ್ತೇನೆ. ಇವರೇ ನನ್ನ ರಕ್ಷಾಕವಚ; ನನ್ನ ಬೆನ್ನೆಲುಬು. ನನಗೆ ಈಗ ಆದಹಾಗೆ ನಾನು ಶಾಲೆಯಲ್ಲೊ, ಕಾಲೇಜಿನಲ್ಲೊ ಇದ್ದಾಗ ಒಂದೊಮ್ಮೆ ಆಗಿದ್ದರೆ? ಈ ಸಮಸ್ಯೆಯನ್ನು ನಾನು ಹೇಗೆ ಎದುರಿಸುತ್ತಿದ್ದೆನೋ? ನನಗೆ ಊಹಿಸಿಕೊಳ್ಳಲು ಸಾಧ್ಯವಿಲ್ಲ’ ಎಂದು ನಟಿ ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಮಂಗಳವಾರ ‘ಎಕ್ಸ್‌’ನಲ್ಲಿ ಪೋಸ್ಟ್‌ ಆತಂಕ ವ್ಯಕ್ತಪಡಿಸಿದ್ದಾರೆ.

ರಶ್ಮಿಕಾ ಅವರ ಈ ಆತಂಕವನ್ನು ಜಗತ್ತಿನ ಲಕ್ಷಾಂತರ ಮಹಿಳೆಯರು ಈಗಾಗಲೇ ಅನುಭವಿಸುತ್ತಿದ್ದಾರೆ. ಡೀಪ್‌ಫೇಕ್‌ ತಂತ್ರಜ್ಞಾನಕ್ಕೆ ಮಹಿಳೆಯರೇ ಬಲಿಪಶುಗಳು; ಅವರೇ ಗುರಿ. ಭಾರತದ ಮಟ್ಟಿಗೆ ಈ ತಂತ್ರಜ್ಞಾನವು ಹೊಸತಾಗಿ ತೋರುತ್ತಿರಬಹುದು. ಆದರೆ, ಅಮೆರಿಕ, ಯೂರೋಪ್‌ಗಳಲ್ಲಿ ಇದೊಂದು ದೊಡ್ಡ ಸಮಸ್ಯೆಯಾಗಿ ಈಗಾಗಲೇ ಪರಿಣಮಿಸಿದೆ. ಇದಕ್ಕಾಗಿ ಕಾನೂನುಗಳನ್ನು ರಚಿಸಲಾಗುತ್ತಿದೆ. ಮನೋರಂಜನಾ ಮಾಧ್ಯಮದಲ್ಲಿರುವ ಮಹಿಳೆಯರು, ಸೋಷಿಯಲ್‌ ಮೀಡಿಯಾ ಇನ್‌ಫ್ಲುಯೆನ್ಸರ್‌ಗಳು... ಒಟ್ಟಾರೆ, ಸಾಮಾಜಿಕ ಜೀವನದಲ್ಲಿ ಗುರುತಿಸಿಕೊಂಡಿರುವ ಮಹಿಳೆಯರೇ ಈ ತಂತ್ರಜ್ಞಾನದಿಂದ ಹೆಚ್ಚಿನ ಸಮಸ್ಯೆ ಎದುರಿಸುತ್ತಿದ್ದಾರೆ.

ನೀಲಿಚಿತ್ರಗಳನ್ನು ಸೃಷ್ಟಿಸಲೆಂದೇ ಈ ತಂತ್ರಜ್ಞಾನವನ್ನು ಹೆಚ್ಚಾಗಿ ಬಳಸಿಕೊಳ್ಳಲಾಗುತ್ತಿದೆ. ಇಂಥ ಚಿತ್ರಗಳನ್ನು ಸೃಷ್ಟಿಸಲು ಖಾತ್ಯನಾಮ ಮಹಿಳೆಯ ಭಾವಚಿತ್ರಗಳನ್ನು ಬಳಸಿಕೊಳ್ಳಲಾಗುತ್ತಿದೆ. ಅಮೆರಿಕದ ‘ಹೋಮ್‌ ಸೆಕ್ಯುರಿಟಿ ಹೀರೋಸ್‌’ ಎನ್ನುವ ಸಂಸ್ಥೆಯೊಂದು ‘2023 ಸ್ಟೇಟ್‌ ಆಫ್‌ ಡೀಪ್‌ಫೇಕ್ಸ್‌: ರಿಯಾಲಿಟಿ, ಥ್ರೆಟ್ಸ್‌ ಆ್ಯಂಡ್‌ //ಇಂಪ್ಯಾಟ್‌//’ ಹೆಸರಿನ ಸಮೀಕ್ಷೆಯೊಂದನ್ನು ನಡೆಸಿದೆ. ಆನ್‌ಲೈನ್‌ನಲ್ಲಿ ಸಿಗುವ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊಗಳಲ್ಲಿ ಶೇ 98ರಷ್ಟು ವಿಡಿಯೊಗಳು ನೀಲಿಚಿತ್ರಗಳಾಗಿವೆ. ಇಂಥ ಡೀಪ್‌ಫೇಕ್‌ ನೀಲಿಚಿತ್ರಗಳಲ್ಲಿ ಶೇ 94ರಷ್ಟು ವಿಡಿಯೊಗಳು ಖ್ಯಾತ ನಟಿಯರು, ಗಾಯಕಿಯರಿಗೆ ಸಂಬಂಧಿಸಿದ್ದಾಗಿವೆ.

ಖ್ಯಾತ ಮಹಿಳೆಯರು ಮಾತ್ರವಲ್ಲ, ಸಾಮಾನ್ಯ ಮಹಿಳೆಯರೂ ಈ ತಂತ್ರಜ್ಞಾನಕ್ಕೆ ಗುರಿಯಾಗುತ್ತಿದ್ದಾರೆ. ಡಚ್‌ನ ಎಐ ಕಂಪೆನಿಯಾದ ‘ಸೆನ್ಸಿಟಿ’ 2019ರಲ್ಲಿ ಅಧ್ಯಯನವೊಂದನ್ನು ಕೈಗೊಂಡಿತ್ತು. ಇಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ತಂತ್ರಜ್ಞಾನದ ಮೂಲಕ ಸೃಷ್ಟಿಸಲಾದ ನೂರಾರು ನೀಲಿಚಿತ್ರಗಳ ಅಧ್ಯಯನ ನಡೆಸಲಾಗಿತ್ತು. ಇಂಥ ಚಿತ್ರಗಳಲ್ಲಿ ಕಾಣಿಸಿಕೊಂಡಿದ್ದ ಮಹಿಳೆಯರನ್ನು ಕಂಪೆನಿ ಸಂಪರ್ಕಿಸಿತ್ತು. ಇವರುಗಳಲ್ಲಿ ಶೇ 96ರಷ್ಟು ಮಹಿಳೆಯರಿಗೆ ತಮ್ಮ ಭಾವಚಿತ್ರಗಳನ್ನು ಬಳಿಸಿಕೊಂಡು ಇಂಥದ್ದೊಂದನ್ನು ಸೃಷ್ಟಿಸಲಾಗಿದೆ ಎಂಬುದರ ಅರಿವೇ ಇರಲಿಲ್ಲ. ಇಷ್ಟಲ್ಲದೆ, ಗ್ರಾಹಕರ ಇಚ್ಛೆಯ ಅನುಸಾರ ಅವರು ಹೇಳಿದ ಮಹಿಳೆಯರ ಭಾವಚಿತ್ರಗಳನ್ನು ಬಳಸಿಕೊಂಡು ನೀಲಿ ಚಿತ್ರಗಳನ್ನು ತಯಾರು ಮಾಡುವ ಉದ್ಯಮವೂ ಆರಂಭಗೊಂಡಿದೆ.

ಅಂತರ್ಜಾಲದಲ್ಲಿ ಬಹಳ ಸುಲಭವಾಗಿ ಮಹಿಳೆಯರ ಭಾವಚಿತ್ರಗಳು ದೊರೆಯುತ್ತವೆ. ನೀಲಿಚಿತ್ರಗಳನ್ನು ಸೃಷ್ಟಿಸಲು ಹೇಳಿಕೊಳ್ಳುವಂಥ ಕೌಶಲವೇನೂ ಬೇಕಾಗಿಲ್ಲ. ಯಾರೂ ಬೇಕಾದರೂ ಅತ್ಯಂತ ಕಡಿಮೆ ಖರ್ಚಿನಲ್ಲಿ ಇಂಥ ವಿಡಿಯೊಗಳನ್ನು ಸೃಷ್ಟಿಸಬಹುದಾಗಿದೆ. ಇದೇ ಕಾರಣಕ್ಕಾಗಿ ಮಹಿಳೆಯರೇ ಈ ತಂತ್ರಜ್ಞಾನದ ಬಲಿಪಶುಗಳಾಗುತ್ತಿದ್ದಾರೆ. ಸಣ್ಣ ವಯಸ್ಸಿನ ಬಾಲಕಿಯರ ಭಾವಚಿತ್ರಗಳನ್ನು ಕೂಡ ಬಳಸಿಕೊಳ್ಳಲಾಗುತ್ತಿದೆ.

‘2023 ಸ್ಟೇಟ್‌ ಆಫ್‌ ಡೀಪ್‌ಫೇಕ್ಸ್‌...’ ಸಮೀಕ್ಷೆಯಲ್ಲಿ ಮತ್ತೊಂದು ಮಹತ್ವದ ವಿಚಾರವನ್ನು ಪ್ರಸ್ತಾಪಿಸಲಾಗಿದೆ. ಡೀಪ್‌ಫೇಕ್‌ ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿಕೊಂಡು ನೀಲಿಚಿತ್ರಗಳನ್ನು ಸೃಷ್ಟಿಸಲು ಕೆಲವೇ ದೇಶಗಳ ಮಹಿಳೆಯರ ಭಾವಚಿತ್ರಗಳನ್ನು ಹೆಚ್ಚಾಗಿ ಬಳಸಿಕೊಳ್ಳಲಾಗುತ್ತಿದೆ. ಕೆಲವು ದೇಶಗಳ ಮಹಿಳೆಯರು ಹೆಚ್ಚು ಆಕರ್ಷಕವಾಗಿರಬಹುದು. ರಾಜಕೀಯ ಒತ್ತಡಗಳಿರಬಹುದು ಅಥವಾ ಕೆಲವು ದೇಶದ ಮಹಿಳೆಯರ ಬಗ್ಗೆ ಇರುವ ಕಲ್ಪನೆಗಳಿರಬಹುದು, ಗ್ರಾಹಕರ ಮನೋಭಿಲಾಷೆಯ ಕಾರಣಕ್ಕಾಗಿಯೂ ಕೆಲವೇ ದೇಶಗಳ ಮಹಿಳೆಯರ ಭಾವಚಿತ್ರಗಳನ್ನು ಬಳಸಿಕೊಳ್ಳಲಾಗುತ್ತದೆ. ಈ ಪಟ್ಟಿಯಲ್ಲಿ ದಕ್ಷಿಣ ಕೊರಿಯಾ ಪ್ರಥಮ ಸ್ಥಾನದಲ್ಲಿದ್ದರೆ, ಭಾರತವು ಆರನೇ ಸ್ಥಾನದಲ್ಲಿದೆ.

ಕೌಟುಂಬಿಕ ದೌರ್ಜನ್ಯ ಎಸಗಲೂ ಬಳಕೆ: ತನ್ನ ಸಂಗಾತಿಯನ್ನು ಹದ್ದುಬಸ್ತಿನಲ್ಲಿ ಇಟ್ಟುಕೊಳ್ಳಬೇಕು ಎಂಬ ದೃಷ್ಟಿಯಿಂದ ಪುರುಷರು ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಮತ್ತು ಡೀಪ್‌ಫೇಕ್‌ ತಂತ್ರಜ್ಞಾನವನ್ನು ಬಳಸಿಕೊಳ್ಳುತ್ತಿರುವ ಪ್ರಕರಣಗಳು ವರದಿಯಾಗುತ್ತಿವೆ. ತಮ್ಮ ಸಂಗಾತಿಯ ಭಾವಚಿತ್ರಗಳನ್ನು ಅವರ ಅನುಮತಿ ಇಲ್ಲದೆಯೇ ಬಳಸಿಕೊಂಡು, ಅದರಿಂದ ಅಶ್ಲೀಲವಾದ ಕಂಟೆಂಟ್‌ ಅನ್ನು ಸೃಷ್ಟಿಸಿ ಇಟ್ಟುಕೊಳ್ಳುವುದು. ಇದನ್ನು ತೋರಿಸಿ, ಮಹಿಳೆಯರ ಮೇಲೆ ದೌರ್ಜನ್ಯ ಎಸಗುವುದು. ಈ ಬಗ್ಗೆ ವಿದೇಶಗಳಲ್ಲಿ ಹಲವು ಮಹಿಳೆಯರು ದೂರು ನೀಡಿದ್ದಾರೆ. ಈ ಬಗ್ಗೆ ದೊಡ್ಡ ಮಟ್ಟದ ಚರ್ಚೆಯೂ ನಡೆಯುತ್ತಿದೆ.

ದುರ್ಬಳಕೆಯ ಅಪಾಯ ಹೆಚ್ಚಿಸಿದ ತಂತ್ರಜ್ಞಾನ

ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ (ಎಐ) ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೊ ಮತ್ತು ಚಿತ್ರಗಳಿಗೂ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊ ಮತ್ತು ಚಿತ್ರಗಳಿಗೂ ತುಂಬಾ ವ್ಯತ್ಯಾಸವಿದೆ. ಎಐ ತಂತ್ರಜ್ಞಾನ ಬಳಸಿಕೊಂಡು ಶೂನ್ಯದಿಂದ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೊ ಅಥವಾ ಚಿತ್ರಗಳನ್ನು ಎಐ ಸೃಷ್ಟಿಸಿದ ವಿಡಿಯೊ ಅಥವಾ ಚಿತ್ರ ಎಂದು ಕರೆಯಲಾಗುತ್ತದೆ. ಈಗಾಗಲೇ ಚಿತ್ರೀಕರಿಸಲಾದ ವಿಡಿಯೊಗೆ ಬೇರೊಬ್ಬರ ಧ್ವನಿ ಅಥವಾ ಮುಖವನ್ನು ಸಂಯೋಜಿಸುವ ಪ್ರಕ್ರಿಯೆಯೇ ಡೀಪ್‌ಫೇಕ್‌ ಮತ್ತು ಅದರ ಉತ್ಪನ್ನವೇ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊ.

ಯಾವುದೇ ವಿಡಿಯೊ ಮತ್ತು ಚಿತ್ರವನ್ನು ಡೀಪ್‌ಫೇಕ್‌ ಮಾಡುವುದು ಸುಲಭದ ಕೆಲಸವಲ್ಲ. 2017ರಿಂದ ಡೀಪ್‌ಫೇಕ್‌ ಪರಿಕಲ್ಪನೆ ಬಳಕೆಯಲ್ಲಿದೆ. ಸಿಜಿಐನಂತಹ ಅತ್ಯಾಧುನಿಕ ಅಪ್ಲಿಕೇಷನ್‌ಗಳನ್ನು ಬಳಸಿಕೊಂಡು ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊಗಳನ್ನು ಸೃಷ್ಟಿಸಲಾಗುತ್ತಿತ್ತು. ‘ಅ’ ಅನ್ನುವ ಗಣ್ಯವ್ಯಕ್ತಿಯ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊವನ್ನು ಸೃಷ್ಟಿಸಬೇಕು ಎಂದಿಟ್ಟುಕೊಳ್ಳಿ. ಮೊದಲಿಗೆ ‘ಅ’ ಎಂಬ ವ್ಯಕ್ತಿಯ ನೂರಾರು ವಿಡಿಯೊ ಮತ್ತು ಚಿತ್ರಗಳನ್ನು ಒಂದೆಡೆ ಕಲೆಹಾಕಿ, ಅವರ ಮುಖದ ಪ್ರೊಫೈಲ್‌ ಅನ್ನು ರೂಪಿಸಲಾಗುತ್ತಿತ್ತು. ಆ ವ್ಯಕ್ತಿ ಮಾತನಾಡುವ ರೀತಿ, ತುಟಿ ಚಲನೆ, ಮುಖದ ಭಾವ, ಹುಬ್ಬಿನ ಚಲನೆ, ಕಣ್ಣಿನ ರೆಪ್ಪೆ ಬಡಿಯುವುದು ಇತ್ಯಾದಿ ವಿವರಗಳನ್ನು ಆ ಪ್ರೊಫೈಲ್‌ ಹೊಂದಿರುತ್ತಿತ್ತು. ಅಂತಹ ಪ್ರೊಫೈಲ್‌ ರೂಪಿಸುವ ಕೆಲಸವನ್ನು ಎಐ ತಂತ್ರಜ್ಞಾನ ಮಾಡುತ್ತಿತ್ತು. 

ನಂತರ ಸಾಮಾನ್ಯ ವ್ಯಕ್ತಿಯೊಬ್ಬರು ಮಾತನಾಡುತ್ತಿರುವ ವಿಡಿಯೊವನ್ನು ಚಿತ್ರೀಕರಿಸಲಾಗುತ್ತಿತ್ತು. ಆ ವಿಡಿಯೊಗೆ ‘ಅ’ ಎಂಬ ವ್ಯಕ್ತಿಯ ಪ್ರೊಫೈಲ್‌ ಅನ್ನು ಸಂಯೋಜಿಸಲಾಗುತ್ತಿತ್ತು. ಎಐ ಈ ಕೆಲಸ ಮಾಡಿದರೂ ಅತ್ಯಂತ ನಾಜೂಕಿನ ಸಂಯೋಜನೆಗಳನ್ನು ಕಲಾವಿದನೇ ಮಾಡಬೇಕಿತ್ತು. ಹೀಗಾಗಿ ಒಂದೆರಡು ನಿಮಿಷಗಳ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊ ಸೃಷ್ಟಿಸಲು ನಾಲ್ಕಾರು ವಾರಗಳಷ್ಟು ಸಮಯ ಬೇಕಾಗಿತ್ತು. ಇಂತಹ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊಗಳನ್ನು ಸೃಷ್ಟಿಸಿಕೊಡುವ ಹಲವು ಕಂಪೆನಿಗಳು ಕಾರ್ಯನಿರ್ವಹಿಸುತ್ತಿವೆ. ಹೆಚ್ಚು ಸಮಯ ಮತ್ತು ದುಬಾರಿ ವೆಚ್ಚ ಮಾಡಿದಷ್ಟೂ, ವಾಸ್ತವಕ್ಕೆ ಹತ್ತಿರವಿರುವಂತಹ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊ ಸೃಷ್ಟಿಯಾಗುತ್ತದೆ. ಹೀಗಾಗಿ 2017ರಿಂದ ಬಳಕೆಯಲ್ಲಿ ಇದ್ದರೂ, ಇದು ಜನಪ್ರಿಯವಾಗಿರಲಿಲ್ಲ ಮತ್ತು ಇದೊಂದು ಪಿಡುಗು ಎಂಬಂತೆಯೂ ಆಗಿರಲಿಲ್ಲ.

ಆದರೆ, ಈ ಎಲ್ಲಾ ಕೆಲಸವನ್ನು ಕೃತಕ ಬುದ್ದಿಮತ್ತೆಯೇ ಮಾಡಿಮುಗಿಸುವ ಕಾಲದಲ್ಲಿ ನಾವಿದ್ದೇವೆ. ಕೆಲವೇ ನಿಮಿಷಗಳಲ್ಲಿ ಮತ್ತು ಯಾವುದೇ ಶುಲ್ಕವಿಲ್ಲದೆ ಇಂತಹ ವಿಡಿಯೊ ಮತ್ತು ಚಿತ್ರಗಳನ್ನು ಸೃಷ್ಟಿಸುವ ಹತ್ತಾರು ಅಪ್ಲಿಕೇಷನ್‌ಗಳು ಬಳಕೆಗೆ ಬಂದಿವೆ. ನಗಣ್ಯ ಎನ್ನುವಷ್ಟು ಹಣ ತೆತ್ತರೂ ಸಾಕು, ನಿಜಕ್ಕೆ ಹತ್ತಿರ ಎನಿಸುವ ವಿಡಿಯೊ ಮತ್ತು ಚಿತ್ರಗಳನ್ನು ಅವು ಕೆಲವೇ ನಿಮಿಷಗಳಲ್ಲಿ ಸೃಷ್ಟಿಸಿಕೊಡುತ್ತವೆ.

ಸಾಮಾಜಿಕ ಜಾಲತಾಣಗಳಲ್ಲಿ ಇರುವ ಯಾವುದೋ ಒಂದು ವಿಡಿಯೊಗೆ, ಜನಪ್ರಿಯ ವ್ಯಕ್ತಿಯೊಬ್ಬರ ಮುಖವನ್ನು ಕೂರಿಸಿಕೊಡು ಎಂದು ಕೇವಲ ‘ಟೆಕ್ಸ್ಟ್‌’ ಮೂಲಕ ಆದೇಶ ನೀಡಿದರೆ ಸಾಕು. ವಿಡಿಯೊ ಸೃಷ್ಟಿಯಾಗಿಬಿಡುತ್ತದೆ. ದುಡ್ಡುಕೊಟ್ಟು ಬಳಸುವ ಅಪ್ಲಿಕೇಷನ್‌ಗಳು ಮತ್ತು ದುಬಾರಿ ಶುಲ್ಕ ಪಡೆದು ಕೆಲಸ ಮಾಡುವ ಡೀಪ್‌ಫೇಕ್‌ ಕಂಪನಿಗಳು ತಾಂತ್ರಿಕವಾಗಿ ಅತ್ಯುತ್ತಮವಾದ ವಿಡಿಯೊಗಳನ್ನು ಸೃಷ್ಟಿಸುತ್ತವೆ. ರಶ್ಮಿಕಾ ಮಂದಣ್ಣ ಅವರ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊ ಸೃಷ್ಟಿಯಾಗಿದ್ದೂ ಇದೇ ರೀತಿ ಎಂದು ಅಂದಾಜಿಸಲಾಗಿದೆ. ಫೋಟೊಶಾಪ್‌, ಇಲ್ಲಸ್ಟ್ರೇಟರ್‌, ಸಿಜಿಐನಂತಹ ಅ‌ಪ್ಲಿಕೇಷನ್‌ಗಳ ಬಳಕೆ ಗೊತ್ತಿಲ್ಲದಂತಹ ಸಾಮಾನ್ಯ ವ್ಯಕ್ತಿಯೂ ಇಂತಹ ವಿಡಿಯೊ ಸೃಷ್ಟಿಸಲು ಸಾಧ್ಯವಾಗುವಷ್ಟರ ಮಟ್ಟಿಗೆ ತಂತ್ರಜ್ಞಾನ ಬೆಳೆದಿದೆ.

ಕಲಿಕೆಯ ಭಾಗವಾಗಿ ರಾಯಿಟರ್ಸ್‌ ಸುದ್ದಿಸಂಸ್ಥೆ ಡೀಪ್‌ಫೇಕ್ ವಿಡಿಯೊ ಒಂದನ್ನು ಸೃಷ್ಟಿಸಿತ್ತು. ತನ್ನದೇ ಇಂಗ್ಲಿಷ್ ಭಾಷಾ ವಿಭಾಗದಲ್ಲಿ ಕೆಲಸ ಮಾಡುವ ಸಿಬ್ಬಂದಿಯ ಸುದ್ದಿ ನಿರೂಪಣೆಯ ವಿಡಿಯೊ ಚಿತ್ರೀಕರಿಸಿಕೊಂಡಿತ್ತು. ಜತೆಗೆ ಫ್ರೆಂಚ್‌ ಭಾಷೆಯಲ್ಲಿ ನಿರೂಪಣೆ ಮಾಡುವ ತನ್ನದೇ ಸಿಬ್ಬಂದಿಯ ಇನ್ನೊಂದು ವಿಡಿಯೊವನ್ನೂ ಚಿತ್ರೀಕರಿಸಿಕೊಂಡಿತ್ತು. ಇವುಗಳನ್ನು ಬಳಸಿಕೊಂಡು ಡೀಪ್‌ಫೇಕ್ ವಿಡಿಯೊ ಸೃಷ್ಟಿಸುವಂತೆ ಫ್ರಾನ್ಸ್‌ನ ಡೀಪ್‌ಫೇಕ್‌ ಕಂಪನಿ ಒಂದಕ್ಕೆ ತಿಳಿಸಿತ್ತು. ಆ ಕಂಪನಿಯು ಕೆಲವೇ ಗಂಟೆಗಳಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊ ಸೃಷ್ಟಿಸಿಕೊಟ್ಟಿತ್ತು. ಇಂಗ್ಲಿಷ್‌ ನಿರೂಪಕಿ ತನ್ನದೇ ಧ್ವನಿಯಲ್ಲಿ, ಫ್ರೆಂಚ್‌ ಭಾಷೆಯಲ್ಲಿ ನಿರೂಪಣೆ ಮಾಡುವಂತೆ ವಿಡಿಯೊವನ್ನು ಸೃಷ್ಟಿಸಲಾಗಿತ್ತು. ಆಕೆಯ ತುಟಿಚಲನೆಯನ್ನೂ, ಫ್ರೆಂಚ್‌ ಉಚ್ಚಾರಕ್ಕೆ ಹೊಂದುವಂತೆ ತಿದ್ದಿ–ತೀಡಲಾಗಿತ್ತು. ಇದನ್ನು ರಾಯಿಟರ್ಸ್‌ ತನ್ನ ಸಿಬ್ಬಂದಿಗೆ ತೋರಿಸಿತ್ತು. ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊ ಸೃಷ್ಟಿ ಪ್ರಕ್ರಿಯೆಯಲ್ಲಿ ಭಾಗಿಯಾಗಿದ್ದವರಿಗಷ್ಟೇ ಅದು, ನಕಲಿ ವಿಡಿಯೊ ಎಂದು ಗೊತ್ತಾಗಿತ್ತು. ಉಳಿದವರಿಗೆ ಅದು ನಕಲಿ ವಿಡಿಯೊ ಎಂಬುದು ಗೊತ್ತಾಗಲೇ ಇಲ್ಲ. ಈ ಸಾಧ್ಯತೆಯೇ, ಈ ತಂತ್ರಜ್ಞಾನದ ದುರ್ಬಳಕೆಯ ಅಪಾಯಗಳನ್ನೂ ಹೆಚ್ಚಿಸಿರುವುದು.

ಶಿಕ್ಷಾರ್ಹ, ದಂಡಾರ್ಹ ಅಪರಾಧ

ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊ ಸೃಷ್ಟಿಸುವುದು ಮಾಹಿತಿ ತಂತ್ರಜ್ಞಾನ ಕಾಯ್ದೆಯ ವಿವಿಧ ಸೆಕ್ಷನ್‌ಗಳ ಅಡಿಯಲ್ಲಿ ಶಿಕ್ಷಾರ್ಹ ಮತ್ತು ದಂಡಾರ್ಹ ಅಪರಾಧ ಎನಿಸಿಕೊಳ್ಳುತ್ತದೆ. ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊ ಸೃಷ್ಟಿಸಿದವರು, ಅದನ್ನು ಹಂಚಿಕೊಂಡವರಿಗೂ ಜೈಲು ಶಿಕ್ಷೆ ಮತ್ತು ದಂಡ ವಿಧಿಸಲು ಈ ಕಾಯ್ದೆಯಲ್ಲಿ ಅವಕಾಶವಿದೆ.

ಸಾಮಾಜಿಕ ಜಾಲತಾಣ ಮಧ್ಯಸ್ಥ ಕಂಪನಿಗಳೂ, ತಮ್ಮ ಪ್ಲಾಟ್‌ಫಾರಂಗಳಲ್ಲಿ ಡೀಪ್‌ಫೇಕ್‌ ವಿಡಿಯೊಗಳು ಹಂಚಿಕೆಯಾಗುವುದನ್ನು ತಡೆಯುವ ಜವಾಬ್ದಾರಿ ಹೊಂದಿವೆ. ಕಂಪನಿಗಳು ಇದನ್ನು ಪಾಲಿಸದಿದ್ದರೆ ಕಾನೂನು ಕ್ರಮವನ್ನು ಎದುರಿಸಬೇಕಾಗುತ್ತದೆ. ಇದಿಷ್ಟೇ ಅಲ್ಲದೆ ಖಾಸಗಿತನದ ಹಕ್ಕಿನ ಉಲ್ಲಂಘನೆ, ವಂಚನೆ, ಗೌರವಕ್ಕೆ ಚ್ಯುತಿ ತಂದ, ಮಾನಹಾನಿ ಮಾಡಿದ ಆರೋಪಗಳ ಅಡಿಯಲ್ಲೂ ಶಿಕ್ಷೆ ಮತ್ತು ದಂಡ ವಿಧಿಸಲು ಅವಕಾಶವಿದೆ. 

ಮಹಿಳೆಯರು ಹಾಗೂ ಹುಡುಗಿಯರು ಇನ್ನು ಮುಂದೆ ತಮ್ಮ ಭಾವಚಿತ್ರಗಳನ್ನು ಹಂಚಿಕೊಳ್ಳಲು ಭಯಪಡುವ ಸ್ಥಿತಿ ನಿರ್ಮಾಣವಾಗಿದೆ. ಭವಿಷ್ಯದ ಕುರಿತು ನಡುಕ ಹುಟ್ಟುತ್ತಿದೆ. ಅಂತರ್ಜಾಲದಲ್ಲಿ ಏನನ್ನೂ ನೋಡುತ್ತೇವೋ ಆ ಎಲ್ಲದರ ಬಗ್ಗೆ ಫ್ಯಾಕ್ಟ್‌ಚೆಕ್‌ ಮಾಡಿಕೊಳ್ಳಲೇಬೇಕು. ಅಂತರ್ಜಾಲದಲ್ಲಿ ಸಿಗುವುದೆಲ್ಲ ನಿಜವಾದುದಲ್ಲ.
-ಜಾರಾ ಪಟೇಲ್‌, ಸೋಷಿಯಲ್‌ ಇನ್‌ಫ್ಯುಯೆನ್ಸರ್‌ (ಇವರು ತಮ್ಮ ಇನ್‌ಸ್ಟಾಗ್ರಾಂ ಖಾತೆಯಲ್ಲಿ ಹಂಚಿಕೊಂಡಿದ್ದ ವಿಡಿಯೊವನ್ನೇ ಬಳಸಿ, ರಶ್ಮಿಕಾ ಅವರ ಭಾವಚಿತ್ರವನ್ನು ಡೀಪ್‌ಫೇಕ್‌ ಮಾಡಿ, ವಿಡಿಯೊವನ್ನು ಸೃಷ್ಟಿಸಲಾಗಿತ್ತು. ಈ ಪ್ರಕರಣ ಕುರಿತು ಜಾರಾ ಅವರು ತಮ್ಮ ಇನ್‌ಸ್ಟಾಗ್ರಾಂನಲ್ಲಿ ಬರೆದುಕೊಂಡಿದ್ದಾರೆ)

ಆಧಾರ: ಪಿಟಿಐ, ರಾಯಿಟರ್ಸ್‌, ಎಎಫ್‌ಪಿ

ತಾಜಾ ಸುದ್ದಿಗಾಗಿ ಪ್ರಜಾವಾಣಿ ಟೆಲಿಗ್ರಾಂ ಚಾನೆಲ್ ಸೇರಿಕೊಳ್ಳಿ | ಪ್ರಜಾವಾಣಿ ಆ್ಯಪ್ ಇಲ್ಲಿದೆ: ಆಂಡ್ರಾಯ್ಡ್ | ಐಒಎಸ್ | ನಮ್ಮ ಫೇಸ್‌ಬುಕ್ ಪುಟ ಫಾಲೋ ಮಾಡಿ.

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT