ಶನಿವಾರ, 11 ಮೇ 2024
×
ADVERTISEMENT
ಈ ಕ್ಷಣ :
ADVERTISEMENT
ADVERTISEMENT

ಸ್ಮಾರ್ಟ್‌ ಸಾಧನದಲ್ಲೂ ತಾರತಮ್ಯ!

ವರ್ಚುವಲ್‌ ಸಾಧನಗಳಿಗೆ ಹೆಣ್ಣಿನ ಹೆಸರಿಟ್ಟು, ಅಲ್ಲೂ ಆಕೆಯನ್ನು ಸೇವಕಿಯಂತೆ ಕಾಣಲಾಗಿದೆ
Last Updated 12 ಜನವರಿ 2020, 19:33 IST
ಅಕ್ಷರ ಗಾತ್ರ

ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯನ್ನು (ಎ.ಐ) ಆಧರಿಸಿ ರೂಪಿಸಲಾಗಿರುವ ಯಾವುದೇ ಸ್ಮಾರ್ಟ್ ಸಾಧನವಿರಲಿ, ಅದು ಹೆಣ್ಣಿನ ಹೆಸರನ್ನೇ ಧ್ವನಿಸುತ್ತದೆ. ಅಮೆಜಾನ್‍ನ ‘ಅಲೆಕ್ಸಾ’, ಆ್ಯಪಲ್‍ನ ‘ಸಿರಿ’, ಎಚ್‍ಡಿಎಫ್‍ಸಿಯ ‘ಇವಾ’, ಕೋಟಕ್‍ನ ‘ಕಿಯಾ’, ಮೈಕ್ರೊಸಾಫ್ಟ್‌ನ ‘ಕೊರ್ಟಾನಾ’, ಟೇ, ಷಿಯಾಯ್ಸ್, ಸ್ಯಾಮ್‍ಸಂಗ್‍ನ ‘ಬಿಕ್ಸ್‌ಬಿ’ಗಳೆಲ್ಲಾ ಹೆಣ್ಣಿಗಿಡುವ ಹೆಸರುಗಳೇ. ಅಷ್ಟೇ ಏಕೆ, ಅರೇಬಿಯಾ ದೇಶದ ಗೌರವ ಪೌರತ್ವ ಪಡೆದುಕೊಂಡ ರೋಬೊ ಹ್ಯೂಮನಾಯ್ಡ್ ‘ಸೊಫಿಯಾ’ ಮತ್ತು ವಿಶ್ವದ ಪ್ರಥಮ ಚಾಟರ್‍ಬಾಟ್ ‘ಎಲಿಝಾ’ ಕೂಡಾ ಹೆಣ್ಣುಗಳ ಹೆಸರುಗಳೇ. ಅಪರೂಪಕ್ಕೆ ಎಂಬಂತೆ ಐಬಿಎಂನ ‘ವಾಟ್ಸನ್’ ಪುರುಷಧ್ವನಿ ಹೊಂದಿದೆ.

ಇವೆಲ್ಲಾ ನಾವು ನಮ್ಮ ದಿನನಿತ್ಯದ ಅನುಕೂಲಗಳಿಗಾಗಿ ಬಳಸುವ ವರ್ಚುವಲ್ ಅಸಿಸ್ಟೆಂಟ್‍ಗಳಾಗಿದ್ದು, ತಂತ್ರಜ್ಞಾನ ಕ್ಷೇತ್ರದಲ್ಲೂ ಅವುಗಳಿಗೆ ಹೆಣ್ಣಿನ ಹೆಸರಿಟ್ಟು ಅಲ್ಲೂ ಹೆಣ್ಣನ್ನು ಸೇವಕಿಯಂತೆ ಕಾಣಲಾಗಿದೆ ಎಂದು ಲಂಡನ್ ಯೂನಿವರ್ಸಿಟಿಯ ಡಾ. ನೋರಾ ಲಾಯ್ಡೇನ್ ಸಿಟ್ಟಿಗೆದ್ದಿದ್ದಾರೆ. ಇದನ್ನು ಮೊಗ್ಗಿನಲ್ಲೇ ಚಿವುಟಿ ಹಾಕಬೇಕು ಎಂದಿದ್ದಾರೆ. ಹೆಸರಷ್ಟೇ ಅಲ್ಲ, ಅವುಗಳಿಗೆ ನೀಡಲಾಗಿರುವ ಧ್ವನಿಯೂ ಹೆಣ್ಣಿನದ್ದೇ. ಇದು, ಅತ್ಯಾಧುನಿಕ ತಂತ್ರಜ್ಞಾನದ ಕಾಲದಲ್ಲೂ ಪುರುಷಪ್ರಧಾನ ವ್ಯವಸ್ಥೆಯ ದಣಿವರಿಯದ ಅಹಂಕಾರವನ್ನು ಎತ್ತಿ ತೋರಿಸುತ್ತದೆ ಎಂದಿದ್ದಾರೆ.

ನಮ್ಮ ಸಂಗಾತಿಗಳಿಗಿಂತ ಹೆಚ್ಚು ಕಾಲ ವರ್ಚುವಲ್ ಸಾಧನಗಳೊಂದಿಗೆ ಮಾತನಾಡುವ ಸಮಯ ಹೆಚ್ಚಾಗಲಿದೆ ಎಂದಿರುವ ಯುನೆಸ್ಕೊ, ಮುಂಬರುವ ದಿನಗಳಲ್ಲಿ ಇವು ಎಲ್ಲೆಲ್ಲಿಯೂ ಇರಲಿವೆ ಎಂದು ಹೇಳಿದೆ. ಹಾಗಾದಲ್ಲಿ ಹೆಣ್ಣು ಶಾಶ್ವತವಾಗಿ ಸೇವಕಿಯಾಗಿಬಿಡುತ್ತಾಳೆ ಎಂದು ಹೇಳಿರುವ ಲಿಂಗ ತಾರತಮ್ಯ ವಿರೋಧಿ ಹೋರಾಟಗಾರರು, ಉತ್ಪನ್ನ ತಯಾರಿಸುವ ಕಂಪನಿಗಳ ಧೋರಣೆ ಬದಲಾಗಬೇಕೆಂದು ಒತ್ತಾಯಿಸಿದ್ದಾರೆ.

ಈ ಬೆಳವಣಿಗೆಯನ್ನು ಸೂಕ್ಷ್ಮವಾಗಿ ಗಮನಿಸಿರುವ ಸ್ಯಾಮ್‍ಸಂಗ್ ತನ್ನ ‘ಬಿಕ್ಸ್‌ಬಿ’ಗೆ ಪುರುಷನ ಧ್ವನಿಯನ್ನು ನೀಡಿದೆಯಾದರೂ ಅದು ಉತ್ತರ ನೀಡುವ ವ್ಯವಸ್ಥೆಯಲ್ಲಿ ಮತ್ತೆ ತಾರತಮ್ಯ ಧೋರಣೆ ಅನುಸರಿಸಿದೆ. ಉದಾಹರಣೆಗೆ ‘ಲೆಟ್ ಅಸ್ ಟಾಕ್ ಡರ್ಟಿ’ (ನಾವು ಕೊಳಕು ವಿಷಯ ಮಾತನಾಡೋಣ) ಎಂದು ಕಮ್ಯಾಂಡ್ ನೀಡಿದರೆ ಜಾಗೃತವಾಗುವ ಮಹಿಳಾ ಧ್ವನಿ ‘ಐ ಡೋಂಟ್‍ ವಾಂಟ್‌ ಟು ಎಂಡ್ಅಪ್ ಆನ್ ಸಂತಾಸ್ ನಾಟಿ ಲಿಸ್ಟ್’ (ನನಗೆ ಸಂತಾನ ತಂಟೆಕೋರರ ಪಟ್ಟಿಯಲ್ಲಿರುವುದು ಬೇಡ) ಎಂಬ ಉತ್ತರ ನೀಡುತ್ತದೆ. ಅದೇ ಪ್ರಶ್ನೆಗೆ ‘ಐ ಹ್ಯಾವ್ ರೆಡ್ ದಟ್, ಸಾಯಿಲ್ ಎರೊಶನ್ ಈಸ್ ದ ರಿಯಲ್ ಡರ್ಟ್’ (ಮಣ್ಣಿನ ಸವಕಳಿಯೇ ನಿಜವಾದ ಕೊಳಕು) ಎಂದುತ್ತರಿಸುವ ಪುರುಷ ಧ್ವನಿ, ಪ್ರಶ್ನೆಯ ಸಹಜಾರ್ಥವನ್ನು ಜಾಣತನದಿಂದ ಮರೆಮಾಚಿ ಪ್ರಾಜ್ಞನಂತೆ ಉತ್ತರಿಸುತ್ತದೆ.

ಒಮ್ಮೆ ಅಮೆಜಾನ್‍ನ ಮಾನವ ಸಂಪನ್ಮೂಲ ವಿಭಾಗದಲ್ಲಿ ಎಚ್.ಆರ್. ಕೆಲಸ ಮಾಡಲು ನಿಯೋಜಿಸಲಾಗಿದ್ದ ಎ.ಐ ಆಧಾರಿತ ತತ್ರಾಂಶವೊಂದು, ಉದ್ಯೋಗಕ್ಕೆ ಅರ್ಜಿ ಸಲ್ಲಿಸಿದ ಹೆಣ್ಣು ಮಕ್ಕಳ ಅರ್ಜಿಗಳನ್ನೆಲ್ಲಾ ಪಕ್ಕಕ್ಕೆ ತಳ್ಳಿ, ಕೇವಲ ಪುರುಷರ ಅರ್ಜಿಗಳಿಗೆ ಮನ್ನಣೆ ನೀಡಿ ಸಂದರ್ಶನಕ್ಕೆ ಹಾಜರಾಗಲು ಸಂದೇಶ ರವಾನಿಸಿತ್ತು. ಮಹಿಳೆ, ಹುಡುಗಿ, ಗರ್ಲ್ಸ್‌ ಸ್ಕೂಲ್ ಎಂಬ ಪದಗಳಿದ್ದ ಅರ್ಜಿಗಳೆಲ್ಲಾ ಸಾರಾಸಗಟಾಗಿ ತಿರಸ್ಕೃತವಾಗಿದ್ದವು!

ಇದಕ್ಕೆ ಮುಖ್ಯ ಕಾರಣ, ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಕ್ಷೇತ್ರದಲ್ಲಿ ಕೆಲಸ ಮಾಡುವವರಲ್ಲಿ ಮಹಿಳೆಯರ ಪ್ರಮಾಣ ಕೇವಲ ಶೇ 22ರಷ್ಟಿರುವುದು. ಲಿಸ್ಬನ್ ಯೂನಿವರ್ಸಿಟಿಯ ಭಾಷಾ ತಜ್ಞೆ ಹೆಲೆನಾ ಮೋನಿಜ್, ಭಾಷೆಯ ಪ್ರಾಥಮಿಕ ಬಳಕೆಯಲ್ಲಿರುವ ತಪ್ಪನ್ನು ಸರಿಪಡಿಸಿದಾಗ ಮಾತ್ರ ಇಂತಹ ಅಪಸವ್ಯವನ್ನು ನಿವಾರಿಸಬಹುದು ಎನ್ನುತ್ತಾರೆ. ಉದಾಹರಣೆಗೆ, ಗಂಡಸಿಗೆ ‘ಫ್ಯಾಮಿಲಿಮ್ಯಾನ್’ ಎಂಬ ವಿಶಾಲ ಅರ್ಥ ಸೂಚಿಸುವ ಪದ ಬಳಸುತ್ತೇವೆ. ಆದರೆ ಹೆಣ್ಣಿಗೆ ‘ಫ್ಯಾಮಿಲಿವುಮನ್’ ಎನ್ನುವುದಿಲ್ಲ. ಜೋಡಿಯಲ್ಲಿರುವವರ ಲಿಂಗ ಗುರುತಿಸುವಾಗ ಮಗ ಮತ್ತು ಮಗಳು, ಗಂಡ ಮತ್ತು ಹೆಂಡತಿ, ಹುಡುಗ ಮತ್ತು ಹುಡುಗಿ ಹಾಗೂ ಗೌರವಸೂಚಕ ಪದಗಳಾದ ಮಿಸ್ಟರ್ ಮತ್ತು ಮಿಸ್ಟ್ರೆಸ್ ಎಲ್ಲದರಲ್ಲೂ ಪುರುಷಲಿಂಗವನ್ನೇ ಮೊದಲು ಬರೆಯಲಾಗುತ್ತದೆ.

ಹೆಸರಿಸುವಾಗ ಮಾತ್ರವಲ್ಲ, ಮುಖಚಹರೆ ಪತ್ತೆ ಮಾಡುವಲ್ಲೂ ಎ.ಐ ಸಾಧನಗಳು ತಾರತಮ್ಯ ಮಾಡುವುದು ಬಯಲಾಗಿದೆ. ಪುರುಷರ ಮುಖಗಳನ್ನು ಸರಾಗವಾಗಿ ಗುರುತಿಸುವ ಯಂತ್ರಗಳು, ಮಹಿಳೆಯರ ವಿಷಯದಲ್ಲಿ ಬಹಳ ತಪ್ಪು ಮಾಡುತ್ತವೆ. ಇದು ಮುಖದ ಬಣ್ಣಕ್ಕೂ ಅನ್ವಯಿಸುತ್ತದೆ. ಗೌರವ ವರ್ಣದವರನ್ನು ಗುರುತಿಸುವಾಗ ಆಗುವ ತಪ್ಪು ಶೇ 1ರಷ್ಟಿದ್ದರೆ, ಗಾಢಕಪ್ಪು ವರ್ಣದವರ ವಿಷಯದಲ್ಲಿ ಅದು ಶೇ 35ರಷ್ಟಿದೆ.

ಗಾರ್ಟ್‌ನರ್‌ ವರದಿಯು, ಅಗತ್ಯ ದತ್ತಾಂಶದ ಕೊರತೆಯಿಂದ 2022ರವರೆಗೂ ಬಹುತೇಕ ಎ.ಐ ಸಾಧನಗಳ ಫಲಿತಾಂಶಗಳು ತಪ್ಪಿನಿಂದ ಕೂಡಿರುತ್ತವೆ ಮತ್ತು ಲಿಂಗ ತಾರತಮ್ಯ ಮಾಡುತ್ತವೆ ಎಂದು ಹೇಳಿದೆ.

ಇದನ್ನು ನಿವಾರಿಸಲು ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಮಹಿಳೆಯರನ್ನು ಎ.ಐ ತಂತ್ರಜ್ಞಾನ ಕ್ಷೇತ್ರಕ್ಕೆ ಕರೆತರಬೇಕು ಮತ್ತು ಎ.ಐನ ಕ್ರಮಾವಳಿಗಳು ದತ್ತಾಂಶವನ್ನು ಅವಲಂಬಿಸಿ ಕೆಲಸ ಮಾಡುತ್ತವೆಯಾದ್ದರಿಂದ, ಮಹಿಳೆಯರಿಗೆ ಸಂಬಂಧಿಸಿದ ಎಲ್ಲ ಬಗೆಯ ದತ್ತಾಂಶಗಳನ್ನೂ ಕ್ರೋಡೀಕರಿಸಿ ಫೀಡ್ ಮಾಡಿರಬೇಕು.

ತಾಜಾ ಸುದ್ದಿಗಾಗಿ ಪ್ರಜಾವಾಣಿ ಟೆಲಿಗ್ರಾಂ ಚಾನೆಲ್ ಸೇರಿಕೊಳ್ಳಿ | ಪ್ರಜಾವಾಣಿ ಆ್ಯಪ್ ಇಲ್ಲಿದೆ: ಆಂಡ್ರಾಯ್ಡ್ | ಐಒಎಸ್ | ನಮ್ಮ ಫೇಸ್‌ಬುಕ್ ಪುಟ ಫಾಲೋ ಮಾಡಿ.

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT