ಮಂಗಳವಾರ, ಜನವರಿ 21, 2020
23 °C
ವರ್ಚುವಲ್‌ ಸಾಧನಗಳಿಗೆ ಹೆಣ್ಣಿನ ಹೆಸರಿಟ್ಟು, ಅಲ್ಲೂ ಆಕೆಯನ್ನು ಸೇವಕಿಯಂತೆ ಕಾಣಲಾಗಿದೆ

ಸ್ಮಾರ್ಟ್‌ ಸಾಧನದಲ್ಲೂ ತಾರತಮ್ಯ!

ಗುರುರಾಜ್ ಎಸ್. ದಾವಣಗೆರೆ Updated:

ಅಕ್ಷರ ಗಾತ್ರ : | |

Prajavani

ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯನ್ನು (ಎ.ಐ) ಆಧರಿಸಿ ರೂಪಿಸಲಾಗಿರುವ ಯಾವುದೇ ಸ್ಮಾರ್ಟ್ ಸಾಧನವಿರಲಿ, ಅದು ಹೆಣ್ಣಿನ ಹೆಸರನ್ನೇ ಧ್ವನಿಸುತ್ತದೆ. ಅಮೆಜಾನ್‍ನ ‘ಅಲೆಕ್ಸಾ’, ಆ್ಯಪಲ್‍ನ ‘ಸಿರಿ’, ಎಚ್‍ಡಿಎಫ್‍ಸಿಯ ‘ಇವಾ’, ಕೋಟಕ್‍ನ ‘ಕಿಯಾ’, ಮೈಕ್ರೊಸಾಫ್ಟ್‌ನ ‘ಕೊರ್ಟಾನಾ’, ಟೇ, ಷಿಯಾಯ್ಸ್, ಸ್ಯಾಮ್‍ಸಂಗ್‍ನ ‘ಬಿಕ್ಸ್‌ಬಿ’ಗಳೆಲ್ಲಾ ಹೆಣ್ಣಿಗಿಡುವ ಹೆಸರುಗಳೇ. ಅಷ್ಟೇ ಏಕೆ, ಅರೇಬಿಯಾ ದೇಶದ ಗೌರವ ಪೌರತ್ವ ಪಡೆದುಕೊಂಡ ರೋಬೊ ಹ್ಯೂಮನಾಯ್ಡ್ ‘ಸೊಫಿಯಾ’ ಮತ್ತು ವಿಶ್ವದ ಪ್ರಥಮ ಚಾಟರ್‍ಬಾಟ್ ‘ಎಲಿಝಾ’ ಕೂಡಾ ಹೆಣ್ಣುಗಳ ಹೆಸರುಗಳೇ. ಅಪರೂಪಕ್ಕೆ ಎಂಬಂತೆ ಐಬಿಎಂನ ‘ವಾಟ್ಸನ್’ ಪುರುಷಧ್ವನಿ ಹೊಂದಿದೆ.

ಇವೆಲ್ಲಾ ನಾವು ನಮ್ಮ ದಿನನಿತ್ಯದ ಅನುಕೂಲಗಳಿಗಾಗಿ ಬಳಸುವ ವರ್ಚುವಲ್ ಅಸಿಸ್ಟೆಂಟ್‍ಗಳಾಗಿದ್ದು, ತಂತ್ರಜ್ಞಾನ ಕ್ಷೇತ್ರದಲ್ಲೂ ಅವುಗಳಿಗೆ ಹೆಣ್ಣಿನ ಹೆಸರಿಟ್ಟು ಅಲ್ಲೂ ಹೆಣ್ಣನ್ನು ಸೇವಕಿಯಂತೆ ಕಾಣಲಾಗಿದೆ ಎಂದು ಲಂಡನ್ ಯೂನಿವರ್ಸಿಟಿಯ ಡಾ. ನೋರಾ ಲಾಯ್ಡೇನ್ ಸಿಟ್ಟಿಗೆದ್ದಿದ್ದಾರೆ. ಇದನ್ನು ಮೊಗ್ಗಿನಲ್ಲೇ ಚಿವುಟಿ ಹಾಕಬೇಕು ಎಂದಿದ್ದಾರೆ. ಹೆಸರಷ್ಟೇ ಅಲ್ಲ, ಅವುಗಳಿಗೆ ನೀಡಲಾಗಿರುವ ಧ್ವನಿಯೂ ಹೆಣ್ಣಿನದ್ದೇ. ಇದು, ಅತ್ಯಾಧುನಿಕ ತಂತ್ರಜ್ಞಾನದ ಕಾಲದಲ್ಲೂ ಪುರುಷಪ್ರಧಾನ ವ್ಯವಸ್ಥೆಯ ದಣಿವರಿಯದ ಅಹಂಕಾರವನ್ನು ಎತ್ತಿ ತೋರಿಸುತ್ತದೆ ಎಂದಿದ್ದಾರೆ.

ನಮ್ಮ ಸಂಗಾತಿಗಳಿಗಿಂತ ಹೆಚ್ಚು ಕಾಲ ವರ್ಚುವಲ್ ಸಾಧನಗಳೊಂದಿಗೆ ಮಾತನಾಡುವ ಸಮಯ ಹೆಚ್ಚಾಗಲಿದೆ ಎಂದಿರುವ ಯುನೆಸ್ಕೊ, ಮುಂಬರುವ ದಿನಗಳಲ್ಲಿ ಇವು ಎಲ್ಲೆಲ್ಲಿಯೂ ಇರಲಿವೆ ಎಂದು ಹೇಳಿದೆ. ಹಾಗಾದಲ್ಲಿ ಹೆಣ್ಣು ಶಾಶ್ವತವಾಗಿ ಸೇವಕಿಯಾಗಿಬಿಡುತ್ತಾಳೆ ಎಂದು ಹೇಳಿರುವ ಲಿಂಗ ತಾರತಮ್ಯ ವಿರೋಧಿ ಹೋರಾಟಗಾರರು, ಉತ್ಪನ್ನ ತಯಾರಿಸುವ ಕಂಪನಿಗಳ ಧೋರಣೆ ಬದಲಾಗಬೇಕೆಂದು ಒತ್ತಾಯಿಸಿದ್ದಾರೆ.

ಈ ಬೆಳವಣಿಗೆಯನ್ನು ಸೂಕ್ಷ್ಮವಾಗಿ ಗಮನಿಸಿರುವ ಸ್ಯಾಮ್‍ಸಂಗ್ ತನ್ನ ‘ಬಿಕ್ಸ್‌ಬಿ’ಗೆ ಪುರುಷನ ಧ್ವನಿಯನ್ನು ನೀಡಿದೆಯಾದರೂ ಅದು ಉತ್ತರ ನೀಡುವ ವ್ಯವಸ್ಥೆಯಲ್ಲಿ ಮತ್ತೆ ತಾರತಮ್ಯ ಧೋರಣೆ ಅನುಸರಿಸಿದೆ. ಉದಾಹರಣೆಗೆ ‘ಲೆಟ್ ಅಸ್ ಟಾಕ್ ಡರ್ಟಿ’ (ನಾವು ಕೊಳಕು ವಿಷಯ ಮಾತನಾಡೋಣ) ಎಂದು ಕಮ್ಯಾಂಡ್ ನೀಡಿದರೆ ಜಾಗೃತವಾಗುವ ಮಹಿಳಾ ಧ್ವನಿ ‘ಐ ಡೋಂಟ್‍ ವಾಂಟ್‌ ಟು ಎಂಡ್ಅಪ್ ಆನ್ ಸಂತಾಸ್ ನಾಟಿ ಲಿಸ್ಟ್’ (ನನಗೆ ಸಂತಾನ ತಂಟೆಕೋರರ ಪಟ್ಟಿಯಲ್ಲಿರುವುದು ಬೇಡ) ಎಂಬ ಉತ್ತರ ನೀಡುತ್ತದೆ. ಅದೇ ಪ್ರಶ್ನೆಗೆ ‘ಐ ಹ್ಯಾವ್ ರೆಡ್ ದಟ್, ಸಾಯಿಲ್ ಎರೊಶನ್ ಈಸ್ ದ ರಿಯಲ್ ಡರ್ಟ್’ (ಮಣ್ಣಿನ ಸವಕಳಿಯೇ ನಿಜವಾದ ಕೊಳಕು) ಎಂದುತ್ತರಿಸುವ ಪುರುಷ ಧ್ವನಿ, ಪ್ರಶ್ನೆಯ ಸಹಜಾರ್ಥವನ್ನು ಜಾಣತನದಿಂದ ಮರೆಮಾಚಿ ಪ್ರಾಜ್ಞನಂತೆ ಉತ್ತರಿಸುತ್ತದೆ.

ಒಮ್ಮೆ ಅಮೆಜಾನ್‍ನ ಮಾನವ ಸಂಪನ್ಮೂಲ ವಿಭಾಗದಲ್ಲಿ ಎಚ್.ಆರ್. ಕೆಲಸ ಮಾಡಲು ನಿಯೋಜಿಸಲಾಗಿದ್ದ ಎ.ಐ ಆಧಾರಿತ ತತ್ರಾಂಶವೊಂದು, ಉದ್ಯೋಗಕ್ಕೆ ಅರ್ಜಿ ಸಲ್ಲಿಸಿದ ಹೆಣ್ಣು ಮಕ್ಕಳ ಅರ್ಜಿಗಳನ್ನೆಲ್ಲಾ ಪಕ್ಕಕ್ಕೆ ತಳ್ಳಿ, ಕೇವಲ ಪುರುಷರ ಅರ್ಜಿಗಳಿಗೆ ಮನ್ನಣೆ ನೀಡಿ ಸಂದರ್ಶನಕ್ಕೆ ಹಾಜರಾಗಲು ಸಂದೇಶ ರವಾನಿಸಿತ್ತು. ಮಹಿಳೆ, ಹುಡುಗಿ, ಗರ್ಲ್ಸ್‌ ಸ್ಕೂಲ್ ಎಂಬ ಪದಗಳಿದ್ದ ಅರ್ಜಿಗಳೆಲ್ಲಾ ಸಾರಾಸಗಟಾಗಿ ತಿರಸ್ಕೃತವಾಗಿದ್ದವು!

ಇದಕ್ಕೆ ಮುಖ್ಯ ಕಾರಣ, ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಕ್ಷೇತ್ರದಲ್ಲಿ ಕೆಲಸ ಮಾಡುವವರಲ್ಲಿ ಮಹಿಳೆಯರ ಪ್ರಮಾಣ ಕೇವಲ ಶೇ 22ರಷ್ಟಿರುವುದು. ಲಿಸ್ಬನ್ ಯೂನಿವರ್ಸಿಟಿಯ ಭಾಷಾ ತಜ್ಞೆ ಹೆಲೆನಾ ಮೋನಿಜ್, ಭಾಷೆಯ ಪ್ರಾಥಮಿಕ ಬಳಕೆಯಲ್ಲಿರುವ ತಪ್ಪನ್ನು ಸರಿಪಡಿಸಿದಾಗ ಮಾತ್ರ ಇಂತಹ ಅಪಸವ್ಯವನ್ನು ನಿವಾರಿಸಬಹುದು ಎನ್ನುತ್ತಾರೆ. ಉದಾಹರಣೆಗೆ, ಗಂಡಸಿಗೆ ‘ಫ್ಯಾಮಿಲಿಮ್ಯಾನ್’ ಎಂಬ ವಿಶಾಲ ಅರ್ಥ ಸೂಚಿಸುವ ಪದ ಬಳಸುತ್ತೇವೆ. ಆದರೆ ಹೆಣ್ಣಿಗೆ ‘ಫ್ಯಾಮಿಲಿವುಮನ್’ ಎನ್ನುವುದಿಲ್ಲ. ಜೋಡಿಯಲ್ಲಿರುವವರ ಲಿಂಗ ಗುರುತಿಸುವಾಗ ಮಗ ಮತ್ತು ಮಗಳು, ಗಂಡ ಮತ್ತು ಹೆಂಡತಿ, ಹುಡುಗ ಮತ್ತು ಹುಡುಗಿ ಹಾಗೂ ಗೌರವಸೂಚಕ ಪದಗಳಾದ ಮಿಸ್ಟರ್ ಮತ್ತು ಮಿಸ್ಟ್ರೆಸ್ ಎಲ್ಲದರಲ್ಲೂ ಪುರುಷಲಿಂಗವನ್ನೇ ಮೊದಲು ಬರೆಯಲಾಗುತ್ತದೆ.

ಹೆಸರಿಸುವಾಗ ಮಾತ್ರವಲ್ಲ, ಮುಖಚಹರೆ ಪತ್ತೆ ಮಾಡುವಲ್ಲೂ ಎ.ಐ ಸಾಧನಗಳು ತಾರತಮ್ಯ ಮಾಡುವುದು ಬಯಲಾಗಿದೆ. ಪುರುಷರ ಮುಖಗಳನ್ನು ಸರಾಗವಾಗಿ ಗುರುತಿಸುವ ಯಂತ್ರಗಳು, ಮಹಿಳೆಯರ ವಿಷಯದಲ್ಲಿ ಬಹಳ ತಪ್ಪು ಮಾಡುತ್ತವೆ. ಇದು ಮುಖದ ಬಣ್ಣಕ್ಕೂ ಅನ್ವಯಿಸುತ್ತದೆ. ಗೌರವ ವರ್ಣದವರನ್ನು ಗುರುತಿಸುವಾಗ ಆಗುವ ತಪ್ಪು ಶೇ 1ರಷ್ಟಿದ್ದರೆ, ಗಾಢಕಪ್ಪು ವರ್ಣದವರ ವಿಷಯದಲ್ಲಿ ಅದು ಶೇ 35ರಷ್ಟಿದೆ.

ಗಾರ್ಟ್‌ನರ್‌ ವರದಿಯು, ಅಗತ್ಯ ದತ್ತಾಂಶದ ಕೊರತೆಯಿಂದ 2022ರವರೆಗೂ ಬಹುತೇಕ ಎ.ಐ ಸಾಧನಗಳ ಫಲಿತಾಂಶಗಳು ತಪ್ಪಿನಿಂದ ಕೂಡಿರುತ್ತವೆ ಮತ್ತು ಲಿಂಗ ತಾರತಮ್ಯ ಮಾಡುತ್ತವೆ ಎಂದು ಹೇಳಿದೆ.

ಇದನ್ನು ನಿವಾರಿಸಲು ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಮಹಿಳೆಯರನ್ನು ಎ.ಐ ತಂತ್ರಜ್ಞಾನ ಕ್ಷೇತ್ರಕ್ಕೆ ಕರೆತರಬೇಕು ಮತ್ತು ಎ.ಐನ ಕ್ರಮಾವಳಿಗಳು ದತ್ತಾಂಶವನ್ನು ಅವಲಂಬಿಸಿ ಕೆಲಸ ಮಾಡುತ್ತವೆಯಾದ್ದರಿಂದ, ಮಹಿಳೆಯರಿಗೆ ಸಂಬಂಧಿಸಿದ ಎಲ್ಲ ಬಗೆಯ ದತ್ತಾಂಶಗಳನ್ನೂ ಕ್ರೋಡೀಕರಿಸಿ ಫೀಡ್ ಮಾಡಿರಬೇಕು.

ಪ್ರತಿಕ್ರಿಯಿಸಿ (+)