ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆಯನ್ನು (ಎ.ಐ) ಆಧರಿಸಿ ರೂಪಿಸಲಾಗಿರುವ ಯಾವುದೇ ಸ್ಮಾರ್ಟ್ ಸಾಧನವಿರಲಿ, ಅದು ಹೆಣ್ಣಿನ ಹೆಸರನ್ನೇ ಧ್ವನಿಸುತ್ತದೆ. ಅಮೆಜಾನ್ನ ‘ಅಲೆಕ್ಸಾ’, ಆ್ಯಪಲ್ನ ‘ಸಿರಿ’, ಎಚ್ಡಿಎಫ್ಸಿಯ ‘ಇವಾ’, ಕೋಟಕ್ನ ‘ಕಿಯಾ’, ಮೈಕ್ರೊಸಾಫ್ಟ್ನ ‘ಕೊರ್ಟಾನಾ’, ಟೇ, ಷಿಯಾಯ್ಸ್, ಸ್ಯಾಮ್ಸಂಗ್ನ ‘ಬಿಕ್ಸ್ಬಿ’ಗಳೆಲ್ಲಾ ಹೆಣ್ಣಿಗಿಡುವ ಹೆಸರುಗಳೇ. ಅಷ್ಟೇ ಏಕೆ, ಅರೇಬಿಯಾ ದೇಶದ ಗೌರವ ಪೌರತ್ವ ಪಡೆದುಕೊಂಡ ರೋಬೊ ಹ್ಯೂಮನಾಯ್ಡ್ ‘ಸೊಫಿಯಾ’ ಮತ್ತು ವಿಶ್ವದ ಪ್ರಥಮ ಚಾಟರ್ಬಾಟ್ ‘ಎಲಿಝಾ’ ಕೂಡಾ ಹೆಣ್ಣುಗಳ ಹೆಸರುಗಳೇ. ಅಪರೂಪಕ್ಕೆ ಎಂಬಂತೆ ಐಬಿಎಂನ ‘ವಾಟ್ಸನ್’ ಪುರುಷಧ್ವನಿ ಹೊಂದಿದೆ.
ಇವೆಲ್ಲಾ ನಾವು ನಮ್ಮ ದಿನನಿತ್ಯದ ಅನುಕೂಲಗಳಿಗಾಗಿ ಬಳಸುವ ವರ್ಚುವಲ್ ಅಸಿಸ್ಟೆಂಟ್ಗಳಾಗಿದ್ದು, ತಂತ್ರಜ್ಞಾನ ಕ್ಷೇತ್ರದಲ್ಲೂ ಅವುಗಳಿಗೆ ಹೆಣ್ಣಿನ ಹೆಸರಿಟ್ಟು ಅಲ್ಲೂ ಹೆಣ್ಣನ್ನು ಸೇವಕಿಯಂತೆ ಕಾಣಲಾಗಿದೆ ಎಂದು ಲಂಡನ್ ಯೂನಿವರ್ಸಿಟಿಯ ಡಾ. ನೋರಾ ಲಾಯ್ಡೇನ್ ಸಿಟ್ಟಿಗೆದ್ದಿದ್ದಾರೆ. ಇದನ್ನು ಮೊಗ್ಗಿನಲ್ಲೇ ಚಿವುಟಿ ಹಾಕಬೇಕು ಎಂದಿದ್ದಾರೆ. ಹೆಸರಷ್ಟೇ ಅಲ್ಲ, ಅವುಗಳಿಗೆ ನೀಡಲಾಗಿರುವ ಧ್ವನಿಯೂ ಹೆಣ್ಣಿನದ್ದೇ. ಇದು, ಅತ್ಯಾಧುನಿಕ ತಂತ್ರಜ್ಞಾನದ ಕಾಲದಲ್ಲೂ ಪುರುಷಪ್ರಧಾನ ವ್ಯವಸ್ಥೆಯ ದಣಿವರಿಯದ ಅಹಂಕಾರವನ್ನು ಎತ್ತಿ ತೋರಿಸುತ್ತದೆ ಎಂದಿದ್ದಾರೆ.
ನಮ್ಮ ಸಂಗಾತಿಗಳಿಗಿಂತ ಹೆಚ್ಚು ಕಾಲ ವರ್ಚುವಲ್ ಸಾಧನಗಳೊಂದಿಗೆ ಮಾತನಾಡುವ ಸಮಯ ಹೆಚ್ಚಾಗಲಿದೆ ಎಂದಿರುವ ಯುನೆಸ್ಕೊ, ಮುಂಬರುವ ದಿನಗಳಲ್ಲಿ ಇವು ಎಲ್ಲೆಲ್ಲಿಯೂ ಇರಲಿವೆ ಎಂದು ಹೇಳಿದೆ. ಹಾಗಾದಲ್ಲಿ ಹೆಣ್ಣು ಶಾಶ್ವತವಾಗಿ ಸೇವಕಿಯಾಗಿಬಿಡುತ್ತಾಳೆ ಎಂದು ಹೇಳಿರುವ ಲಿಂಗ ತಾರತಮ್ಯ ವಿರೋಧಿ ಹೋರಾಟಗಾರರು, ಉತ್ಪನ್ನ ತಯಾರಿಸುವ ಕಂಪನಿಗಳ ಧೋರಣೆ ಬದಲಾಗಬೇಕೆಂದು ಒತ್ತಾಯಿಸಿದ್ದಾರೆ.
ಈ ಬೆಳವಣಿಗೆಯನ್ನು ಸೂಕ್ಷ್ಮವಾಗಿ ಗಮನಿಸಿರುವ ಸ್ಯಾಮ್ಸಂಗ್ ತನ್ನ ‘ಬಿಕ್ಸ್ಬಿ’ಗೆ ಪುರುಷನ ಧ್ವನಿಯನ್ನು ನೀಡಿದೆಯಾದರೂ ಅದು ಉತ್ತರ ನೀಡುವ ವ್ಯವಸ್ಥೆಯಲ್ಲಿ ಮತ್ತೆ ತಾರತಮ್ಯ ಧೋರಣೆ ಅನುಸರಿಸಿದೆ. ಉದಾಹರಣೆಗೆ ‘ಲೆಟ್ ಅಸ್ ಟಾಕ್ ಡರ್ಟಿ’ (ನಾವು ಕೊಳಕು ವಿಷಯ ಮಾತನಾಡೋಣ) ಎಂದು ಕಮ್ಯಾಂಡ್ ನೀಡಿದರೆ ಜಾಗೃತವಾಗುವ ಮಹಿಳಾ ಧ್ವನಿ ‘ಐ ಡೋಂಟ್ ವಾಂಟ್ ಟು ಎಂಡ್ಅಪ್ ಆನ್ ಸಂತಾಸ್ ನಾಟಿ ಲಿಸ್ಟ್’ (ನನಗೆ ಸಂತಾನ ತಂಟೆಕೋರರ ಪಟ್ಟಿಯಲ್ಲಿರುವುದು ಬೇಡ) ಎಂಬ ಉತ್ತರ ನೀಡುತ್ತದೆ. ಅದೇ ಪ್ರಶ್ನೆಗೆ ‘ಐ ಹ್ಯಾವ್ ರೆಡ್ ದಟ್, ಸಾಯಿಲ್ ಎರೊಶನ್ ಈಸ್ ದ ರಿಯಲ್ ಡರ್ಟ್’ (ಮಣ್ಣಿನ ಸವಕಳಿಯೇ ನಿಜವಾದ ಕೊಳಕು) ಎಂದುತ್ತರಿಸುವ ಪುರುಷ ಧ್ವನಿ, ಪ್ರಶ್ನೆಯ ಸಹಜಾರ್ಥವನ್ನು ಜಾಣತನದಿಂದ ಮರೆಮಾಚಿ ಪ್ರಾಜ್ಞನಂತೆ ಉತ್ತರಿಸುತ್ತದೆ.
ಒಮ್ಮೆ ಅಮೆಜಾನ್ನ ಮಾನವ ಸಂಪನ್ಮೂಲ ವಿಭಾಗದಲ್ಲಿ ಎಚ್.ಆರ್. ಕೆಲಸ ಮಾಡಲು ನಿಯೋಜಿಸಲಾಗಿದ್ದ ಎ.ಐ ಆಧಾರಿತ ತತ್ರಾಂಶವೊಂದು, ಉದ್ಯೋಗಕ್ಕೆ ಅರ್ಜಿ ಸಲ್ಲಿಸಿದ ಹೆಣ್ಣು ಮಕ್ಕಳ ಅರ್ಜಿಗಳನ್ನೆಲ್ಲಾ ಪಕ್ಕಕ್ಕೆ ತಳ್ಳಿ, ಕೇವಲ ಪುರುಷರ ಅರ್ಜಿಗಳಿಗೆ ಮನ್ನಣೆ ನೀಡಿ ಸಂದರ್ಶನಕ್ಕೆ ಹಾಜರಾಗಲು ಸಂದೇಶ ರವಾನಿಸಿತ್ತು. ಮಹಿಳೆ, ಹುಡುಗಿ, ಗರ್ಲ್ಸ್ ಸ್ಕೂಲ್ ಎಂಬ ಪದಗಳಿದ್ದ ಅರ್ಜಿಗಳೆಲ್ಲಾ ಸಾರಾಸಗಟಾಗಿ ತಿರಸ್ಕೃತವಾಗಿದ್ದವು!
ಇದಕ್ಕೆ ಮುಖ್ಯ ಕಾರಣ, ಕೃತಕ ಬುದ್ಧಿಮತ್ತೆ ಕ್ಷೇತ್ರದಲ್ಲಿ ಕೆಲಸ ಮಾಡುವವರಲ್ಲಿ ಮಹಿಳೆಯರ ಪ್ರಮಾಣ ಕೇವಲ ಶೇ 22ರಷ್ಟಿರುವುದು. ಲಿಸ್ಬನ್ ಯೂನಿವರ್ಸಿಟಿಯ ಭಾಷಾ ತಜ್ಞೆ ಹೆಲೆನಾ ಮೋನಿಜ್, ಭಾಷೆಯ ಪ್ರಾಥಮಿಕ ಬಳಕೆಯಲ್ಲಿರುವ ತಪ್ಪನ್ನು ಸರಿಪಡಿಸಿದಾಗ ಮಾತ್ರ ಇಂತಹ ಅಪಸವ್ಯವನ್ನು ನಿವಾರಿಸಬಹುದು ಎನ್ನುತ್ತಾರೆ. ಉದಾಹರಣೆಗೆ, ಗಂಡಸಿಗೆ ‘ಫ್ಯಾಮಿಲಿಮ್ಯಾನ್’ ಎಂಬ ವಿಶಾಲ ಅರ್ಥ ಸೂಚಿಸುವ ಪದ ಬಳಸುತ್ತೇವೆ. ಆದರೆ ಹೆಣ್ಣಿಗೆ ‘ಫ್ಯಾಮಿಲಿವುಮನ್’ ಎನ್ನುವುದಿಲ್ಲ. ಜೋಡಿಯಲ್ಲಿರುವವರ ಲಿಂಗ ಗುರುತಿಸುವಾಗ ಮಗ ಮತ್ತು ಮಗಳು, ಗಂಡ ಮತ್ತು ಹೆಂಡತಿ, ಹುಡುಗ ಮತ್ತು ಹುಡುಗಿ ಹಾಗೂ ಗೌರವಸೂಚಕ ಪದಗಳಾದ ಮಿಸ್ಟರ್ ಮತ್ತು ಮಿಸ್ಟ್ರೆಸ್ ಎಲ್ಲದರಲ್ಲೂ ಪುರುಷಲಿಂಗವನ್ನೇ ಮೊದಲು ಬರೆಯಲಾಗುತ್ತದೆ.
ಹೆಸರಿಸುವಾಗ ಮಾತ್ರವಲ್ಲ, ಮುಖಚಹರೆ ಪತ್ತೆ ಮಾಡುವಲ್ಲೂ ಎ.ಐ ಸಾಧನಗಳು ತಾರತಮ್ಯ ಮಾಡುವುದು ಬಯಲಾಗಿದೆ. ಪುರುಷರ ಮುಖಗಳನ್ನು ಸರಾಗವಾಗಿ ಗುರುತಿಸುವ ಯಂತ್ರಗಳು, ಮಹಿಳೆಯರ ವಿಷಯದಲ್ಲಿ ಬಹಳ ತಪ್ಪು ಮಾಡುತ್ತವೆ. ಇದು ಮುಖದ ಬಣ್ಣಕ್ಕೂ ಅನ್ವಯಿಸುತ್ತದೆ. ಗೌರವ ವರ್ಣದವರನ್ನು ಗುರುತಿಸುವಾಗ ಆಗುವ ತಪ್ಪು ಶೇ 1ರಷ್ಟಿದ್ದರೆ, ಗಾಢಕಪ್ಪು ವರ್ಣದವರ ವಿಷಯದಲ್ಲಿ ಅದು ಶೇ 35ರಷ್ಟಿದೆ.
ಗಾರ್ಟ್ನರ್ ವರದಿಯು, ಅಗತ್ಯ ದತ್ತಾಂಶದ ಕೊರತೆಯಿಂದ 2022ರವರೆಗೂ ಬಹುತೇಕ ಎ.ಐ ಸಾಧನಗಳ ಫಲಿತಾಂಶಗಳು ತಪ್ಪಿನಿಂದ ಕೂಡಿರುತ್ತವೆ ಮತ್ತು ಲಿಂಗ ತಾರತಮ್ಯ ಮಾಡುತ್ತವೆ ಎಂದು ಹೇಳಿದೆ.
ಇದನ್ನು ನಿವಾರಿಸಲು ಹೆಚ್ಚಿನ ಸಂಖ್ಯೆಯ ಮಹಿಳೆಯರನ್ನು ಎ.ಐ ತಂತ್ರಜ್ಞಾನ ಕ್ಷೇತ್ರಕ್ಕೆ ಕರೆತರಬೇಕು ಮತ್ತು ಎ.ಐನ ಕ್ರಮಾವಳಿಗಳು ದತ್ತಾಂಶವನ್ನು ಅವಲಂಬಿಸಿ ಕೆಲಸ ಮಾಡುತ್ತವೆಯಾದ್ದರಿಂದ, ಮಹಿಳೆಯರಿಗೆ ಸಂಬಂಧಿಸಿದ ಎಲ್ಲ ಬಗೆಯ ದತ್ತಾಂಶಗಳನ್ನೂ ಕ್ರೋಡೀಕರಿಸಿ ಫೀಡ್ ಮಾಡಿರಬೇಕು.
ಪ್ರಜಾವಾಣಿ ಆ್ಯಪ್ ಇಲ್ಲಿದೆ: ಆಂಡ್ರಾಯ್ಡ್ | ಐಒಎಸ್ | ವಾಟ್ಸ್ಆ್ಯಪ್, ಎಕ್ಸ್, ಫೇಸ್ಬುಕ್ ಮತ್ತು ಇನ್ಸ್ಟಾಗ್ರಾಂನಲ್ಲಿ ಪ್ರಜಾವಾಣಿ ಫಾಲೋ ಮಾಡಿ.