מחקר חדש של UNESCO: עוזרים דיגיטליים מבוססי-קול ובינה מלאכותית (AI-powered voice assistants) המשמיעים קולות נשיים מנציחים הטיות מגדריות (gender biases) מזיקות

09:16 24.05.2019

קטגוריות: נשים, פער מגדרי

I’d blush if I could: closing gender divides in digital skills through education, מחקר חדש של ארגון החינוך, המדע והתרבות של האומות המאוחדות אונסקו [United Nations Educational, Scientific and Cultural Organization, UNESCO] קובע כי עוזרים דיגיטליים מבוססי-קול ובינה מלאכותית (AI-powered voice assistants) המשמיעים קולות נשיים מנציחים הטיות מגדריות (gender biases) מזיקות.

לדברי עורכי הדו”ח, הדבר מעיד כביכול על ‘מחוייבות ולהיטות לרצות (to please)’ מה שמחזק את הרעיון המסולף כאילו נשים הן ‘כנועות’.

בפתח הדו”ח נכתב כי שם הדו”ח לקוח מהתשובה שנותנת Siri  כאשר משתמש אנושי אומר לה Hey Siri, you’re a bitch. באפריל 2019 התוכנה המפעילה את סירי עודכנה כך שתענה לביטוי כזה באומרה:  I don’t know how to respond to that.

לדברי עורכי הדו”ח, ההתנהגות המתרפסת של סירי – תופעה הקיימת גם בסייענים דיגיטליים אחרים המוצגים כנשים צעירות – “מספקת המחשה רבת עוצמה של הטיות מגדריות המשובצות במוצרים טכנולוגיית ונפוצה במגזר הטכנולוגי וככל הנראה בחינוך למיומנויות דיגיטליות. הפרסום הזה מבקש לחשוף מקצת מההטיות הללו”.