השפעתה הרחבה והדרמטית של הבינה המלאכותית הגיעה גם לשוק העבודה. בשנים האחרונות, יותר ויותר מעסיקים עושים שימוש בצ'אט GPT באיתור, מיון והשמה של מועמדים לעבודה. הצ'אט מדמה צוות משאבי אנוש שמגייס את העובדים והעובדות המתאימים לתפקיד בחברה. מעסיקים החלו להשתמש בצ'אט בניסוח מודעות דרושים וכיום השימוש בצ'אט הפך לאמצעי מרכזי לסינון קורות חיים וניתוח ראיונות עבודה.
להשפעה זו יש יתרונות אדירים כמו ייעול תהליך הגיוס ומציאת מועמדים רלוונטיים. מנגד, מערכות אלו מוציאים את האינטואיציה ושיקול הדעת האנושי בבחירת מועמד ראוי לתפקיד, לטובה ולרעה, מה שיכול להוביל לפגיעה באוכלוסיות מוחלשות, כגון, אנשים עם מוגבלויות.
כבר היום אנשים עם מוגבלויות משתלבים בשיעורים נמוכים יותר בשוק העבודה בהשוואה לאנשים ללא מוגבלויות, ונאלצים להתמודד עם אפליה מערכתית מתמשכת בתחום התעסוקה. פערים אלו מתקיימים על אף קיומן של הגנות משפטיות שנועדו לצמצם את חוסר השוויון ולהבטיח שוויון הזדמנויות, כמו החוק הפדרלי בארצות הברית לאנשים עם מוגבלויות (ADA). החוק אוסר על אפליה של מועמדים עם מוגבלויות הן בתהליכי מיון וגיוס והן במהלך תקופת העבודה. מעסיקים העוברים על הוראות החוק עלולים לעמוד בפני סנקציות משפטיות.
כשהבינה המלאכותית מפלה אנשים עם מוגבלויות
בארה"ב, השימוש בכלי בינה מלאכותית הפך לתופעה נפוצה, וכבר ישנן מספר דוגמאות לאופן שבו הבינה המלאכותית מציגה הטיה ואפליה אפשרית בתהליך הגיוס, בין היתר כלפי אנשים עם מוגבלויות.
דוגמה אחת לכך, ניתן למצוא במקרה של חברת HireVue, חברת השמה אמריקאית מבוססת בינה מלאכותית, שמאפשרת לערוך ראיונות דיגיטליים לגיוס עובדים למקומות עבודה שונים. התוכנה בודקת האם מועמד מתאים לעבודה באמצעות בדיקה של דפוסי דיבור, טון דיבור ותנועות פנים. עם זאת, כפי שנחשף בדו"ח שנערך ע"י חוקרים בקולורדו, שיטה זו עלולה להוביל לאפליה של אנשים רבים עם מוגבלויות המתקשים בהבעת פנים ובדיבור.
בתוך כך, במרץ 2025 הוגשה תביעה על ידי האיגוד האמריקאי לחירויות אזרחיות (ACLU) נגד חברת HireVue. התביעה הוגשה בשם אישה עם מוגבלות בשמיעה שלדבריה לא קודמה לתפקיד ניהולי כיוון שמערכת HireVue לא הצליחה לפענח כראוי את דיבורה באנגלית ולא סיפקה כתוביות לכל השאלות במהלך הריאיון. התובעים טענו כי השימוש בטכנולוגיה זו הפר את החוק למניעת אפליה של מדינת קולורדו (CADA) ואת חוק הפדרלי לאנשים עם מוגבלויות (ADA) בכך שהמערכת יוצרת אפליה כלפי מועמדים עם מוגבלויות.
דוגמה נוספת מופיעה בדו"ח מחקרי של המרכז לטכנולוגיה ודמוקרטיה בארה"ב מנובמבר 2024, במחקר השתתפו 17 אנשים עם מוגבלויות שונות אשר עברו ראיונות מול תוכנה שמבוססת בינה מלאכותית.
ממצאי המחקר קבעו כי המערכת אילצה את המועמדים לחשוף פרטים על מצבם הבריאותי באופן שעלול לעמוד בניגוד לחוקים פדרליים האוסרים על בירור מידע רפואי בתהליכי גיוס ומיון לעבודה. בנוסף, המחקר מצא גם כי אלגוריתמים המנתחים הבעות פנים, טון דיבור ושפת גוף עלולים להעניק ציונים נמוכים למועמדים עם מוגבלויות, מבלי להתחשב בכך שמצבם הרפואי עשוי להשפיע על אופן התנהלותם במהלך הריאיון.
ישראל נואשת לחקיקה בנושא
גם בישראל, השימוש ב-AI הפך לנפוץ במיוחד. לפי סקר של חברת HRD שנערך בקרב נשות ואנשי גיוס בקרב 300 ארגונים, 70% מהמגייסים משתמשים בבינה מלאכותית לצורכי גיוס עובדים לעבודה. השימוש במערכות אלו מאפשר למגייסים לקבל מידע רחב יותר על המועמד, אך גם מסתמך על קבלת החלטות מלאכותית שלא בהכרח לוקחת בחשבון את כל המשתנים הרלוונטיים.
משכך, מערכות אלו עלולות להרע עם עובדים בעלי מוגבלויות מוטוריות כמו אוטיזם או טורט, שגורמות להפרעות בהבעת הפנים ובשפת גוף, אך לא בהכרח מצביעות על חוסר יכולת מקצועית. במקרים אלה, המערכת עשויה להיות מושפעת מהטיות, שיכולות להוביל לאפליה של ממש.
איך מתקדמים לעידן ה-AI מבלי לפגוע בזכויות מועמדים?
אמנם, השימוש בבינה מלאכותית בתהליכי גיוס עובדים מעניק יתרונות רבים. בקרב התומכים עולה טענה כי בניגוד למגייסים אנושיים, המערכת לא מערבת שיקולים אנושיים בבחירת מועמד לתפקיד והיא אף מסוגלת לראות כישורים שנמצאים אצל המועמד שמגייסים בשר ודם עלולים לפספס.
באמצעות הבינה המלאכותית מגייסים יכולים להגדיר בצורה מדויקת יותר את הדרישות לתפקיד ולקבל החלטות מושכלות יותר. עם זאת, על אף היתרונות הגלומים בבינה מלאכותית, אין להסתמך עליה באופן מוחלט.
על חברות המשתמשות בתוכנות מבוססות בינה מלאכותית לגיוס עובדים להבטיח כי יהיה ניתן להציג ולבחון את תהליך קבלת ההחלטות של המערכת, כך שיוכלו להבין כיצד הגיעה למסקנותיה.
מעבר לכך, כדי להימנע מאפליה של אנשים עם מוגבלויות, על המעסיקים לבצע מעקב תקופתי אחר המערכת, ולוודא שלא התפתחה בה הטיה כלפי קבוצה מסוימת.
בנוסף, ואולי חשוב מכל, יש להימנע מהסתמכות מוחלטת על המערכות. הן אמנם מספקות לנו כלים נהדרים לייעול תהליכים, אך הן לא נועדו להחליף אותנו או להחליט בשבילנו. לכן, יש להפעיל שיקול דעת אנושי בתהליך קבלת ההחלטות ולא להסתמך בצורה עיוורת על החלטות מלאכותיות.
מאי כהן היא סטודנטית בפרויקט "מעבדולוגיה" של הפקולטה למשפטים במכללה למינהל.