top of page

כשאינטיליגנציה מלאכותית (AI) מתגלה כלא כל-כך אינטיליגנטית

עודכן: 16 באפר׳

טימניט גברו, חוקרת הטיות של אלגוריתמים ואתיקה בתחום האינטליגנציה הממוחשבת, מספרת כי שנת 2021 היתה עבורה -בלשון המעטה- נוראית. בדצמבר של שנת 2020 המדענית הבכירה והמוערכת, איבדה בפתאומיות את עבודתה בגוגל לאחר אי הסכמות מול ענקית הטכנולוגיה על עבודתה בהליך פיטורים מתוקשר ומייגע.

 

גברו הצטרפה לגוגל ב-2018, שם היא הובילה את צוות הבינה המלאכותית האתית של החברה עם מרגרט מיטשל. לזוג היה מוניטין של יצירת סביבה תומכת עבור חוקרים שחורים בחברה, שבה 1.6% מהחוקרים (כיום 1.8%) היו נשים שחורות. הצוות חקר את הנזקים הפוטנציאליים של בינה מלאכותית, עזר לצוותי המוצרים של גוגל לחשוב על הסיכונים החברתיים של הטכנולוגיות שלהם.

 

ההדחה המתוקשרת זעזעה רבים, ואלפי חוקרים ומדענים (כולל כאלה מתוך החברה) התגייסו לתמוך בה, והעצימו את חששותיה הקיימים בנוגע לאפליה נגד שחורים בבינה מלאכותית, ולנזקים שהטכנולוגיה עלולה לגרום לקבוצות מודרות בחברה. רעשים נוספים עלו בנוגע למחויבותה של גוגל לשמירה על אתיקה אתנית בעקבות צנזורה שהוטלה על חלק מהמידע אודות פיטוריה של גברו. 

 

גברו, שנולדה באתיופיה להורים אריתראים וקיבלה תואר ד"ר מאוניברסיטת סטנפורד בשנת 2017, נחשבת לאחת החוקרות החשובות בתחום ההטיה בבינה המלאכותית. היא נמנית על המייסדים של ארגון Black in AI שמטרתו להגדיל את הייצוג של אנשים שחורים בתחום הבינה המלאכותית, ובשנת 2018 היא הייתה שותפה לפרסומו של מאמר שנחשב לפורץ דרך, שבו הצביעה על כך שטכנולוגיות לזיהוי פנים מתקשות לזהות נשים ואנשים כהי עור - ולכן עשויות לגרום לאפליה שלהם (יפורט בהמשך).

 

זיהוי מוטעה של אוכלוסיות שוליים

 

על רקע המהומות בארה״ב לאחר מותו של ג׳ורג׳ פלויד בשנת 2020 מחקרה של גברו יחד עם החוקרת ג׳וי בולאמויני (Buolamwini), במקור מגאנה, הביא לתגלית שהרעישה את עולם הבינה המלאכותית.

במחקר נבחנו כמעט 200 אלגוריתמים לזיהוי פנים, שיוצרו על-ידי 99 חברות מובילות וארגונים. אלגוריתמים אלה מהווים יחד את החלק הארי של טכנולוגיות לזיהוי פנים הנמצאות בשימוש ברחבי העולם. 

הממצא הבולט של המחקר: מערכות לזיהוי פנים טעו בזיהוי פניהם של אפרו-אמריקאים ואסיאתים פי עשרה עד מאה פעמים יותר לעומת פניהם של לבנים. אחוז הטעויות הגבוה ביותר נרשם בזיהוי של ילידים-אמריקאים (אינדיאנים). בנוסף נמצא כי אלגוריתמים מתקשים יותר בזיהוי של נשים על פני גברים, וכן בזיהוי של אנשים מעל גיל המעבר. 

מקרה מפורסם דומה קרה בשנת 2014, אז אלגוריתם לזיהוי פנים של ״גוגל תמונות״ תייג אישה שחורה כגורילה, אולם לא מוכרחים להרחיק עד אמריקה. ב-2017 נעצר פועל פלסטיני, לאחר שהעלה לפייסבוק תמונה שבה הוא נראה מצולם מחזיק כוס קפה של בוקר ועומד ליד בולדוזר באתר בנייה. הוא הוסיף כיתוב "בוקר טוב לכם" בערבית, שתורגם (באמצעות מכונה) ל"פגעו בהם" בעברית, והמשטרה נכנסה לפעולה עוד לפני ששוטר דובר ערבית הספיק להציץ בכיתוב המקורי.

 

המקרים האלה מחדדים את השכפול המובנה של הנטיות האנושיות אל תוך אמצעים טכנולוגיים מתקדמים. התפיסה שלנו של "מכונה" - היא של יישות אובייקטיבית לחלוטין, אבל האמת היא שאלגוריתמים וטכנולוגיות של בינה מלאכותית עמוסים בהטיות מסוכנות, משום שהם מתוכננים ומעוצבים על-ידי בני אדם בשר ודם.

בשורה התחתונה- מאפיינים כמו מגדר, גזע, וגיל, ואף הטיות לשוניות - מובילים לקבלת תוצאות שגויות - ומכאן לזיהוי מוטעה של אוכלוסיות שלמות.

 

פנינו לאן?

 

התגלית של גברו ובולאמויני התפשטה כמו אש בשדה קוצים וזכתה לסקירות, מאמרים ומחקרים מקיפים- וגברו ובולאמויני אף זומנו להרצות בכנסים מסביב לעולם אודות התגלית הרועשת.

 

הצצה נוספת למחקר, שהביאה לחשיפה גדולה של הנושא היתה כאשר ענקית הסטרימיג ״נטפליקס״ החליטה לסקור את תוצאות המחקר בסרט דוקומנטרי. הסרט, שגרף תגובות רבות מסביב לעולם, הציף שאלות מדאיגות בנוגע לדרך בה אינטליגנציה ממוחשבת עובדת- האם התפישה שלנו לגבי טכנולוגיות והנורמה שלהן, הן למעשה פרי יצירתן של קבוצה מצומצמת בעלת פריבילגיות בחברה? עד כמה הדבר מסכן את החירות האישית שלנו? ולאיזה מוצרים או שימושים הטכנולוגיה הזו עתידה להתפתח? והאם יש מספיק רגולציה ופיקוח על הנושא? 

 

בסרט נטען כי לכולנו יש הטיות כאלה ואחרות- בין אם מלידה או מהסביבה בה גדלנו. ואולם, גם אם באופן בלתי מודע, ההטמעה שלהן במערכות ממוחשבות שהולכות ותופסות יותר ויותר מקום בחיי היום יום שלנו, עלולות לגרור תוצאות קטלניות המשפיעות על אוכלוסיות שלמות בחברה ואף על הדמוקרטיה כולה.

Comments


bottom of page