ד"ר טימניט גברו, חוקרת בכירה ומוערכת בתחום הבינה המלאכותית, פוטרה באופן פתאומי מגוגל בעקבות מחלוקת סביב מאמר אקדמי שהייתה שותפה לכתיבתו. בענקית הטכנולוגיה טענו כי המאמר לא היה ראוי לפרסום, אך הנושא שבו עסק - מודלים של שפה והסיכונים הכרוכים בהם - מלמד כי פרסומו היה עשוי להביך את החברה.
גברו, שנולדה באתיופיה להורים אריתראים וקיבלה תואר ד"ר מאוניברסיטת סטנפורד בשנת 2017, נחשבת לאחת החוקרות החשובות בתחום ההטיה בבינה המלאכותית. בשנת 2018 היא הייתה שותפה לפרסומו של מאמר שנחשב לפורץ דרך, שבו הצביעה על כך שטכנולוגיות לזיהוי פנים מתקשות לזהות נשים ואנשים כהי עור - ולכן עשויות לגרום לאפליה שלהם. היא גם נמנית על המייסדים של ארגון Black in AI שמטרתו להגדיל את הייצוג של אנשים שחורים בתחום הבינה המלאכותית.
המחלוקת של גברו עם גוגל החלה בנובמבר, כאשר החוקרת הגישה לבחינה פנימית של החברה מאמר שתכננה לפרסם במסגרת כנס אקדמי. בחינה פנימית היא נוהל רגיל למדי בגוגל, ולפי עדויות של עובדים המטרה העיקרית היא לוודא שהמאמר לא חושף מידע רגיש של החברה. בחלק מהמקרים, כך העיד עובד לשעבר, המאמרים מתפרסמים לפני שמישהו הספיק לעבור עליהם.
מודל חיקוי
במקרה של גברו, הנושא של המאמר עשוי להסביר מדוע בגוגל חששו מהפרסום שלו: גברו, יחד עם חוקרים נוספים מגוגל ומהאקדמיה, כתבה על מודלים של שפה ותהתה האם הם גדולים מדי והאם ענקיות הטכנולוגיה עושות מספיק כדי להקטין את הסיכונים הכרוכים בהם, למשל פגיעה בסביבה (בגלל כוח המחשוב) והטיה מובנית.
מודל שפה, אם תהיתם, הוא מנגנון שמנסה לחזות רצפים של מילים. הדוגמה הבסיסית ביותר לשימוש במודל שפה היא ההשלמה האוטומטית במנועי חיפוש. מודלים מתקדמים יותר יכולים לכתוב טקסטים ארוכים על בסיס הרבה מאוד משתנים - מסמיכות מילים במשפט ועד לקונטקסט שבו הן נכתבות. המנגנון הזה הוא קריטי ליישומים שונים של בינה מלאכותית, בהם תרגום מכונה (גוגל טרנסלייט למשל) וזיהוי קולי (סירי או גוגל אסיסטנט למשל). לגוגל יש מודל שפה משלה כמובן, BERT, והוא אפילו משולב במנוע החיפוש שלה כדי לסייע בהבנת שאילתות החיפוש של המשתמשים.
גברו ועמיתיה, אגב, מדגימים את הכשלים האפשריים של המודלים הללו בעזרת אירוע שהתרחש בישראל לפני שלוש שנים: פועל פלסטיני פרסם בפייסבוק תמונה שלו ליד דחפור וכתב בערבית "בוקר טוב". הבינה המלאכותית של הרשת החברתית תרגמה את הכיתוב ל"לפגוע בהם" בעברית - והפלסטיני נעצר בחשד שתכנן פיגוע נגד ישראלים.
ובחזרה לגוגל: בחברה הודיעו לגברו שהיא תצטרך למשוך את המאמר מהכנס או להסיר ממנו את שמה ואת שמותיהם של העובדים האחרים בחברה. גברו ניסתה לנהל משא ומתן: בין היתר היא הציעה להסיר את שמה מהמאמר ובתמורה לקבל הסבר מקיף להתנגדויות כלפיו, ובנוסף דרשה שיתנהל דיון על שיפור התהליך במקרים הבאים. היא הבהירה שאם החברה תסרב לדרישתה, היא תרצה לקבוע מועד לסיום העסקתה. בגוגל דחו את הצעותיה של גברו, ולאחר שהביעה את תסכולה במייל ששלחה לעובדים אחרים, שלחו לצוות שלה מייל שבו הודיעו כי הם מקבלים את התפטרותה. הגישה שלה למערכות החברה, כולל תיבת המייל שלה, נחסמה באופן מיידי.
"הרגשתי שמצנזרים אותנו", אמרה גברו למגזין Wired על ההחלטה של גוגל נגד המאמר, "אתה לא יכול כל הזמן לכתוב מאמרים שישמחו את החברה ולא יצביעו על הבעיות שקיימות. זה מנוגד למשמעות של להיות חוקר". ג'ף דין, ראש תחום הבינה המלאכותית בגוגל, אמר מאידך כי גברו "התעלמה מיותר מדי מחקר רלוונטי" במאמר שלה. "אנחנו מקבלים ומכבדים את החלטתה להתפטר מגוגל, כולנו חולקים את התשוקה שלה להפוך את הבינה המלאכותית ליותר הוגנת וצודקת", כתב.
מאז שהתפוצצה הפרשה, חתמו 1,534 עובדים בגוגל ו-2,196 תומכים חיצוניים, חלקם מהאקדמיה ומתחום ההייטק, על עצומת תמיכה בגברו. הם דורשים מגוגל להבהיר מה הוביל לסיום העסקתה ולהסביר כיצד טיפלו במאמר שכתבה. לצדה של גברו התייצב גם המנהל הישיר שלה: סמי בנג'יו כתב בפייסבוק שהוא וכל הצוות שלו בגוגל "המומים" מפיטוריה של גברו והבהיר שהוא תומך בה. כעת נראה שבפיטוריה של גברו עשו בגוגל בדיוק ההפך ממה שתכננו והעניקו למאמר שחיברה חשיפה גבוהה הרבה יותר ממה שהיה מקבל בכנס אקדמי כזה או אחר.