מנכ"ל גוגל, סונדר פיצ'אי, התייחס אמש (יום ד') לראשונה לפיטוריה של חוקרת הבינה המלאכותית ד"ר טימניט גברו שמסעירים את ענקית הטכנולוגיה בימים האחרונים. "עלינו לקבל אחריות לכך שמנהיגה שחורה בולטת עם כישרון עצום עזבה את גוגל בעצב", כתב פיצ'אי במייל שנשלח לעובדים.
פיצ'אי לא הכיר בכך שהחוקרת פוטרה - בגוגל טוענים שהיא התפטרה - אבל כתב כי "עלינו לבחון את הנסיבות שהובילו לעזיבתה של ד"ר גברו ולבדוק היכן היינו יכולים להשתפר ולנהל תהליך מכובד יותר". הוא גם הביע צער על כך שבעקבות הפרשה חלק מהעובדים "מטילים ספק" במקומם בחברה.
ההודעה של פיצ'אי לא הצליחה לפייס את גברו: היא מחתה על הניסיון להציג אותה כ"אישה שחורה כועסת" וציינה כי פיצ'אי לא כתב "'אני מצטער על מה שעשינו לה, זה היה לא בסדר'. הוא כן כתב ש'זה זרע ספק וגרם לאנשים בקהילה שלנו להטיל ספק בכך שמקומם בגוגל'. אז אני מפרשת את זה כ'אני מצטער על איך שזה התפתח, אבל אני לא מצטער על מה שעשינו לה עדיין'".
ד"ר גברו, שנולדה באתיופיה להורים אריתראים, היא אחת החוקרות המוערכות בתחום האתיקה של הבינה המלאכותית. היא חתומה על מאמר פורץ דרך מ-2018 שהצביע על כך שמערכות לזיהוי פנים מתקשות לזהות שחורים ונשים, מה שעלול להוביל לאפליה נגדם. השבוע היא חשפה כי פוטרה מענקית הטכנולוגיה בעקבות מחלוקת סביב מאמר אקדמי שהייתה שותפה לכתיבתו.
בגוגל טענו שהמאמר, שעוסק במודלים של שפה, אינו ראוי לפרסום, ודרשו שגברו תמשוך אותו מכנס אקדמי שאליו נשלח - או שתסיר ממנו את שמה. גברו ניסתה לנהל משא ומתן עם החברה והודיעה כי אם דרישותיה לא ייענו, היא תרצה לתאם מועד לסיום העסקתה. בגוגל דחו את ההצעות שלה, וכאשר מתחה ביקורת על החברה במייל ששלחה לעובדים אחרים, היא פוטרה באופן פתאומי והגישה שלה למערכות החברה נחסמו.
עצומה עם אלפי תומכים
בעקבות הפיטורים, נפתחה ברשת עצומת תמיכה בגברו שעליה חתמו אלפים, בהם יותר מ-2,000 עובדים בגוגל. החותמים דורשים מהחברה להבהיר מה הוביל לסיום העסקתה ולהסביר כיצד טיפלה במאמר. גם המנהל הישיר של גברו, סמי בנג'יו, פרסם בפייסבוק פוסט שבו הבהיר כי הוא עומד לצדה וכי הוא וכל הצוות שלו נדהמו מפיטוריה. חוקרים בקהילה האקדמית הדפו את טענות גוגל על כך שהמאמר אינו עומד בסטנדרטים האקדמיים ואמרו כי מדובר בעבודה מקיפה אשר מסתמכת בעיקר על מאמרים קודמים.
עובדים בגוגל טוענים כי הליך האישור הפנימי של מאמרים אקדמיים לא נועד לבדוק את האיכות שלהם, אלא לוודא שהם אינם חושפים מידע רגיש. המאמר של גברו, אמרו עמיתיה, קיבל אישור זמן קצר אחרי שהוגש ורק בהמשך חזרה בה החברה מהאישור.
נושא המאמר עשוי להצביע על הסיבה לכך שגוגל ניסתה להרחיק את עצמה ממנו: מודלים של שפה הם מנגנונים מבוססי בינה מלאכותית שמטרתם לחזות רצפים של מילים. המנגנונים הללו משולבים ביישומים רבים ומוכרים, ממנועי חיפוש ועד לסייעות קוליות ושירותי תרגום אוטומטיים. גוגל, כמו ענקיות טכנולוגיה אחרות, פיתחה מודל שפה משלה בשם BERT ובשנה שעברה היא שילבה אותו במנוע החיפוש שלה כדי לסייע בהבנת שאילתות של המשתמשים.
גברו ועמיתיה כתבו על הסיכונים הכרוכים במודלים מהסוג הזה בדיוק: בין היתר הם צורכים כמות עצומה של אנרגיה ופוגעים בסביבה, הם עלולים לשקף הטיה נגד אוכלוסיות ומיעוטים בהתאם לדאטה שעליו התאמנו, הם עשויים להפיץ תיאוריות קונספירציה ופייק ניוז והם לא מייצגים אוכלוסיות שלמות שאין להן גישה לאינטרנט. עם זאת, טום סימונייט, כתב מגזין Wired שקרא את המאמר המלא, טוען כי לא מופיעות בו האשמות ספציפיות נגד גוגל והוא לא מנוסח באופן שהיה אמור לגרום מבוכה לחברה.