חברת מטא (לשעבר פייסבוק) מפרסמת הבוקר (יום ה') דו"ח עצמאי שבחן את התנהלותה במהלך מבצע שומר החומות, אחרי שספגה ביקורת רבה כי היא מצנזרת ומשתיקה משתמשים ונקודות מבט, ומהצד השני ביקורת על כך כי היא אינה מנטרת מספיק חלק מהתכנים והשאירה בפלטפורמות שלה תכנים מסיתים במהלך המבצע. הדו"ח הופק על-ידי ארגון BSR (Business for Social Responsibility), ארגון עצמאי המתמחה בזכויות אדם, שביצע בדיקת נאותות שמתמקדת בשאלת ההשפעה של מטא על זכויות אדם באזורי הסכסוך הישראלי-פלסטיני במהלך המבצע. הבדיקה נעשתה בעקבות המלצת מועצת הפיקוח של מטא.
בדו"ח נכתב כי "אין להתייחס לפעולותיה של מטא באירועי מאי 2021 באופן מבודד, אלא חייבים להבינן בהקשר של הסכסוך המתמשך", וכי "תפקידה של מטא הוא לא לשמש כבוררת בסכסוך, אלא לגבש ולאכוף מדיניות להפחתת הסיכון שהפלטפורמות שלה יחמירו את הסכסוך על ידי השתקת קולות, הגברת פערי כוחות, או מתן אפשרות להפצת תוכן שמסית לאלימות".
עוד בנושא:
הארגון הפיק שורה של מסקנות לגבי התנהלות מטא באותה תקופה, ובסך הכל 21 המלצות להמשך, כאשר בחברה מתכוונים לאמץ חלק מהן. עולה מהדו"ח כי בתקופת המבצע הייתה להתנהלות של מטא השפעה שלילית על הזכויות של משתמשים פלסטינים - ונגרמה פגיעה בחופש הביטוי, חופש ההתאספות, ההשתתפות הפוליטית שלהם ובזכות אי-האפליה. בנוסף בארגון מציינים את הדיווחים שהגיעו אליהם על תוכן אנטישמי שלא אותר והוסר במהלך המבצע, אך מאחר שמטא לא מחלקת את דברי ההסתה שהיא מאתרת הפלטפורמות שלה לסוגים שונים, אין אפשרות לעקוב לפי נתונים רשמיים אחרי היקף התוכן האנטישמי בהן.
בין היתר, הארגון פסק כי בחלק מהמקרים הוחלה אכיפת יתר לגבי תכנים שפורסמו (כלומר נמחקו גם תכנים שלא הפרו את המדיניות, או הוגבלו משתמשים שלא פרסמו תכנים כאלה), ובחלק מהמקרים אכיפת-חסר - כלומר, משתמשים שהפרו את המדיניות לא נענשו על פרסום תכנים כאלו. לפי מסקנות הדו"ח, תכנים בערבית חוו יותר אכיפת-יתר ואילו תכנים בעברית חוו יותר אכיפת-חסר, אך בשתי השפות היו מקרים לכאן ולכאן.
בנוסף, בארגון הצביעו על כך שבעברית לא היה למטא "מסווג" (Classifier) - מדובר בשיטה של ניטור תוכן באמצעות בינה מלאכותית על-ידי זיהוי ביטויים בשפה, לעומת הערבית בה היה לה מסווג. בארגון המליצו למטא להוציא מסווג גם בעברית. בחברה טענו כי הסיבה לכך שבעברית לא היה מסווג לעומת הערבית היא מאחר שנדרש מאגר גדול של דאטה כדי לאמן מערכת בינה מלאכותית כזו, ועברית היא שפה בה יש פחות תוכן זמין לשם כך. למרות זאת בחברה אמרו כי כבר אימצו את ההמלצה והצליחו להתמודד עם האתגר ולהוציא מסווג בעברית.
ב-BSR מציינים כי הסיבות לאכיפת-יתר הן ההתחייבויות החוקיות של מטא כחברה אמריקאית בכל הנוגע לארגוני טרור זרים; העובדה כי המסווגים בערבית לא בהכרח רגישים לכל ניב, ולכן עשוי להיות להם שיעור שגיאה גבוה יותר בערבית-פלסטינית; תכנים שדווחו בערבית לא בהכרח הגיעו לבודקי תוכן שמבינים את הדיאלקט; חוסר פיקוח על שינויים במדיניות התוכן (כמו החסימה של תכנים לפי האשטאג - במהלך "שומר החומות" התעוררה סערה כאשר נחסמו כל התכנים עם ההאשטאג "אל-אקצא" בשל בלבול בין שם המסגד לשם ארגון הטרור) ועוד. בסיבות לאכיפת החסר בארגון מציינים את המספר הנמוך של בודקי התוכן בערבית ובעברית שלא היו מסוגלים להתמודד עם העלייה במספר המקרים, המחסור במסווג בעברית ועוד.
בבחינה של הטיות כלפי קבוצות משתמשים - ב-BSR לא מצאו כי במטא יש הטיות מכוונות, אך טוענים כי היו מקרים מסוימים בהם הייתה הטיה לא מכוונת שגררה השפעות על זכויות האדם של משתמשים פלסטינים ודוברי ערבית. הסיבות לכך הן שסביר יותר שפלסטינים יפרו את מדיניות החברה הנוגעת ל"ארגונים ואנשים מסוכנים" בשל העובדה שחמאס שולט בעזה, ומהסיבות שצוינו קודם לכן הנוגעות לקשיים בניטור תוכן בניב המקומי.
בארגון גם ציינו לטובה חלק מהפעולות שמטא עשתה בתקופת המבצע, בהן הקמת צוות מיוחד שיגיב למשבר, מתן העדפה לסיכונים מיידיים בעולם האמיתי ושינוי החלטות אכיפה שגויות בתגובה לערעורים של משתמשים.
המלצות ה-BSR לשינויים בפלטפורמות כללו בדיקה אם על החברה לייצר מדיניות לתכנים שמשבחים אלימות, הכוללים התקפות שלא מוכוונות כלפי אדם או קבוצה ספציפית, בחינה מחודשת של מדיניות התוכן הנוגעת ל"ארגונים ואנשים מסוכנים" כך שתאסור על תמיכה בה בלבד, ולא תכלול תחתיה דמויות היסטוריות של אנשים שנפטרו. לגבי חסימה של תכנים, בארגון המליצו לספק הסבר ספציפי יותר למשתמשים כאשר אלו מתרחשים, ואף להיות שקופים יותר לגבי האופן בו בודקי התוכן מעריכים תכנים שונים. בארגון גם המליצו למטא להמשיך בתכניותיה לפרסם את מספר הדיווחים הרשמיים שהגיעו מרשויות ממשלתיות על תכנים שאינם לא חוקיים, אך מפרים את מדיניות הפלטפורמה.
המלצות נוספות נגעו לתכנון היקף וסוג בודקי התוכן בעברית וערבית שצריכים להיות מוכנים לתגובה מהירה, שיפור בדיקת התכנים בערבית בניבים שונים, שיפור התהליך להוספת מילות המפתח וההאשטגים שמובילים לחסימה, והוספת מסווג בעברית, בכך כאמור החברה כבר טיפלה. עוד הומלץ לפתח מנגנון לניטור תכנים שתוקפים משתמשים על סמך מאפיינים מסוימים - כמו תוכן אנטישמי, מה שיאפשר, למשל למשתמשים לסמן תכנים כאלה בהתאם.
במטא התחייבו לבחון את הדרך בה הם ניגשים לדיונים על ארגונים שמוחרמים בפלטפורמה, ומה ביכולתם לעשות כדי להתמודד באופן טוב יותר עם תכנים שמפארים אלימות. במטא גם הצהירו כי הם בוחנים את ההמלצה לשיפור האופן בו נבחנים תכנים בערבית, וכי כבר יש להם צוותים מגוונים לבדיקת תוכן בערבית ואף מערכות אוטומטיות שקובעות לאילו צוותים לנתב כל תוכן, אך בודקים אפשרות להעסיק דוברי דיאלקטים מגוונים יותר ואף לשפר את המערכות האוטומטיות לניטור תוכן. לגבי מילות מפתח והאשטגים עם ביטויים לחסימה, בחברה אמרו כי כבר שיפרו את התהליך וכי רק צוותי מומחים בחברה מכריעים בנושא.
לגבי מתן הסבר לסיבה לחסימה או מחיקת תכנים, במטא אומרים כי זוהי כבר מדיניות החברה וכי הם מרחיבים אותה, אך במקרים מסוימים לא ניתן לעשות זאת מאחר ותכנים מסוימים מפרים מספר סעיפים במקביל. כמו כן, בחברה אמרו כי יתחילו לדווח כמה תכנים הוסרו בעקבות בקשות של מדינות למרות שלא הפרו חוקים מקומיים.
לשאלת ynet "האם כאשר לא היו מסווגים בעברית לא היה כלל ניטור תוכן מבוסס למידת מכונה בעברית בפלטפורמה, והאם זה עדיין המקרה בשפות ללא מאגרי מידע גדולים?" השיבה מירנדה סיזונס, מנהלת תחום זכויות האדם בחברה, במסגרת תדריך לעיתונאים כי "מטא תומכת במעל 70 שפות בפלטפורמה. אימצנו מסווגים של בינה מלאכותית ואנחנו שואפים לאמץ אותם בשפות שמדוברות באופן נרחב. אבל אנחנו בתחילת היכולת שלנו להנדס כלים כאלו, וההנדסה שלהם תלויה במאגרי מידע גדולים מאוד, שאולי לא קיימים בכל השפות. יש הרבה חדשנות בתחום והטכנולוגיות משתנות כל הזמן לכן מה שהיה נכון לפני שנה לא בהכרח נכון היום. היו לנו מסווגים שלא תלויים בשפה שרצו בעברית ובכל התכנים, אבל לא היה לנו מסווג שנוגע לתכנים עוינים בעברית לפני מאי 2021. עכשיו כבר פיתחנו והשקנו אותו".
לשאלה נוספת של ynet "האם עד היום לא הייתה לכם מדיניות נגד תוכן שמפאר אלימות?" ענתה סיזונס כי "יש לנו מדיניות נרחבת בנוגע לארגונים מסוכנים, מדיניות על אירועים, וכן מדיניות על דברי הסתה, שטנה, אלימות, בריונות והטרדה שיחד מכסות המון סיטואציות. אבל יש גם מגוון גישות וסטנדרטים בינלאומיים מתנגשים לגבי דברים כאלה. אבל אלמנט אחד ש-BSR ביקש מאיתנו לבחון במדיניות שלנו קשור לתוכן שמפאר מתקפות ללא הבחנה. זה לא משהו שנמצא באופן ברור תחת מדיניות תוכן שלנו".