שתף קטע נבחר

 

הסוד של פייסבוק: כך עובד מנגנון הצנזורה של הרשת החברתית

האם תמונה של ילדה בעירום היא פורנוגרפיה או תיעוד היסטורי של מלחמת ווייטנאם? "עוגה כושית" - מתכון לגיטימי או עלבון שדינו חסימה מפייסבוק? ומה עושים כשהאלימות עוברת מהממד הווירטואלי לעולם האמיתי? "במקרים מסויימים העניינים האלה מטפסים עד לראש החברה", מספרים האחראים על ניטור תוכן בביקור נדיר של ynet במרכז בקרה בברלין. חלק שני

"הבעיה הגדולה ביותר בכוח העצום שצברה פייסבוק היא השליטה המוחלטת של מארק צוקרברג על השיח הציבורי. אין תקדים ליכולת שלו לנטר, לארגן ואפילו לצנזר את השיח של יותר משני מיליארד אנשים"
(כריס יוז, מייסד-שותף בפייסבוק, ניו יורק טיימס)

 

לא מוכרחים להיות נפיצים כמו יאיר נתניהו, פופולריים כמו הצל או גזענים-מרושעים כמו ארגוני ימין קיצוני אנטישמיים כדי להיחסם מפייסבוק: רובנו מכירים באופן אישי לפחות אדם אחד שמתישהו נחסם מהרשת החברתית או שפוסט שלו הוסר ממנה. בישראל, תקריות "העוגה הכושית" ו"הקוקסינל" מ-2016 הן הזכורות ביותר, שכן באותו זמן עשתה פייסבוק מבצע ניקיון מקיף נגד מילים ספציפיות שביטאו גזענות או הסתה. לכאורה רעיון מצוין, אלא ששפה היא עניין קצת יותר מורכב והתוצאה הייתה חסימת עשרות משתמשי פייסבוק - כמה מהם בעלי פרופילים פופולריים במיוחד ברשת הישראלית - שפרסמו מתכון לעוגת שוקולד בחושה או שיתפו חוויות אישיות וכואבות מהפעם ההיא שבה מישהו השתמש במילה "קוקסינל" ככינוי גנאי עבורם.

 

 מארק צוקרברג גבעת הקפיטול (צילום: AFP)
יותר מדי כוח? מארק צוקרברג(צילום: AFP)

 

זו לא הייתה הפעם הראשונה ובהחלט לא האחרונה שבה פייסבוק הקימה עליה את זעמם של משתמשים בעקבות טענות לצנזורה. אבל התקריות ההן סימנו יותר מכל את הבלבול הציבורי הגדול באשר לאופן שבו המדיניות של פייסבוק נוצרת ונאכפת, וגם באשר למידת השימוש של כלים אוטומטיים - בינה מלאכותית ולמידת מכונה, בתהליכים האלה.

 

>> מפגש נדיר עם הישראלים שעובדים במרכז העצבים של פייסבוק

 

רק בשנה שעברה, זמן קצר אחרי חשיפת פרשת קיימברידג' אנליטיקה שממשיכה לטלטל את הרשת החברתית עד היום, החליטו בפייסבוק לחשוף לציבור את מדיניות הסרת התכנים שלפיה עובדים בודקי התוכן. עד אז, במשך 14 שנות קיום והתבססות של האימפריה, מדובר היה במידע שמור, כזה שנחשף מעת לעת בתחקירים עיתונאיים ומלווה בהשערות וניחושים. לצד זה, ולאור התגברות הקולות הטוענים כי פייסבוק מתנהלת בחוסר שקיפות מול משתמשיה, הוחלט בחברה להשיק את כלי הערעורים, שמאפשר למשתמשים הליך פשוט של ערעור על ההחלטה אם להשאיר או להסיר תוכן מסוים. עד לפני שנה המשתמשים אפילו לא זכו לקבל הסבר באשר לסיבת ההסרה.

 

הצצה למרכז בודקי התוכן של פייסבוק בברלין (צילום: פייסבוק)
הצצה למרכז בודקי התוכן של פייסבוק בברלין(צילום: פייסבוק)

 

פייסבוק עדיין מציגה למשתמשים רק בכותרת לקונית את הסיבה שבגינה תוכן שלהם הוסר, ומצד שני אתם מדברים על שקיפות. זה מכעיס.

"אנחנו מאוד מנסים להיכנס יותר לדקויות בנושא הזה", מסביר אריק שאדוונס, עוזר מנהל תוכן ומדיניות ציבורית בפייסבוק. "האתגר כאן הוא ביישום. אנחנו צריכים לוודא שזה עובד בכל כך הרבה שפות, ובקנה מידה של פייסבוק, כך שנוכל להסביר כל החלטה שמתקבלת ונוגעת למדיניות התוכן. אני חושב שזה בהחלט אחד הנושאים שאנחנו מנסים לפתור".

 

שאדוונס הוא חלק מהמערך המסועף שעוסק בתוכן בפלטפורמות השונות של פייסבוק - כולל מסנג'ר, וואטסאפ ואינסטגרם. המערך הזה מחולק לשלושה: פיתוח מדיניות וכללי הקהילה בפייסבוק; אכיפה של אותם כללים; ובנייה ופיתוח של טכנולוגיות לאוטומציה של תהליך האכיפה. ההיבט של פיתוח מדיניות מורכב בפני עצמו. התהליך כולל מפגשים אחת לשבועיים, בהם דנים בהתראות שהתקבלו על נושאים שונים שמעסיקים את המשתמשים מסביב לעולם. אז מתכנסת ועדה פנימית של עובדי פייסבוק שמתעסקת בנושא הנבחר, ואחריה גם ועדה חיצונית שמורכבת מנציגי ארגונים ומומחים, עורכי דין ולוחמי זכויות אדם בעלי קשר ישיר לנושא.

 

וואטסאפ, אינסטגרם ומסנג'ר (צילום: shutterstock)
משפחה אחת. וואטסאפ, אינסטגרם ומסנג'ר(צילום: shutterstock)

 

"אחרי קבוצות העבודה האלה אנחנו חוזרים עם המלצות ומנהלים דיון נוסף בנושא", מסביר שאדוונס. "בחודשים האחרונים התחלנו לפרסם לציבור גם את המצגות וההערות מהמפגשים האלה, כדי שאנשים יוכלו לראות אילו שיקולים נכנסו להחלטה ואילו דעות נלקחו בחשבון. בסופו של דבר, התהליך של שינוי במדיניות יכול לקחת כמה חודשים".

 

כמה חודשים זה נצח במונחי פייסבוק.

"נכון, אבל ברמה מסוימת אנחנו מוכרחים לאזן בין סיכונים וענייני בטיחות לבין העובדה שאנחנו מוכרחים לפעול במהירות. כשאנחנו עושים שינוי מדיניות לטווח הארוך, שמשפיע בסופו של דבר על יותר משני מיליארד אנשים בעולם, אני חושב שצריך לקחת את הזמן כדי לבחון בצורה ביקורתית את נקודות המבט השונות".

 

 

לעומת שינויים לטווח ארוך, יש גם שיפוצים קטנים שנעשים על בסיס יום-יומי. "כשמשהו קורה בעולם, מתקפת טרור למשל, אנחנו כארגון נדרשים להגיב לו בצורה מיידית", מסביר מארק דוידסון, מנהל שותפויות עסקיות בפייסבוק. "זה עובר דרך צוותי המדיניות שלנו ואנחנו מחליטים אם זה שינוי מקיף שמחייב הדרכה או משהו שגרתי יותר. משם זה מגיע אל בודקי התוכן, וכל התהליך יכול לקחת שעות בודדות".

 

דוגמה בולטת להתערבות מהירה מהסוג הזה קשורה בפעילות של פייסבוק במיאנמר. הרשת החברתית כבר הואשמה והודתה בכך שלא עשתה מספיק כדי למנוע את האלימות במדינה, אבל הנה חלק ממה שכן נעשה, במילותיו של מארק צוקרברג בריאיון למגזין Vox בשנה שעברה: "אני זוכר, פתאום בשבת בבוקר אני מקבל שיחת טלפון שאומרת שזיהינו שאנשים במיאנמר מפיצים הודעות מזעזעות במסנג'ר, לכל אחד מהצדדים בסכסוך (...) במקרה הזה המערכות שלנו גילו מה מתרחש, ואנחנו התערבנו ועצרנו את ההודעות האלה מלהתקבל".

 

מי קיבל את ההחלטה במיאנמר?

"אף אחד בחדר הזה לא מוסמך להתייחס למיאנמר מעבר למה שפורסם, אבל לעניין מי מקבל את ההחלטה - זה תלוי מאוד בסוג התקרית או השינוי שאנחנו מדברים עליהם", מסבירה דוברת לענייני תוכן של פייסבוק. "תמיד מעורבים בהחלטות האלה אנשים מצוותים שונים, גם מצוותי המדיניות, גם מצוותי התפעול, גם אנשים שעובדים בשוק המקומי. אבל את כמובן יכולה לתאר לעצמך שבמקרים מסוימים העניינים האלה מטפסים למעלה עד לראש החברה, לרמה הגבוהה ביותר".

 

פיתוח המדיניות הוא כאמור רק צד אחד של המטבע. הצד השני הוא אכיפה, והוא מתחלק לשניים: טכנולוגיה ובני אדם. פייסבוק מעסיקה באמצעות חברות-שותפות יותר מ-15 אלף בודקי תוכן ביותר מ-50 שפות, שפרושים ב-20 מרכזים בעולם. אלה האנשים שיושבים יום-יום מול המחשב ועוברים על מאות פוסטים, תגובות, סרטונים חיים ותמונות, שיש ספק לגבי זכות הקיום שלהם בפלטפורמה. במרכז כזה של חברת Majorel בברלין מועסקים גם בודקי תוכן עבור השוק הישראלי, שמסננים בעברית.

 

הצצה למרכז בודקי התוכן של פייסבוק בברלין (צילום: פייסבוק)
"אנשים שממש מדברים את השפה". בודקי תוכן בפייסבוק(צילום: פייסבוק)

 

"חשוב לנו מאוד לעבוד עם דוברים ברמת שפת-אם", מסביר דוידסון, "מה שעקרוני הוא השימוש הנרחב בסלנג, בטרמינולוגיה ייחודית, ואנחנו צריכים אנשים שממש מדברים את השפה - בניגוד למי שאין להם את ההבנה התרבותית הנדרשת לסוג כזה של עבודה".

 

אם העבודה כל כך חשובה, למה בקבלנות?

"אנחנו עובדים עם שותפים גלובליים שיכולים להתמודד עם הצרכים שלנו בסדר גודל כזה. הם יודעים לאתר ולהכשיר עובדים בהמון שפות, במהירות וביעילות".

 

בודקי התוכן של פייסבוק מתמודדים עם כמויות אדירות של תוכן: בכל יום מועלות לפלטפורמות הרשת החברתית כמיליארד תמונות, נתון שמצליח לצייר תמונה מעורפלת באשר למספרים שאותם בפייסבוק לא ממהרים לחשוף. בעבר, בודקי התוכן נדרשו לשבת מול מסך שמציג את ה"תור" הארוך של תכנים שמחכים, אבל הפרקטיקה הזו, המוכרת ממוקדי שירות לקוחות, נזנחה על ידי פייסבוק. "אין אצלנו מכסות", מסביר דוידסון, "בשבילנו זה פחות עניין של מספרים ויותר עניין של איכות הבדיקה וההחלטה".

 

וכך עובד תהליך האכיפה כולו: פוסט, תגובה, תמונה, אירוע או סרטון מועלים לפייסבוק, ועוברים מיד סריקה אוטומטית. מקרים מובהקים בדרך כלל מזוהים על ידי המערכת בצורה מיידית, והם כוללים פורנוגרפיה, אלימות קשה או פרופילים מזויפים וספאם. במידה והמערכת לא זיהתה שמדובר בתוכן בעייתי, הוא עולה לרשת החברתית. כעת, משתמשים יכולים לדווח עליו כפוגעני. כשזה קורה, הפוסט מועבר לבודקי התוכן לפי תיוגים שונים שפייסבוק מציעה כדי לסמן את מהות ההפרה - למשל "עירום" או "דברי הסתה". בהתאם, התוכן מתועדף כך שתכנים שמחייבים התערבות מהירה לא יחכו בתור. "בראש אפשר למצוא דברים כמו פגיעה עצמית ואיומי התאבדות או טרור, ובתחתית הרשימה יהיו דברים כמו פרופיל מזויף", מסביר דוידסון.

 

לאחר בדיקה על ידי עין אנושית, התוכן נשאר בפייסבוק, ממוסך בו (מקבל פילטר מטושטש ומחייב הסכמה של המשתמשים לצפייה - ה.ב.), או מוסר מהרשת החברתית. במקרים של התלבטות אפשר להעביר את התוכן הספציפי לבדיקה פנימית במרכז, וגם לבדיקה של אנשי התוכן של פייסבוק. לא משנה כמה פעמים הוא דווח - פייסבוק מתייחסת לכל חתיכת תוכן כדיווח בודד. מרגע שמתקבלת החלטה - היא מיושמת באופן אוטומטי גם עבור יתר הדיווחים.

 

במידה והמערכת האוטומטית של פייסבוק מזהה שמדובר בתוכן בעייתי, היא יכולה או להכריע בעצמה במקרים מובהקים, או להעביר את התוכן לבדיקה אנושית. טכנולוגיית למידת המכונה של פייסבוק הופכת מתוחכמת ויעילה יותר ככל שיש לה יותר דוגמאות להישען עליהן. כל חתיכת תוכן שמתקבלת בעניינה החלטה היא עוד דוגמה למאגר - שמסייע למכונה לקבל יותר החלטות, בצורה יותר מדויקת.

 

סינון תוכן בפייסבוק ()

 

"ההתקדמות בלמידת מכונה בשנים האחרונות היא מדהימה", מספר סיימון קרוס, מנהל מוצר בפייסבוק. "עד שנת 2015 עבדנו על התאמה טקסטואלית בלבד. זה אומר שאם התוכן כלל למשל אזכור של המילה קנאביס או מריחואנה - היינו יודעים שזה תוכן בעייתי. מאז עברנו לטכנולוגיה של ראייה ממוחשבת (Computer Vision) והצלחנו לאמן מכונות להסתכל על תמונה שעולה לפייסבוק ולהכריע בוודאות גבוהה אם מדובר במריחואנה או בתמונה של ברוקולי בטמפורה, שנראים פחות או יותר אותו הדבר".

 

מתי המכונה עשתה טעות מרה?

"יש את הדוגמה המפורסמת של 'ילדת הנפאלם'. המערכת שלנו החליטה להסיר את התמונה כי היא זיהתה, ובצדק, שמדובר בקטינה עירומה. וזה משהו שאנחנו לא מאפשרים בפלטפורמה", מסביר קרוס. "אבל ההחלטה הזו עוררה הרבה ביקורת ודיון ציבורי, כי מדובר בתמונה שיש לה חשיבות היסטורית. במקרה הזה חזרנו בנו, החזרנו את התמונה לרשת והוספנו אותה למאגר מיוחד כך שהיא גם לא תוסר בהמשך". חשוב לו להדגיש: השילוב בין בודקים אנושיים לבין בינה מלאכותית הוא זה שמאפשר לפייסבוק להתמודד עם כמויות המידע העצומות ועם משתמשים בכל פינה בעולם, ובשילוב הזה תמיד צד אחד בודק את הצד השני.

 

אתם משקיעים המון בכל האופרציה הזאת. סליחה, אבל מי שמכם?

"הכרנו בזה שיש לנו אחריות כלפי הקהילה שלנו", אומר שאדוונס, "אנחנו מחוייבים לוודא שאנחנו שומרים על משתמשי פייסבוק בטוחים, כדי שיוכלו להמשיך ולבטא את עצמם. זו כל המטרה של פייסבוק כחברה".

 

הכותבת הייתה אורחת פייסבוק בברלין

 

 תגובה חדשה
הצג:
אזהרה:
פעולה זו תמחק את התגובה שהתחלת להקליד
צילום: פייסבוק
מרכז פיקוח התוכן בברלין
צילום: פייסבוק
מומלצים