לידיעת החברים בפייסבוק: בינה מלאכותית (AI) יכולה לזהות פייק ניוז ולהבדיל בינם לבין מאמרים סאטיריים. מחקר של קבוצת חוקרים בינלאומית בהובלת הישראלי אור לוי מציג שתי גרסאות של מערכת בינה מלאכותית שמבדילה בין ידיעות שקריות לסאטירה, לעיתים טוב יותר מבני אדם. הפעלת כלי כזה על ידי הרשתות החברתיות יכולה למנוע פרסום של שקרים תחת מסווה של סאטירה, ומנגד להימנע מחסימת פרסום סאטירה אותנטית. נסיונות קודמים לגרום לבינה מלאכותית לזהות הומור נכשלו כישלון חרוץ.
הרשת החברתית נאבקת קשות בפרסומי שנאה ובפרסומי שקרים. לפי נתונים של חברת פייסבוק, מרבית הפרסומים האלימים נחסמים כיום: 99 אחוזים מפרסומים עם ניצול ילדים, 96 אחוזים מהפרסומים הכוללים עירום ו-97 אחוזים מהפרסומים הכוללים אלימות גרפית. ואולם, בתחום הפייק ניוז ההצלחה נמוכה בהרבה ופייסבוק מדווחת על שיעור נמוך של 52 אחוזים בלבד מפרסומי השקר, שמזוהים ומוסרים.
בנייר שהוצג לאחרונה בכנס אקדמי בתחום עיבוד השפה הטבעית (NLP) הוצגו שתי גישות בינה מלאכותית שיכולות לזהות סאטירה ולהבחין בינה לבין פייק ניוז במסווה של סאטירה. מחברי המאמר, בהם אור לוי, מנכ"ל חברת AdVerif.ai, וחוקרים מאוניברסיטת ג'ורג' וושינגטון ומחברת AWS של אמזון, ביקשו להציג גישה שונה ממחקרים קודמים, שם ניסו לאתר מילות מפתח שמופיעות בטקסט סאטירי. במחקר הנוכחי גייסו שיטות למידה עמוקה, אימנו את הבינה המלאכותית על טקסטים קיימים ונתנו לה ללמוד בעצמה מהן התבניות המאפיינות סאטירה.
מסביר לוי: "מהבחינה הטכנולוגית יש כאן אתגר טכנולוגי מאוד מעניין: האם המחשב יודע להבין טקסט, אירוניה, הומור? הרי מחשבים לא מעבדים טקסט כמו בני אדם, הם לא מבינים את המילים ולכן היה מעניין לראות אם מודל GAN (שמשמש ליצירת דיפ פייק למשל) יעבוד על טקסט ולא רק על תמונות או וידאו. חשבנו שניתן יהיה לזהות הומור באמצעות סמנטיקה ולינגוויסטיקה, להסתכל לא מה כתוב אלא איך כתוב".
החוקרים השתמשו בכלי בינה מלאכותית של גוגל בשם BERT, שהוא מנוע עיבוד שפה טבעית, שמבוסס על למידה עמוקה (DL), שגרסאות שונות שלו השיגו תוצאות מרשימות במבחני הבנת טקסט, לעיתים טובות מבני אדם. החוקרים אימנו את הבינה המלאכותית על קורפוס של 500 טקסטים מתוייגים כסאטיריים או כ"פייק". התוצאות של BERT הראו שהבינה המלאכותית מצליחה לזהות טקסט סאטירי יותר מהשיטות הקודמות של חיפוש מילות מפתח.
"הבעייה עם BERT, שקשה להבין אותו. זו קופסה שחורה ואי אפשר לדעת מהם הדפוסים בתוך הטקסט שהוא מצא", אומר לוי. מסיבה זו החוקרים ניסו שיטה נוספת לזיהוי טקסט סאטירי המבוססת על זיהוי סיבוכיות הטקסט וביטויים לשוניים שנפוצים בכל אחד משני סוגי הטקסט. יכולת זיהוי הסאטירה בשיטה נפל מהשיטה הראשונה, אך עדיין עלה על השיטות הקודמות, ויתרונו הוא בכך שניתן להבין למה המחשב זיהה טקסט מסוים כפי שזיהה.
האם אתם עומדים לפתח כלי שיאפשר לזהות סאטירה?
לוי: "עשינו את המחקר בגלל האתגר הטכנולוגי, אבל יש לו השלכות מעשיות מאוד חשובות, למשל לפלטפורמות המדיה החברתית שמנסות להיפטר מהפייק. אם יקחו את זה ויישמו בפייסבוק או בטוויטר, הלוואי. בסופו של דבר תוצאת המחקר שלנו היא קוד פתוח שנמצא בגיטהאב. המטרה שלנו היא לקדם את המחקר בתחום, ולעזור להילחם בתופעת הפייק ניוז".
בינתיים פייסבוק ממשיכה במאמציה לגייס בינה מלאכותית כדי להילחם בפייק ניוז, אם כי נראה שהיכולות הנוכחיות פחותות מהרף שמציב המחקר החדש. כך למשל פייסבוק קוראת את הכותרת של הפוסט כבר בעת כתיבתו, ואם היא מזהה אותה כתוקפנית, הכותב מקבל התרעה שאומרת שניסוחים דומים זוהו בעבר כתוקפניים, ומומלץ לו לשקול את הניסוח מחדש.
פייסבוק גם משתמשת בכלים שונים לצמצום תפוצת הפייק ניוז ופרסומי השנאה, כמו למשל הנמכת פרסומים בפיד של אתרים שמרבים להפיץ לינקים שאינם מקוריים, צמצום התפוצה של קבוצות שחבריהן מרבים לשתף מידע שיקרי (כולל אזהרת מנהלי הקבוצות) ועוד. זיהוי הטקסטים השקריים נעשה בשלב זה באמצעות קבוצות בדיקת עובדות אנושיות ולא באמצעות בינה מלאכותית.
חברת AdVerif.ai של אור לוי, שממוקמת באמסטרדם, עוסקת באיתור פייק ניוז המבוסס על מאגרי מידע של בודקי עובדות ועל מודלים הסתברותיים שעוקבים אחר המקורות של הפרסומים. בין לקוחותיה רשת טלוויזיה בהודו, שם מזהה החברה פייק ניוז באנגלית ובהינדי, וסוכנות פרסום אונליין בצרפת שם החברה מבטיחה את כשרותם של האתרים בהם מתפרסמות מודעות הלקוחות. החברה מפתחת את הטכנולוגיה בשיתוף סוכנות הידיעות הבינלאומית AP, שם היא תומכת בפעילות בדיקת העובדות.