איך פלטפורמות AI מתמודדות עם מידע על אירועים מתפרצים? כשהמסוק של נשיא איראן התרסק, הרוב הגדול נשא עיניו אל מהדורות החדשות כדי לצרוך מידע על האירוע. מיטיבי הלכת שבינינו אף חיפשו ברשתות מידע נוסף שישלים עבורם את פיסות המידע החסרות והמעניינות. אבל מה קורה כשהמידע שאנו צורכים ברשתות משתבש בדרך אלינו ואיך קורה שמודלי בינה מלאכותית שונים מייצרים מידע שגוי ואף שקרי כאשר הם נשאלים על אירועים מתפרצים בעולם בזמן אמת.
2 צפייה בגלריה
פייק ניוז סייבר אילוס אילוסטרציה
פייק ניוז סייבר אילוס אילוסטרציה
פייק ניוז
(shutterstock)
עד שהתחלנו להבין את ההשפעה של המדיה החברתית על הדמוקרטיה והפייק ניוז - איומי הבינה המלאכותית כבר הספיקו לחדור למגוון תחומי חיים ולאתגר אותנו שוב. בשעה שמרבית הציבור עדיין מפתח את היכולות שלו לזהות מידע שגוי או מוטה ברשת, הכניסה של כלי בינה מלאכותית גנרטיבית לזירה הופכת את תהליך הלמידה למורכב וקשה יותר. מדובר בתחזית די עגומה, בייחוד בשנה שבה מחצית מהעולם מתכונן למערכות בחירות גורליות.

דיסאינפורמציה תעשייתית

כלי בינה מלאכותית גנרטיביים, כמו LLMs או מודלי טקסט, ידועים באיסוף וניתוח מהיר של מידע. העוצמה האדירה הטמונה בהם טומנת אפשרויות חדשות ומרגשות, אך מעלה גם סכנות חדשות בכל הנוגע לייצור והפצת תכנים שעלולים להיות מסוכנים. בכל הנוגע לפייק ניוז, המודלים הללו יכולים לייצר תכנים חדשים או להעצים אי-דיוקים קטנים לכאורה כתוצאה מעוצמתם האדירה. נוסף על כך, המודלים הללו מאומנים כדי לעזור למשתמש לייצר את התוכן שהוא מבקש, במגבלות מסוימות. לכן, כאשר המודלים הללו נתקלים באזורים ״אפורים״ בהם חלק מהמידע נכון וחלקו שגוי, הם יעדיפו לעתים לעזור למשתמש לייצר ״פייק ניוז״ משום שהם אינם יכולים לוודא את מהימנותו.
אתגר זה מתעצם כאשר מודלי השפה נתקלים במגמות ואירועים המתרחשים בעולם. במקרים הללו המודלים צריכים ללמוד אירועים עכשוויים תוך כדי תנועה, ובמסגרת כמות המידע שהם צורכים הם מתקשים, לפחות בתחילת הדרך, להבדיל בין אמת לשקר, ועשויים להפיץ מידע שגוי שיובילו לפייק ניוז. למרות האימון והקישור של חלקם למקורות מקוונים ברחבי האינטרנט, מודלים כאלה מתקשים להבין את המשמעות והסיכונים של המידע שהם מספקים, שעלול לכלול טרמינולוגיות ספציפיות או מונחים ייחודיים שאולי לא יזוהו כזדוניים.
כחלק מעבודת מחקר נמצא שמודלי בינה מלאכותית יכולים לשחזר ולהפיץ נרטיבים של מידע שגוי מאזורים ומערכות פוליטיות שונות. במחקר, נמצא כי כשהתבקשו מודלים שונים לענות על שאלות זדוניות שעלולות להוביל לתגובות לא בטוחות, חלק ממודלי השפה (LLM) סיפקו תשובות שהכילו מידע שגוי בחלק ניכר מהמקרים.
2 צפייה בגלריה
ד"ר גיא פלטיאלי, ראש תחום בטיחות AI בחברת הסייבר אקטיבפנס
ד"ר גיא פלטיאלי, ראש תחום בטיחות AI בחברת הסייבר אקטיבפנס
ד"ר גיא פלטיאלי, ראש תחום בטיחות AI בחברת הסייבר אקטיבפנס
(צילום: אקטיבפנס)
שורש הבעיה, מתנקז אל רמת הבטיחות של כל פלטפורמה - לא כל הפלטפורמות נוקטות באמצעי זהירות סביב התוכן שהמודל שלהן יכול להפיץ. בנוסף, לא כל הפלטפורמות משקיעות מספיק בצוותי מחקר, ניהול תוכן ובטיחות ברשת, מה שמאתגר ומסכן אותן כשהמודל צריך להתמודד עם שפה שאינה אנגלית או עם מידע מתפרץ כמו למשל מלחמת חרבות ברזל הפתאומית, אירועים ביטחוניים שונים ונושאים פוליטיים. מכאן, הופכת רמת האמון של המודל עליו מושתת הפלטפורמה - לנמוכה, מה שהופך את המידע שהוא מספק לקורא ללא מהימן ואף שקרי.
במהלך סיום הבחירות המקדימות לנשיאות ארצות הברית בשנת 2024, נחשפה סטייה מדאיגה בהתנהגות מודלי הבינה המלאכותית. כאשר נשאלו על מקום הולדתה של המועמדת ניקי היילי, מודלים שהתבססו על מסד נתונים מוגבל חזרו על מידע שגוי שהפיץ דונלד טראמפ, בטענה שהיא נולדה בהודו ולכן אינה יכולה להיבחר לנשיאות ארצות-הברית. עם זאת, מודלים בעלי גישה ישירה לאינטרנט ויכולת להתאמן על נתונים חדשים סתרו טענות אלו. במקרים אחרים מודלים ייצרו כתבות חדשות שדיווחו על מותם של מנהיגים ידועים וסייעו ביצירת קמפיינים שמקדמים פייק-ניוז.

רגישויות אוניברסליות

מודלי שפה המוכוונים להתמודד עם כמויות גדולות של מידע, מצטיינים בעיבוד שפה אנושית. עם זאת, למאגרי הנתונים האלה יש מגבלות. אין תמונת מצב שיכולה ללכוד את כל השפה האנושית – או להתאים את עצמה כדי לשקף אירועים עדכניים, מה שמהווה את החולשה העיקרית בבטיחות של מודלי בינה מלאכותית בהקשר של אירועים מתפרצים. ברגעים כאלה, הפייק ניוז שמתבטא לדוגמא בפוסטים בבלוגים או באתרי חדשות שאינם מהימנים מספיק, עלול בקלות להאפיל על מקורות מכובדים כמו מאמרים אקדמיים או מקורות עיתונאיים מהימנים. עם זאת, זיהוי מהיר של אירועים מתפרצים ואפיון השיח שסובב אותם יכול לאפשר לצוותי ניהול התוכן להגיב בצורה מהירה ולמנוע את יצירתם של תכנים זדוניים.
השכל הישר לעיתים קרובות עוזר להבחין בין אמת לשקר. עם זאת, האינטגרציה של כלי בינה מלאכותית בטכנולוגיות אחרות מקשה על כך יותר ויותר. כך למשל, ברגעי משבר כמו אסונות טבע או מהפכות פוליטיות, הפלטפורמות המשלבות בינה מלאכותית הופכות למקורות הראשיים עבור רבים המחפשים הבהרה והבנה. אם מנגנוני הבטיחות של הבינה המלאכותית יכשלו במצבים כאלה, התוצאות עלולות להיות הרסניות.
הכותב הינו ראש תחום בטיחות AI בחברת הסטארט-אפ אקטיבפנס
פורסם לראשונה: 17:45, 29.05.24