תינוקת בת חודשים ספורים שוכבת בין ההריסות של בניין שהופצץ ברצועת עזה. פניה מבועתות, ובפריים לא נראה אף מבוגר שדואג לשלומה. הלב נשבר. לא פלא שמשתמשים פרו-פלסטינים שיתפו את התמונה הזאת שוב ושוב ברשתות החברתיות בשבועות האחרונים, בניסיון לגרום לטרגדיה הפלסטינית להדהד ברחבי העולם. יש רק בעיה קטנה אחת: התמונה הזאת לא אמיתית.
עוד כתבות שיעניינו אתכם:
בדיקה שערך הסטארט-אפ הישראלי Tasq.ai עבור ynet העלתה באופן חד-משמעי כי מדובר בתמונה שנוצרה באמצעות מחולל תמונות מבוסס בינה מלאכותית. חיפוש קצר ברשת העלה כי התמונה פורסמה ברשת החברתית לינקדאין כבר לפני תשעה חודשים - זמן רב לפני שהמלחמה בישראל יצאה לדרך.
התופעה הזאת עדיין בשוליים: רוב מפיצי הפייק ברשתות החברתיות מעדיפים לשתף תמונות מעימותים קודמים, למשל מהמלחמות באוקראינה או בסוריה, ואפילו ממשחקי מחשב, ולהציג אותן כתיעודים אותנטיים מישראל או מעזה. אבל ככל שהמלחמה מתארכת, מופיעות ברשתות החברתיות עוד ועוד תמונות שנוצרו באמצעות בינה מלאכותית ומציגות אירועים שלא התרחשו מעולם. המגמה הזאת מגבירה את הכאוס והבלבול סביב המלחמה, ומקשה על משתמשים בישראל ובעולם לקבל תמונת מצב ברורה של מה שמתרחש כאן.
הביטו בתמונה הבאה, תיעוד מרגש של משפחה שניצלה מההפצצות הישראליות ברצועת עזה. עיניו של האב עצומות, פניו מכוסות בלכלוך, הוא נושא על גופו ארבעה ילדים ואוחז בידו של ילד חמישי. עדות כואבת לסבל הפלסטיני במלחמה. עכשיו תתמקדו בצד השמאלי של התמונה: יכול להיות שרגלו של אחד הילדים מבצבצת משרוול שלישי שנפער בחולצתו של האב? ומדוע לתינוק יש רק שלוש אצבעות ברגל השמאלית? הבנתם נכון. גם כאן מדובר בתמונת פייק.
הפרקטיקה הזאת לא שמורה לצד הפלסטיני בלבד: תמונות שנוצרו באמצעות בינה מלאכותית מופצות בשבועות האחרונים גם על ידי משתמשים ישראלים. אם בצד הפלסטיני מנצלים את הטכנולוגיה כדי לזייף תמונות זוועה, נדמה שבצד הישראלי המטרה היא להעלות את המורל בעורף ובחזית באמצעות תמונות שמציגות לוחמים בשטח עזה, המונים מריעים לחיילים ואפילו מבצע נועז לשחרור חטופים. הבעיה היא שהתמונות האלה מתגלגלות הלאה ברשתות החברתיות ללא גילוי נאות, והן עלולות להטעות חלק מהמשתמשים, בטח את אלה שאינם חיים בישראל.
באחת התמונות האלה נראים לוחמי צה"ל צועדים בין ההריסות ברצועת עזה עם דגלי ישראל בידיהם. במבט ראשון זוהי תמונה משכנעת למדי, אבל אם מתעמקים אפשר להבחין שעל חלק מהדגלים לא מופיע מגן דוד אלא סמל אחר - טעות אופיינית למחוללי תמונות. בתמונה אחרת נראים לוחמי צה"ל חוזרים ממבצע שבמהלכו שחררו לכאורה שתי צעירות ושלושה תינוקות משבי חמאס, אבל חלק מהפרטים בתמונה, למשל הפנים המעוותות של אחד החיילים והדמיון החיצוני בין חלק מהדמויות, מסגירים כי גם כאן מדובר בפייק.
התופעה הזאת לא הייתה מתאפשרת אילולא הופיעו בשנתיים האחרונות כלים מבוססי בינה מלאכותית כמו DALL-E, מידג'רני ו-Stable Diffusion, שמסוגלים ליצור תמונות ריאליסטיות לחלוטין על בסיס תיאור טקסטואלי. אפשר לכתוב להם טקסט כמו "שני ילדים פלסטינים מכוסים בדם עומדים בתוך ההריסות של בניין ברצועת עזה ליד הגופה של אימם", והם כבר ייצרו את התמונה המתאימה. מחוללי התמונות האלה נגישים לשימוש בחינם או תמורת סכום סמלי של 10 דולר בחודש, ועם הזמן הם הולכים ומשתכללים והתוצרים שלהם נראים יותר ויותר משכנעים. אחת הבעיות הבולטות שלהם - אצבעות אנושיות מעוותות למראה - נפתרה כמעט לחלוטין בגרסאות האחרונות.
מחוללי תמונות כאלה מסייעים לעסקים, לארגונים ולמעצבים ליצור חומרים גרפיים במהירות ובעלות נמוכה, אבל גם מאפשרים לשחקנים זדוניים ליצור תמונות מזויפות של פוליטיקאים, אנשי ציבור וידוענים. בעולם כזה קשה למשתמשים להבין מה אמיתי ומה מזויף, והם מתחילים לחשוד בכל דבר. "החשש מדיפ פייק (מדיה שעברה מניפולציה דיגיטלית - י"מ) הוא הרבה יותר משמעותי עכשיו - לא צריך עשרות אלפים כאלה, מספיק אלפים, ואז אתה מרעיל את הבאר והכול הופך לחשוד", אמר ל"ניו יורק טיימס" האני פאריד, פרופסור למדעי המחשב ומומחה לראיות דיגיטליות מאוניברסיטת קליפורניה בברקלי.
פייק גם באתרי חדשות בחו"ל
הבעיה הזאת לא מתחילה ונגמרת ברשתות החברתיות. תמונות מזויפות של המלחמה הגיעו גם לאתרי חדשות בחו"ל לאחר שנרכשו משירות אדובי סטוק, שמוכר תמונות מקצועיות לארגונים ולכלי תקשורת. בחיפוש בפלטפורמה של אדובי השבוע מצאנו תמונות ריאליסטיות למדי שמציגות בין היתר תקיפות של צה"ל בעזה, טנקים צבאיים ברצועה וגם ילדים שחולצו מההריסות או צופים בהן מרחוק. התמונות האלה הועלו על ידי משתמשים ולא על ידי אדובי עצמה, ובתיאור שלהן כתוב שהן נוצרו באמצעות AI גנרטיבי. הבעיה היא שהאתרים שרוכשים את התמונות האלה לא תמיד טורחים להבהיר לקוראים שלהם שמדובר בתמונות מפוברקות. כך הם תורמים לבלבול שגם ככה אופף את המלחמה הזאת, ומקשים על הקוראים שלהם להבין מה באמת מתרחש כאן.
כל התמונות שמופיעות בכתבה עם החותמת Fake זוהו כמזויפות על ידי הסטארט-אפ Tasq.ai, שפיתח פלטפורמה המשלבת אדם ומכונה - אלגוריתמים מתקדמים עם בודקים אנושיים רבים - לטובת האצת תהליך האימון של מודלי בינה מלאכותית ובדיקת האיכות שלהם אחרי שאומנו.
בבדיקה שנערכה לבקשת ynet הופצו התמונות המזויפות, לצד תמונות אמיתיות, ל-37 משתמשים רנדומליים ברחבי העולם. ב-Tasq.ai אומרים כי כאשר מוצגת למשתמשים תמונה אמיתית, לפחות 90% מזהים אותה ככזאת. כאשר מוצגת להם תמונה מזויפת, לפחות 20% מבחינים בכך. כדי לקבל תשובה ברורה לגבי תמונות שאין לגביהן הסכמה (כאלה שבין 80% ל-90% סבורים שהיא אמיתית), יש צורך לבדוק אותן מול קהל משתמשים ספציפי עם ידע רלוונטי.
רק תמונה אחת הצליחה לבלבל את הבודקים האנושיים: 89% מהמשתמשים חשבו שהתמונה שמציגה אוהלים בצבעי דגל ישראל על חוף הים היא אמיתית. כאשר הקובץ הועבר לבדיקה של משתמשים ישראלים, אף אחד מהם לא האמין שמדובר בתמונה אמיתית - עובדה שמצביעה על החשיבות של קונטקסט ושל ידע מוקדם ורלוונטי כאשר מנסים לזהות תמונות מזויפות.
הדרך לזיהוי תמונות מפוברקות
אז איך אפשר לזהות תמונות שנוצרו באמצעות בינה מלאכותית? ישנם ברשת כלים אוטומטיים כמו AI or Not, אבל קחו בחשבון שהם לא תמיד מדויקים. החדשות הטובות הן שבמקרים רבים אפשר לסמוך על מראה עיניים. מנכ"ל Tasq.ai, ארז מוסקוביץ', ממליץ להתמקד בפרטים הקטנים. אצבעות, למשל, הם איברים שחלק ממחוללי התמונות מתקשים לשחזר בצורה מהימנה. בדקו היטב גם אם יש משהו חריג בפנים, בשיניים ובאוזניים של האנשים שמופיעים בתמונה.
שימו לב שמחוללי תמונות מהדור הישן יותר יוצרים לפעמים פנים עם מראה מעוות, בזמן שהתוצרים של הגרסאות החדשות יותר מתאפיינים בעור פנים חלק ומושלם מדי. גם דמיון פיזי יוצא דופן בין דמויות שמופיעות באותה תמונה אמור להדליק אצלכם נורת אזהרה.
אם התמונה כוללת טקסטים או סמלים, בדקו היטב אם הם נאמנים למציאות - גם זו נקודת תורפה משמעותית של מודלי הבינה המלאכותית, כפי שאפשר לראות בחלק מהתמונות שמופיעות בכתבה. החדשות הרעות הן שמחוללי התמונות משתפרים בקצב מהיר מאוד, ולא ברור אם בעוד כמה חודשים העצות האלה עדיין יהיו מועילות.