שתף קטע נבחר

 

כשצה"ל יגיב בטעות לדיפ פייק של חמאס

הסיבה שעדיין לא נעשה שימוש זדוני משמעותי בדיפ פייק היא שהטכנולוגיה עוד לא יצאה מהגבולות של עולמות האקדמיה וההיי-טק, אבל לא רחוק היום שבו כל אחד מאיתנו יוכל לייצר סרטון מזויף - ואז כבר לא נוכל להאמין לשום דבר. "נצטרך לסמוך על כלי התקשורת הגדולים שיאמתו את הסרטונים"

היום שבו סרטון דיפ פייק  יפרוץ לכותרות ראשיות כאמת עובדתית אינו רחוק. תחשבו על וידיאו של נתניהו, קצת מטושטש כאילו צולם בסתר, מדבר עם אבו מאזן על מדינה פלסטינית. או על רמי לוי בישיבה על תיאום מחירים עם ראשי שופרסל. הדברים האלה לא קרו מעולם, ככל שאנחנו יודעים, אבל התמונות כידוע אינן משקרות. אז זהו, שהדיפ פייק משנה את כללי המשחק, ומעכשיו אי אפשר לסמוך גם על מראה עיניים.

 

זהירות, דיפ פייק - הכתבות הקודמות בסדרה:

דיפ פייק: כל כך פשוט לזייף את המציאות

מזייפים: הישראלים שעושים דיפ פייק

 

להניע את ביבי כמו בובה על חוט - הדגמה של בר הללי

להניע את ביבי כמו בובה על חוט - הדגמה של בר הללי

סגורסגור

שליחה לחבר

 הקלידו את הקוד המוצג
תמונה חדשה

שלח
הסרטון נשלח לחברך

סגורסגור

הטמעת הסרטון באתר שלך

 קוד להטמעה:

 

סרטוני דיפ פייק עלולים להטות את תוצאות הבחירות, להשפיע על החלטות בית משפט או לשמש לסחיטה של בעלי הון. טכנולוגיית הדיפ פייק מאפשרת להציג אנשים אומרים דברים שמעולם לא אמרו ולביים מצבים שמעולם לא התרחשו, והיא הולכת ומשתכללת בקצב מפחיד. המומחים שדיברנו איתם מעריכים שבשנה הקרובה נחצה את הנקודה שממנה והלאה לא ניתן יהיה לזהות סרטון דיפ פייק רק באמצעות צפייה בו.

 

איסמעיל הנייה (עיבוד תמונה. צילום: AP)
איסמעיל הנייה. אמיתי או דיפ פייק?(עיבוד תמונה. צילום: AP)

 

בכתבה הזו אנחנו שואלים אם כל המגמה הזו היא בהכרח רעה - רעה מעבר לרוע שמיוחס תמיד לטכנולוגיות חדשות. האם זו תהיה הטכנולוגיה שאיתה החברה האנושית לא תצליח להתמודד?

 

זה מפתיע, אבל עד היום כמעט שלא נעשה שימוש לרעה בטכנולוגיה החדשה. פרט לסרטוני פורנו מזויפים של ידועניות, לא דווח על פשיעה באמצעות דיפ פייק. הסרטונים המפורסמים כמו פייק-צוקרברג, פייק-אובמה ופייק-טראמפ נחשבים לסאטירה ולשעשוע. אבל לא כדאי לטפח תקוות: ההאקרים של הדיפ פייק כבר בדרך.

 

"כותבים 'פייק' על הסרטונים שלנו" 

אורן אהרון, מנכ"ל חברת Hour One שמייצרת מאות סרטוני דיפ פייק עבור לקוחות מעולמות המדיה, החדשות, הספורט ועוד, אומר שהחברה משמשת שומר סף בתחום המוסרי: "אי אפשר לייצר במערכת שלנו וידיאו בלי שנדע מהו, ומובן שלא ניתן לייצר התקפות וכל הדברים הבעייתיים של דיפ פייק. פסלנו כבר הרבה מאוד הצעות. על הסרטונים גם כתוב תמיד 'פייק' או משהו דומה, כך שמי שרואה את זה לא יכול לטעות. אנחנו לא משחררים סרטונים שאדם יכול לטעות ולחשוב שהם אמיתיים".

 

אחרים יגידו שאת הכיתוב המתריע אפשר להסיר בנקל, וההקפדה על נאותות עלולה להיות בסופו של דבר פונקציה של סכום הכסף שמוצע. הבעיה העיקרית היא שהשימוש בטכנולוגיה הולך ומתרחב, והמפתחים הבאים כבר לא ישמרו על אתיקה ומוסר. רק לפני כמה שבועות סטארט-אפיסט מתוסכל שכינה את עצמו "אלברטו" הפיץ אפליקציה בשם DeepNude, שמאפשרת "להפשיט" כל אשה מבגדיה ולהציג את תמונתה בעירום. האפליקציה נבנתה באמצעות קוד פתוח שזמין לכל. אפשר להניח שמפתחים אחרים עובדים ממש בימים אלה על משהו דומה, רק בווידיאו.

 

כשמדברים עם חוקרים ומפתחים בתחום, אפשר להתרשם שבינתיים הם פשוט נהנים. היעד הוא הצגת יכולת חדשה שטרם הוצגה לפני כן, וקיימת תחרות על יוקרה בין צוותי פיתוח במקומות שונים בעולם. יובל נירקין, מייסד שותף בחברת Deep Nen, עומד לפרסם מאמר שלדבריו יחולל מהפכה בתחום, ויראה שניתן לייצר סרטון דיפ פייק באופן מיידי - בניגוד לתהליך הנוכחי שאורך ימים ואף שבועות. "אפשר יהיה לייצר כמות אדירה של דיפ פייק ולהפיץ לעולם בקלות", הוא אומר.

 

יובל נירקין דיפנן (צילום: יח
"התחום באמת פרוץ". יובל נירקין(צילום: יח"ץ)

 

ואתה לא מודאג שזה ישמש למטרות לא ראויות?

 

"אני חושב שיש שני כיוונים, אחד שאומר 'בואו ננסה להגביל את הטכנולוגיה', והשני שאומר 'בואו נפיץ את הטכנולוגיה כמה שיותר, ואז כולם יכירו אותה ויידעו לזהות אותה'. כיום התחום הוא באמת פרוץ, כל אחד יכול לקחת את הקוד, להשקיע המון זמן, אבל בסוף לעשות מה שהוא רוצה. מה שאנחנו עושים בא לעשות סדר, יהיה יותר קל ונוח להשתמש בטכנולוגיה שלנו לפרויקטים האלה, ואז גם אפשר יהיה לזהות אם סרטון מסוים הוא פורנו או מפר זכויות".

 

אצל בר הללי, חוקר בינה מלאכותית (AI), פיתוח טכנולוגיית דיפ פייק הוא סוג של תחביב. בהתבסס על רעיונות שאסף מפרסומים אקדמיים ועל ספריות קוד פתוח, הוא השתמש בטכנולוגיה שמכונה Facial Reenactment כדי ליצור בין היתר דמות דיגיטלית של נתניהו שאותה הוא מניע כמו בובה על חוט, כולל הבעות פנים ותנועות ראש (צפו בסרטון שבתחילת הכתבה). "לא ראיתי הרבה חברות שמייצרות דבר כזה", הוא אומר.

 

דיפ פייק בר הללי (צילום: דף הפייסבוק)
"כשאתה נותן נשק לציבור, הוא משתמש בו לרעה". בר הללי(צילום: דף הפייסבוק)

 

גם הללי, כמו אחרים בתחום הדיפ פייק, מעדיף לחשוב על שימושים חיוביים בטכנולוגיה, למשל על אפשרות ליצור סרטונים של קרובי משפחה שנפטרו. ובכל זאת, הוא לא מתעלם מהפוטנציאל לשימוש לרעה בטכנולוגיה: "עד כה לא היו שימושים זדוניים בדיפ פייק, כי הטכנולוגיה לא מספיק זמינה לציבור ומי שעושים את זה כיום הם חוקרים ובעלי ידע אקדמי, שיש להם מצפון מוסרי מסוים. כשזה יהיה זמין כאפליקציה, אז נראה התפרצות של כל הדברים הפחות טובים, כי כשאתה נותן נשק לציבור הוא גם משתמש בו לרעה מדי פעם".

 

אלוף (במיל') אהרון זאבי פרקש, מי שהיה ראש אמ"ן ומנכ"ל חברת FST Biometrics, מזהיר שטכנולוגיית הדיפ פייק היא איום מוחשי ומיידי: "אם אני מסתכל על הטכנולוגיות שמתפתחות בתחום הזה, עם היכולת ליצור אמינות, יש להן עוצמה שנוגעת בסכנה גם במישור המדיני. למשל אמירה של נשיא ארה"ב שהאיראנים יתייחסו אליה ברצינות ויעשו משהו. או מצב של טרור, למשל איסמעיל הנייה עם אמירה שמחממת את הגזרה, ואז אנחנו מגיבים כי אנחנו לא יכולים להגיד אם זה פייק או לא פייק. אני חושב ששם הסכנה האמיתית".

 

איך מתמודדים עם הסכנה הזו?

 

"הציגו לי הצלחה כבירה שנעשתה בפינלנד, שם הכניסו למערכת החינוך מגיל 14 עד 18 לימודים איך לאתר פייק ניוז. נמצא שבהשוואה לילדים בארה"ב שלא למדו את הנושא, הפינים זיהו יותר פייק ניוז בהפרש של 50%. נראה לי שחשוב ללמד ילדים לחיות בעולם של פייק ניוז. זה, בשילוב תקנות, יכול להקטין את הסכנה שמישהו מרושע ישיג הישג מרשים".

 

יש מחלוקת בין הפעילים בתחום אם יש פתרון לזיהוי דיפ פייק זדוני. ד"ר עומר בן עמי, שותף מייסד בחברת CannyAI שמפתחת טכנולוגיה להשתלת תנועות שפתיים, אומר שבסרטונים שיוצרת החברה קשה מאוד לזהות את הזיוף, וליומרה לייצר טכנולוגיה לזיהוי דיפ פייק אין כיסוי: "אלה שמציעים את זה מחפשים דברים לא קונסיסטנטיים בווידיאו, אז זה נחמד שהם מציעים את הדבר הזה, אבל אין להם באמת פתרון. לעומת זאת, אם אני הייתי מאמן את ה-AI שלי לחפש דברים שתלויים יותר בהתנהגות של האדם, זה עשוי לעבוד. אלה דברים שאולי נעשה".

 

מעגל שלא נגמר 

זאבי פרקש אומר שכיום יכולת הזיוף מתקדמת מהר יותר מיכולת הזיהוי: "זה קלאסי בעולם הביטחוני: ההתקפה מובילה עד שיפור ההגנה, וזה נכון גם בסייבר. בסופו של דבר יקומו גופים, כולל סטארט-אפים, שיבנו טכנולוגיה לזיהוי, אבל התוקפים יהיו תמיד צעד אחד קדימה. זה מעגל שלא נגמר, והוא מאתגר את החיים המודרניים שלנו".

 

איום הדיפ פייק    (צילום: שמוליק דודפור)

איום הדיפ פייק    (צילום: שמוליק דודפור)

סגורסגור

שליחה לחבר

 הקלידו את הקוד המוצג
תמונה חדשה

שלח
הסרטון נשלח לחברך

סגורסגור

הטמעת הסרטון באתר שלך

 קוד להטמעה:

 

עמדה שונה לחלוטין מציג ד"ר דן ערב, חוקר תרבות מבית הספר לתקשורת במכללה למינהל והחוג לקולנוע וטלוויזיה באוניברסיטת תל אביב. לדבריו, הדיפ פייק דומה לקולנוע מוקומנטרי, שמתחזה באופן משעשע לדוקומנטרי: "יהיו אנשים שיגידו שזה ז'אנר ביקורתי, במובן שהוא אמור לפקוח את העיניים שלך ולהראות לך כמה קל לגרום לך להאמין. יש בזה משהו שאומר שצריך לחשוד, שהכל זה ייצוגים שמתחפשים לאמת, שאין בעצם אמת אלא מינונים שונים של קרבה לאמת".

 

לדבריו, ריבוי סרטי דיפ פייק יהיה דווקא מועיל לחברה: "אני חושב שככל שנראה יותר, אנחנו נפסיק לשאול אם זה אמיתי. זו שאלה בעייתית, ואני חושב שהעמדה הבסיסית צריכה להיות ששום דבר הוא לא אמיתי. אם יותר אנשים לא יאמינו לשום דבר שהם רואים זה יהיה יותר טוב. ככל שניחשף ליותר שקרים, רמת החשדנות הכללית שלנו תעלה וזה טוב".

 

אם מניחים שמבול סרטוני דיפ פייק זדוניים בוא יבוא, הבעיה האתית-מקצועית העיקרית נמצאת כנראה במגרש של כלי התקשורת, שמשמשים שומרי סף עבור הציבור. "יש פה מתח בין זכות הציבור לדעת לבין אמינות כלי התקשורת, שלא רוצים להיתפס ככאלה שמזרימים כל שטות שמישהו אומר", אומר זאבי פרקש: "אם מגיע סרטון של נסראללה שבו הוא מודיע שהוא מתכוון לירות על מטרות בין נתניה לאשדוד, הייתי בודק פעמיים-שלוש אם התמונות נכונות ומתי שודרו".

 

דיפ פייק - אור לוי (צילום: יח
מודל הסתברותי. אור לוי(צילום: יח"ץ)

 

לדעת בן עמי, "אפשר לדעת תמיד מה המקור של סרטון, ויש פה עניין של אחריות. זה לא קל, כי אתה צריך להחליט אם לפרסם או שמישהו אחר יפרסם, אבל בסופו של דבר אנשים יצטרכו לוותר על קליקים". נירקין מוסיף: "בגלל שהטכנולוגיה תשתפר, האופן שבו הציבור יצרוך מידע יהיה חייב להיות שונה מהיום. אתה תצטרך לצרוך את המידע מכלי התקשורת הגדולים ולסמוך על זה שהם יעשו את העבודה בשבילך".

 

הפתרון עשוי להימצא בטכנולוגיה כמו זו שמפתחת חברת AdVerif.ai הישראלית, שבאמצעות בינה מלאכותית מזהה פייק ניוז הן על בסיס התוכן והן על בסיס הדרך שבה התפרסם. כשמזוהה ידיעה חשודה, האלגוריתם של החברה יחפש גרסאות מוקדמות יותר של התוכן, שאולי עברו מניפולציה או הוצאו מההקשר האמיתי שלהן. מנכ"ל החברה אור לוי אומר: "אנחנו פיתחנו מודל הסתברותי, שמקבל תוכן ומציג הסתברות: מה הסבירות שהתוכן הזה מזויף. זה מבוסס גם על תוכן וגם על המקור של התוכן".

 

הגישה הזו עשויה להיות הגישה היעילה היחידה בעולם שבו ניתן לייצר סרטונים מזויפים באיכות מושלמת. השאלה שצריכה להעסיק אותנו אינה אם זה נראה אמיתי, אלא אם זה הגיע אלינו ממקור שאנחנו בוטחים בו - וכאן יש לכלי התקשורת המקצועיים תפקיד מרכזי, שאולי מחזיר אותם לימים הטובים של לפני היות הרשת החברתית.

 

 תגובה חדשה
הצג:
אזהרה:
פעולה זו תמחק את התגובה שהתחלת להקליד
עיבוד תמונה. צילום: AP
איסמעיל הנייה. בקרוב בדיפ פייק?
עיבוד תמונה. צילום: AP
מומלצים