שתף קטע נבחר
 

הרצח הבא יקרה מחר בצהריים: הבעיה עם תוכנות לחיזוי פשעים

משטרות ועיריות בעולם עושות שימוש בתוכנות בניסיון לחזות מתי והיכן יתרחשו מעשי פשע. אבל הן מעוררות ויכוח חריף: עם כל הכבוד לסטטיסטיקה, טוענים המתנגדים, דווקא כך מתחזקת האפליה נגד קבוצות בחברה

בתחילת כל משמרת מקבלים שוטרי לוס־אנג'לס דף שעליו נכתב אילו פשעים עלולים להתרחש באותו יום. על גבי מפה של שכונות העיר מפוזרות נקודות אדומות, וכל אחת מציינת אירוע פשיעה פוטנציאלי: גניבת אוטו בפינת רחובות אחת, פריצה לבית ברחוב אחר וכו'. השוטרים מתניעים את רכבם ויוצאים לסיורים בנקודות הללו. אולי, אם יתמזל מזלם, הם יצליחו לעצור את הפשע הבא – לפני שהתרחש.

 

מחשב לניבוי פשעים (צילום: AP)
תוכנה לחיזוי פשיעה במשטרת לוס אנג'לס(צילום: AP)

 

המסמך הזה הוא מעין "תחזית פשע" שמונפקת על ידי תוכנה בשם PredPol, המשמשת את משטרת לוס־אנג'לס וכן עשרות תחנות משטרה ברחבי ארה"ב ובעולם. זו תוכנה לחיזוי פשיעה, שלצד מערכות נוספות מבשרות על אחת התמורות הטכנולוגיות הדרמטיות – והשנויות ביותר במחלוקת – שחלו בשנים האחרונות בעולם אכיפת החוק: שיטור מנבא (Predictive Policing), או חיזוי פשיעה. זו טכנולוגיה שנכנסת בשנים האחרונות יותר ויותר לשימוש בארגוני אכיפת חוק. באמצעות בינה מלאכותית, עיבוד נתונים והיתוך מידע, המערכות הללו מנסות לנבא היכן ומתי יתחולל פשע, ויותר מכך: מי יבצע אותו. מטרת־העל: למנוע פשע לפני שהוא מתרחש. תוציאו מהראש את הסרט "דוח מיוחד": במותחן המד"ב בכיכוב טום קרוז, המבוסס על ספר של פיליפ ק' דיק, שלושה אנשים עם יכולות על־טבעיות מסוגלים לחזות במדויק מקרי רצח לפני שהתרחשו, וכך שוטרי מחלקת "קדם־פשע" מסוגלים למנוע אותם לפני התרחשותם. המציאות שונה לחלוטין.

 

הישגים מוכחים 

המערכות שפועלות כיום מתמקדות בניבוי המיקום והזמן שבו עשוי להתבצע פשע, או מי יהיה מעורב בו. מזינים למערכת סטטיסטיקות מפורטות על מקרי פשיעה קודמים, וכן גורמים שונים שמשפיעים על פשע: סביבתיים, חברתיים, דמוגרפיים וכלכליים, קשרים בין אנשים, ועוד. התוכנה מנתחת את המידע, מאתרת דפוסים, וכך מסוגלת לנבא מי יהיה מעורב בפשע – ואיפה.

 

"ההנחה היא שפשע לא תמיד אקראי", אומר פרופ' ליאור רוקח, ראש המחלקה להנדסת מערכות מידע באוניברסיטת בן־גוריון. "יש לו מאפיינים קבועים, כמו זמן, גיאוגרפיה, זהות של קורבנות, צורת פריצה לבתים ועוד. את כל אלה אפשר להזין למערכות למידה חישובית, וכך ללמוד את שיטת הפעולה וההרגלים של העבריינים, ולעזור בחיזוי הפשיעה הצפויה".

 

ליאור רוקח (צילום: דני מכליס)
חשדנות כלפי המערכות. ליאור רוקח(צילום: דני מכליס)

 

כמובן, התחזיות הללו הן עדיין בגדר מידע סטטיסטי, ולא בהכרח מדויק. תרחיש שבו שוטר מגיע בשנייה האחרונה לזירה ומונע רצח או שוד בנק ברגע האחרון, הוא עדיין בגדר מדע בדיוני. "הכנסת המערכות הללו נעשות עדיין בצעדים קטנים ותוך חשדנות רבה", מוסיף רוקח. "אני חושב שזה בצדק — הרי מעורבים כאן בני אדם", אומר רוקח. "עם זאת, אני מאמין שבתוך 20 שנה, היכולות שלנו יהיו מאוד טובות. יהיה ניתן להגיע ברמת דיוק גבוהה לאדם שעומד לבצע פשע או למקום מסוים שבו יתקיים פשע".

 

ברחבי העולם נעשה שימוש גובר בטכנולוגיות כאלה, כמו של Predpol או פלנטיר. גם חברות הענק נכנסו לנושא עם מיזמים בתחום השיטור המנבא – כמו מייקרוסופט, יבמ והיטאצ'י. "פלטפורמות לחיזוי פשיעה של יבמ הוכיחו ירידה של 28% במקרי שוד ו־36% בפריצות לרכב, בפרויקטים בבריטניה", אומרת דנה ארדיטי, מנהלת תחום ניתוח אנליטי בחברת IBM ישראל. "בשנים האחרונות יש יכולת גוברת של מערכות ממוחשבות לעבד ולנתח מידע שהוא לא מובנה, למשל טקסטואלי או ויזואלי. כך אפשר לקחת מקורות מידע שבידי המשטרה – לא רק דוחות אלא מידע דמוגרפי ואירועים חדשותיים – לעבד את כולו, ליצור היסטוריה של אירועים, וללמוד תבניות התנהגות של עבריינים".

 

למנוע טרור 

ומה בישראל? כאן התחום בחיתוליו. במשטרת ישראל הנושא בבחינה מוקדמת מאוד ועדיין לא החלו ליישם אותו בפועל. עם זאת, בשבוע שעבר הקימו משטרת ישראל ומעבדות הסייבר של אוניברסיטת בן־גוריון מרכז מחקר משותף ליישומי קרימינולוגיה חישובית, שבראשו יעמוד פרופ' רוקח. בין השאר, יעסוק המרכז בפיתוח טכנולוגיות לחיזוי ומניעת פשיעה.

 

 

דנה ארדיטי (צילום: עידן סבח)
ללמוד תבניות התנהגות של עבריינים. דנה ארדיטי(צילום: עידן סבח)

 

בישראל קיבל התחום טוויסט מקומי ייחודי: חיזוי של טרור, ולא בהכרח פשיעה. בשוק האזרחי, אחת החברות העוסקות בכך היא חברת הסטארט־אפ הישראלית "המימד החמישי", שבדירקטוריון שלה אפשר למצוא את בני גנץ ורם בן ברק. גם במערכת הביטחון מנצלים את הטכנולוגיות החדשות: לפי פרסומים שונים מהשנים האחרונים ותחקיר שפורסם ב"הארץ" בשנה שעברה, בזרועות הביטחון מפעילים מערכת חיזוי טכנולוגית, המשתמשת במידע מרשתות חברתיות כדי לחזות ולאתר מחבלים בודדים פוטנציאליים.

 

אך משוכללות ככל שיהיו, בימים אלה טכנולוגיות חיזוי הפשיעה מעוררות ויכוח ציבורי חריף, בעיקר בארה"ב. בראש ובראשונה, יעילותן עדיין מוטלת בספק רב. לפי בדיקה שביצע "וושינגטון פוסט", אמנם במשטרת לוס־אנג'לס מייחסים לא מעט הצלחות לתוכנת חיזוי הפשיעה — כמו למשל שוטרים שאכן איתרו גנב במכונית גנובה במקום שבו התוכנה חזתה גניבת רכב. אך בפועל, שיעורי הפשע בלוס־אנג'לס דווקא עלו בשנים האחרונות. ובמקומות אחרים אין עדיין מספיק מחקרים ומידע עצמאי שיצביעו על יעילות התוכנות הללו בהפחתת ומניעת פשיעה.

 

חסות לאפליה 

מעבר לכך, מתעורר חשש מפגיעה בזכויות האזרח (הסרט "דוח מיוחד" העלה את השאלה המוסרית: האם אפשר להאשים אדם בפשע שעדיין לא ביצע?) ודאגה מפני חדירה לפרטיות. הצצה לעתיד קודר כזה מגיעה מסין: רק לאחרונה פירסמו פעילי זכויות אדם בסין כי באחד ממחוזות המדינה נכנסה לשימוש מערכת שלוקחת את הרעיון שלב אחד הלאה: מערכת למניעת טרור פשיעה ופעילות נגד השלטון. היא אוגרת מידע משלל מקורות כמו זיהוי פנים, לוחיות רישוי, מידע משטרתי, מידע אישי פיננסי של אזרחים, מידע על הגלישה ושימוש באפליקציות, ואפילו שימוש בטלפון והשקפות דתיות, ומנתחת את המידע כדי לזהות אנשים חשודים. מי שנחזה כי יהיה מעורב בפעילות טרור או פעילות אסורה – נעצר ונשלח למחנה לחינוך מחדש, גם אם לא עשה דבר.

 

כבר לא מדע בדיוני? הקדימון לסרט "דו"ח מיוחד":

 

אך אולי הבעיה הגדולה כרגע היא שנדמה שהתוכנות הללו עלולות רק להגביר ולחזק הטיה וגזענות הטבועים לעיתים בעבודה המשטרתית – ואף לתת לכך "חסות טכנולוגית". כלומר, שימוש בתוכנות כאלה עלול רק להגביר את האפליה כלפי קבוצות אוכלוסייה מסוימות שסובלות גם כך מיחס מפלה מצד המשטרה, כמו האפרו־אמריקאים בארה"ב.

 

הבעיה הבסיסית היא שהמערכות מבוססות על נתונים וסטטיסטיקות — ואת אלה יוצרים שוטרים, בשר ודם, שהם לא מושלמים ויש לכל אחד מהם הטיה. ובקיצור: אם בני אדם שאחראים על הזנת הנתונים לתוכנה הם גזענים, התוצאה תהיה תוכנה גזענית. התוצאה עלולה להיות, לדוגמה, שמערכת כלשהי תעריך רמת מסוכנות של אדם אפרו־אמריקאי יותר מאשר אדם לבן, גם אם שאר תכונות הפרופיל שלהם זהות לחלוטין.

 

"איכות התחזית תלויה באיכות המידע". כתב ב־2016 איזיקאל אדוורדס מ־ACLU (האיגוד האמריקאי לחירויות אזרחיות) במאמר ב"הפינגטון פוסט". "אם מכניסים זבל, יוצא זבל. והמידע שנאסף על ידי המשטרה ידוע כגרוע, לא שלם ומוטה גזעית".

 

 

 תגובה חדשה
הצג:
אזהרה:
פעולה זו תמחק את התגובה שהתחלת להקליד
מומלצים