צה"ל השתמש במערכת מבוססת AI (בינה מלאכותית) שלא נחשפה בעבר, שסייעה בזיהוי 37 אלף מטרות פוטנציאליות על סמך הקשר שלהם לחמאס. כך פורסם ב"גרדיאן" הבריטי מפי מקורות מודיעין שמעורבים במלחמה, לפי תחקיר של "שיחה מקומית". המקורות טענו כי מלבד השימוש במערכת, שנקראת "לבנדר", גורמים בצה"ל התירו להרוג מספר רב של אזרחים פלסטינים, במיוחד במהלך השבועות והחודשים הראשונים של המלחמה.
אותם גורמים שהתראיינו ל"גרדיאן", סיפקו הצצה נדירה לחוויות ממקור ראשון בשימוש במערכת ה-AI, שסייעה בזיהוי מטרות במהלך המלחמה. השימוש ב-AI, כך נכתב ב"גרדיאן", העלה שורה של שאלות משפטיות ומוסריות, ושינה את היחסים בין אנשי הצבא לטכנולוגיה.
"זה חסר תקדים, בזיכרוני", אמר קצין מודיעין אחד שהשתמש ב"לבנדר", שאמר כי הוא בוטח יותר ב"מנגנון סטטיסטי", מאשר חייל שנמצא באבל. "כולם שם, כולל אני, איבדו אנשים ב-7 באוקטובר. המכונה עשתה את זה בקור רוח. וזה הקל על זה". קצין אחר סיפר על חיסכון בזמן בזכות אותה מערכת.
ששת הקצינים שהתראיינו בתחקיר סיפרו ש"לבנדר" מילאה תפקיד מרכזי במלחמה, ועיבדה המון נתונים כדי לזהות במהירות פעילים "זוטרים" פוטנציאליים למטרותיהם. המערכת, כך נכתב, פותחה על ידי 8200.
כמה מהמקורות תיארו בנוסף כיצד, עבור קטגוריות מסוימות של מטרות, צה"ל הקציב, טרם תקיפות, "מספרים מאושרים" עבור המספר המשוער של האזרחים שעלולים להיהרג. שניים מהמקורות טענו כי במהלך השבועות הראשונים של המלחמה, "הורשו" להם להרוג 15 או 20 אזרחים במהלך תקיפות אוויריות על חמש "זוטרים". התקפות על מטרות כאלה, כך נכתב, בוצעו בדרך כלל תוך שימוש בתחמושת לא מונחית, המכונה "פצצות טיפשות", שהרסו בתים והרגו את יושביהם.
במבצעים צבאיים שצה"ל ערך לפני המלחמה, נכתב, ייצור "מטרות אנושיות" הצריך לעיתים קרובות תהליך עבודה מורכב יותר. המקורות תיארו שבשביל "להפליל" חשוד, או לזהות אותו כיעד לגיטימי, היה צורך באישור יועץ משפטי. בשבועות ובחודשים שלאחר 7 באוקטובר, נכתב בתחקיר, המודל הזה לאישור תקיפות על מטרות אנושיות הואץ באופן דרמטי. עם התגברות ההפצצות של צה"ל על עזה, לדבריהם, דרשו המפקדים "צינור רציף של מטרות".
אחד מהקצינים העיד: "כל הזמן לחצו עלינו, 'תביאו לנו עוד מטרות'. אמרו לנו: עכשיו אנחנו צריכים לפרק את חמאס, לא משנה מה המחיר. מה שאפשר, מפציצים". כדי לענות על דרישה זו, כך נכתב, צה"ל הסתמך במידה רבה על מערכת "לבנדר" כדי ליצור מאגר מידע של אנשים הנחשבים כבעלי מאפיינים של מחבלי הג'יהאד האיסלאמי או חמאס.
המקורות אמרו כי לאחר דגימה אקראית והצלבה של תחזיותיה, הגיעה יחידת המודיעין למסקנה ש"לבנדר" השיגה רמת דיוק של 90%, מה שהוביל את צה"ל לאשר את השימוש הגורף בה. המערכת, כך תואר ב"גרדיאן", יצרה מאגר מידע של עשרות אלפי אנשים שסומנו כפעילים בדרג נמוך, בעיקר בזרוע הצבאית של חמאס. לצד זה, נעשה שימוש במערכת מבוססת AI נוספת, הנקראת "הבשורה", שהתמקדה במבנים.
בתגובה לפרסום ולתחקיר ב"שיחה מקומית", מצה"ל נמסר כי הפעולות בוצעו בהתאם לכללי המידתיות לפי המשפט הבינלאומי. בצה"ל הסבירו ש"פצצות טיפשות" הן כלי נשק סטנדרטיים, שמשמשות את טייסי צה"ל באופן שמבטיח רמת דיוק גבוהה.
באשר למערכת "לבנדר", בצבא אמרו כי המאגר משמש להצלבת מקורות מודיעין, על מנת ליצור שכבות עדכניות של מידע על פעילים צבאיים של ארגוני טרור. בצבא הבהירו כי זו אינה רשימה של פעילים צבאיים שמיועדים לחיסול. "צה"ל אינו משתמש במערכת בינה מלאכותית המזהה פעילי טרור או מנסה לחזות אם אדם הוא מחבל", נמסר. "מערכות מידע הן רק כלים עבור אנליסטים בתהליך זיהוי היעד".
בשבוע שעבר שלושה גורמי מודיעין ישראלים שדיברו בעילום שם, אישרו ל"ניו יורק טיימס" כי מערכת הביטחון מפעילה טכנולוגיות לזיהוי תווי פנים בעזה לצורך איתור מבוקשים. בכתבה הנרחבת שעוסקת בנושא הובא סיפורו של מוסאב אבו טוהא (31), משורר פלסטיני תושב הרצועה, שטוען כי כחודש לאחר תחילת המלחמה הוא נלקח לחקירה על-ידי כוחות צה"ל שכיסו את עיניו והובילו אותו לחקירה. "לא היה לי מושג איך הם יכלו לדעת את השם שלי", סיפר. אחר כך התברר, כך נטען, שאבו טוהא אותר כמבוקש באמצעות תוכנת בינה מלאכותית לזיהוי פנים.
בכתבה בעיתון האמריקני צוין כי התוכנה לזיהוי פנים, שמופעלת על-ידי יחידת המודיעין הישראלי שכוללת את 8200, נשענת על טכנולוגיה של חברת קורסייט הישראלית שבתחילת המלחמה סייעה לבתי חולים בארץ לזהות נפגעים במתקפת הפתע של חמאס. לפי גורמי המודיעין הישראלים, התוכנה מסתייעת גם ב"גוגל תמונות" ומאפשרת לזהות פנים מתוך קהלים גדולים ומתוך צילומים של כלי טיס בלתי מאוישים.