2 צפייה בגלריה
מטוסי מטוס קרב F-16 F16 של חיל האוויר הישראלי ב תרגיל הבינלאומי בלו פלאג Blue Flag ב בסיס עובדה
מטוסי מטוס קרב F-16 F16 של חיל האוויר הישראלי ב תרגיל הבינלאומי בלו פלאג Blue Flag ב בסיס עובדה
השימוש בטכנולוגיה לא כפוף לרגולציה בינלאומית. מטוס F-16
(צילום: AFP)
ישראל היא אחת מהמדינות היחידות בעולם, לצד רוסיה, שסירבו לחתום על אמנה בינלאומית להסדרת השימוש הצבאי בבינה מלאכותית, כפי שדווח ב-ynet. כעת מתבררת הסיבה: גורמים בצה"ל מאשרים לסוכנות הידיעות בלומברג שהצבא החל להשתמש ב-AI כדי לבחור מטרות תקיפה אוויריות וכדי לזרז תהליכים לוגיסטיים במהלך פעולות בשטחים ותקיפה של מטרות איראניות ברחבי העולם.
בצה"ל אמנם לא מציינים מבצעים ספציפיים, כמו "בית וגן" האחרון בג'נין, אבל מאשרים כאמור שחיל האוויר משתמש במערכת להמלצה על יעדי תקיפה, שמופעלת על ידי AI, ובוחנת כמויות אדירות של נתונים כדי לבחור מטרות לתקיפות אוויריות. כדי להבטיח שהתקיפות הבאות יבוצעו במהירות המירבית, משתמשים בצבא במודל AI נוסף בשם Fire Factory, שבוחן נתונים על מטרות תקיפה שאושרו בעבר כדי לחשב עומסי תחמושת, להציע לוחות זמנים, לתעדף ולהקצות אלפי מטרות למטוסים ולמל"טים.
שתי מערכות ה-AI מפוקחות על ידי מפעילים אנושיים, שבודקים ומאשרים מטרות בודדות ותוכניות תקיפות אוויריות, אך השימוש של צה"ל בטכנולוגיה לא כפוף לשום רגולציה בינלאומית או אפילו ברמה לאומית. התומכים בשימוש בבינה מלאכותית בשדה הקרב טוענים שהאלגוריתמים המתקדמים עדיפים על היכולות האנושיות, ויכולים לעזור לצבא למזער את הנפגעים.
אלו שמותחים על כך ביקורת, לעומת זאת, מזהירים מההשלכות הקטלניות של הסתמכות-יתר על מערכות אוטונומיות. האופי החשאי של פיתוח כלי לחימה שמשתמשים ב-AI מעורר חששות רציניים בעולם, בעיקר מכיוון שהפער בין מערכות חצי אוטונומיות למכונות הרג אוטומטיות לחלוטין עשוי להצטמצם בן-לילה. בתרחיש כזה, מכונות יוסמכו לפעול עצמאית לאתר ולפגוע במטרות, ובני אדם יורחקו לחלוטין מעמדות של קבלת החלטות.
2 צפייה בגלריה
נפתלי בנט בנימין נתניהו
נפתלי בנט בנימין נתניהו
רצו להפוך את ישראל ל"מעצמת AI". בנט ונתניהו
(צילום: מארק ישראל סלם, יואב דודקביץ')
ראש הממשלה בנימין נתניהו, כמו גם קודמו בתפקיד נפתלי בנט, תיארו לא אחת את כוונתם להפוך את ישראל ל"מעצמת AI״, אבל מפת הדרכים שתביא לכך נותרה מעורפלת למדי. משרד הביטחון סירב להתייחס בעבר לכמה הוא מושקע בבינה מלאכותית, וצה"ל לא מתייחס לחוזי הגנה פרטנית. בניגוד למירוץ החימוש הגרעיני, שבו הדלפת פרטים על יכולות צבאיות מהווה היבט מרכזי של הרתעה, מערכות אוטונומיות שנעזרות ב-AI מפותחות על ידי ממשלות, צבאות וחברות הגנה פרטיות באופן חשאי.
הפרטים על השימוש המבצעי של צה"ל בבינה מלאכותית נותרו מסווגים במידה רבה עד היום, אבל הצהרות של גורמים צבאיים לאורך השנים מצביעות על כך שהצבא צבר ניסיון רב עם המערכות השנויות במחלוקת במהלך פעולות ברצועת עזה, בתגובה לתקיפות רקטות. בחודש פברואר האחרון חשף קצין ביחידת 8200 כי "השתמשנו ב-AI בשביל לזהות מפקדי חמאס בעזה". אלוף-משנה יואב, מפקד מרכז הבינה המלאכותית ביחידת הסייבר, אמר במהלך כנס באוניברסיטת תל אביב כי "אחד הכלים המשמעותיים שבנינו הוא מערכת שיודעת למצוא אנשים 'מסוכנים' על בסיס רשימת אנשים מוכרים שהוזנה למערכת. היא עושה בשניות את מה שלמאות חוקרים היה לוקח שבועות לעשות".
בשנים האחרונות צה"ל רק הרחיב את השימוש שלו ב-AI ליחידות שונות. הוא מתפעל ארכיטקטורה דיגיטלית מורכבת המוקדשת לפירוש כמויות עצומות של צילומי מזל"ט וטלוויזיה במעגל סגור, תמונות לוויין, אותות אלקטרוניים, תקשורת מקוונת ונתונים אחרים לשימוש צבאי. יחידה ייעודית ב-8200 אמונה על ההתמודדות עם מבול המידע הזה, וחלק מהמערכות נבנו על ידי קבלני ביטחון ישראלים, בעוד אחרים, כמו מצלמות המחסומים StarTrack, שאומנו על אלפי שעות של צילומים לזהות אנשים וחפצים, פותחו על ידי הצבא עצמו.
בהקשר זה יצויין כי צה"ל עדיין מסרב להתייחס לביקורת של ארגוני זכויות אדם על שימוש שנעשה בטכנולוגיית זיהוי פנים לניטור פלסטינים במחסומים. בעבר הצבא הכיר בבעיה של חוסר השקיפות באופן שבו אלגוריתמים מגיעים למסקנות שלהם, אך הבהיר שכל שימוש במערכות הבינה המלאכותית נבדק בקפידה על ידי חיילים, שיכולים גם לשחזר את תהליך הסקת המסקנות שלהן.