שתף קטע נבחר
 

מומחים פנו לאו"ם: מנעו פיתוח "רובוטים מחסלים"

116 מומחים, בהם אילון מאסק, גורסים כי צריך לאסור את השימוש בבינה מלאכותית בניהול כלי נשק: "זה יכול להיות נשק של טרור, נשק שרודנים ומחבלים משתמשים בו נגד אוכלוסיות תמימות"

יותר מ-100 מומחים מובילים בתחום הרובוטיקה קוראים לאו"ם לנקוט צעדים למניעת פיתוחם של "רובוטים מחסלים". כלי תקשורת שונים בעולם דיווחו אתמול (יום ב') כי במכתב רשמי לארגון הבינלאומי, שעליו חתום גם היזם המיליארדר אילון מאסק, מזהירים בכירי עולם הבינה המלאכותית (AI) מפני "מהפכה שלישית בלוחמה".

 

ברשת BBC דווח כי המכתב מציין שטכנולוגיה "קטלנית אוטונומית" היא "תיבת פנדורה". 116 המומחים החתומים על המכתב גורסים כי יש לפעול מיד וכי צריך לאסור את השימוש ב-AI בניהול כלי נשק.

 

מפחיד. רובוט ענק לומד ללכת

מפחיד. רובוט ענק לומד ללכת

סגורסגור

שליחה לחבר

 הקלידו את הקוד המוצג
תמונה חדשה

שלח
הסרטון נשלח לחברך

סגורסגור

הטמעת הסרטון באתר שלך

 קוד להטמעה:

 

"ברגע שיפתחו (את כלי הנשק הללו), הם יאפשרו לנהל עימות מזוין בקנה מידה גדול מאי פעם ובזמן קצר יותר משתצליח האנושות להכיל", נכתב לאו"ם, על פי ה"גרדיאן". "זה יכול להיות נשק של טרור, נשק שרודנים ומחבלים משתמשים בו נגד אוכלוסיות תמימות, ונשק פרוץ שמשתמשים בו למטרה אחרת מזו המקורית".

 

נימת המכתב של מומחי הטכנולוגיה תקיפה ומשדרת דחיפות, והם מזהירים: "אין לנו הרבה זמן לפעול. ברגע שתיבת פנדורה הזו תיפתח - יהיה קשה לסגור אותה".

 

המומחים קוראים להכניס את מה שמכונה בפיהם "טכנולוגיה שגויה מוסרית" לרשימת הנשק האסור לפי "האמנה בדבר כלי נשק קונבנציונליים מסוימים" של האו"ם. מלבד אילון מאסק, המשמש מנכ"ל טסלה ו-SpaceX, חתום על המכתב גם מוסטפא סולימאן, מייסד DeepMind של גוגל.

 

 (צילום: shutterstock) (צילום: shutterstock)
(צילום: shutterstock)

 

זו אינה הפעם הראשונה שוועדות באו"ם דנות באפשרות של איסור על פיתוח טכנולוגיה של רובוטים מחסלים. כבר ב-2015 חתמו יותר מאלף מומחי טכנולוגיה, מדענים וחוקרים על מכתב שמפרט את הסכנות שטמונות בנשק אוטונומי. עם החתומים נמנו האסטרופיזיקאי המפורסם בעולם, סטיבן הוקינג, ומייסד אפל סטיב ווזניאק. אילון מאסק חתם גם על המכתב ההוא.

 

ב-BBC מסבירים כי רובוט מחסל הוא נשק אוטונומי לחלוטין שיכול לבחור ולתקוף מטרה מבלי שום התערבות אנושית. רובוטים כאלו עדיין לא קיימים, אבל פיתוחים חדשניים מקרבים מאוד את המציאות הזו.

 

אלו הטוענים לטובת הרובוטים מאמינים כי חוקי המלחמה המודרניים מספיקים כדי להתמודד עם כל בעיה שתצוץ במסגרת הטכנולוגיה הזו, וכי השהיה, ולא איסור מוחלט, צריכה להיות הצעד הראשון לטיפול בנושא. כאמור, המתנגדים לשימוש ברובוטים כאלה מאמינים שהם בגדר איומים על האנושות וכי כל "פונקציה רצחנית אוטונומית", כלשונם, צריכה להיות אסורה.

 

לפנייה לכתב/ת
 תגובה חדשה
הצג:
אזהרה:
פעולה זו תמחק את התגובה שהתחלת להקליד
מומלצים