החששות מעליית טכנולוגיות ה-AI ממשיכים להטריד מחוקקים ברחבי העולם, ובסנאט האמריקאי קיימו אתמול (יום ג') דיון נוסף בנושא סכנות הבינה המלאכותית, שנערך בפני ועדת המשפט. במהלך הדיון, ייעצו מומחים בתחום להחיל רגולציה כהגנה, אך לשמור על איזון על מנת שלא לפגוע בתעשייה. הפאנל כלל את מנכ"ל אנתרופיק דאריו אמודיי, את מדען המחשב פרופ' סטיוארט ראסל מאוניברסיטת קליפורניה, ואת פרופ' יהושע בנג'יו, מחלוצי תחום הבינה המלאכותית.
אמודיי דיבר בין היתר על כך שקיימות נקודות תורפה בחומרה עצמה שעליה מסתמכים כדי לחקור ולספק AI, ולכן יש צורך באבטחתה. בנוסף, הוא קרא ליצירת תהליך לבדיקת טכנולוגיות AI, בדומה לסטנדרט עבור כלי רכב ומוצרי חשמל. עוד ציין כי יש להגדיר את הסכנות כדי לפתח סטנדרטים מתאימים, וכי צריכה להיות עליהם אכיפה נוקשה.
עוד בנושא:
הוא השווה את תעשיית ה-AI היום למטוסים, מספר שנים אחרי טיסת האחים רייט, מכאן שיש צורך ברור ברגולציה, אבל לדבריו עליה להיות משתנה ואדפטיבית, תחת רגולטור שיכול להגיב להתפתחויות שונות. כשנשאל על הסיכונים המיידיים, הדגיש הפצת בדיסאינפורמציה, יצירת דיפ-פייק והפצת תעמולה במהלך תקופת בחירות בתור הסכנות המדאיגות ביותר.
בנג'יו אמר כי הצעדים שיש לנקוט בהם כעת כוללים את הגבלת הגישה למודלים גדולים של AI, יצירת תמריצים לנושאי הבטיחות והביטחון, הבטחה כי המודלים יפעלו באופן שבו נועדו לפעול, וכן בדיקה למי יש גישה לחומרה הנחוצה בקנה המידה המתאים כדי לפתח את המודלים הללו. הוא גם הדגיש את הצורך במימון מחקר בטיחות ב-AI בקנה מידה גלובלי. לדבריו, נכון להיום אין מספיק ידע בתחום, וכדי להוציא לפועל בחינות עצמאיות ליכולות ה-AI, צריך ידע נוסף ושיתוף פעולה נרחב בין אומות.
הוא הוסיף כי למרות שהמיקוד היום הוא בארגונים גדולים ובעלי משאבים, שחקנים רעים יכולים להיות קטנים בהרבה, וגם ללא מומחיות רבה ועדיין יוכלו לגרום לנזק אמיתי. לדבריו, ארה"ב ומדינות נוספות צריכות להתמקד ביצירת ישות רגולטורית יחידה כדי שהנושא ינוהל בצורה מיטבית ולא יואט בשל התיאום בין גופים שונים.
ראסל אמר כי יש ליצור דרך ליידע אנשים אם הם מתקשרים מול אדם או מכונה. הוא הזהיר מפני אלגוריתמים שיכולים להחליט להוציא להורג אנשים, בכל קנה מידה, ואמר כי יש להוציא אותם מחוץ לחוק, וכן לחייב הוספת "מתג" לכיבוי מערכות AI במקרים שבהם הן פורצות למחשבים אחרים או משכפלות את עצמן. מערכות שעוברות על חוקים צריכות להיות מוסרות מהשוק לדבריו, כמו בכל ריקול שמתבצע למוצרים.
הוא אמר כי הסיכון הבוער ביותר כיום הוא "קמפיינים להשפעה חיצונית" שמשתמשים ב-AI מותאם אישית. "אפשר להציג למערכת כמות גדולה של מידע על אינדיבידואל, את כל מה שהם אי פעם פרסמו בטוויטר או פייסבוק, לאמן את המערכת, ואז לבקש ממנה לייצר קמפיין דיסאינפורמציה שיתאים ספציפית לאותו אדם", אמר. "אפשר לעשות את זה למיליון אנשים עוד לפני ארוחת הצהריים. יש לזה אפקט גדול בהרבה מיצירת קמפיין עם מידע שקרי שלא מותאם אישית לאינדיבידואל".
ראסל טען בנוסף כי כמות הכסף שמושקעת בסטארטאפים ב-AI עומדת על 10 מיליארד דולר בחודש. כשנשאל על סין, אמר כי המומחיות של המדינה ב-AI הוערכה יתר על המידה, אך היא מובילה בתחום הניטור, למשל בטכנולוגיות זיהוי קולי.
המשתתפים הסכימו כי בעוד שיש הרבה פעילות הנוגעת לסימון או איתור AI, המאמצים האלו ראשוניים ומבוזרים מדי. שלושתם סיכמו כי הצעדים הראשוניים שצריכים להינקט הם השקעה במחקר לטובת הבדיקה והאכיפה של המערכות, כך שאלו יתבססו על מדע ולא על תהליכים מיושנים או על רעיונות שמגיעים מהתעשייה.
בתוך כך, קבוצה של חברות טכנולוגיה בשם Frontier Model Forum הכוללת את גוגל, OpenAI, אנתרופיק ומייקרוסופט הודיעה היום על יצירת גוף שמטרתו לוודא שמודלי AI הם בטוחים, ויגדיר אמות מידה עבור התעשייה. הקבוצה הזמינה חברות נוספות שעובדות על פלטפורמות למידת מכונה בקנה מידה גדול להצטרף ליוזמה.
"זוהי עבודה דחופה והפורום מסוגל לפעול במהירות כדי לקדם את בטיחות ה-AI", הצהירה אנה מקנג'ו, סגנית נשיא ב-OpenAI. נשיא מיקרוסופט, בראד סמית', אמר כי "היוזמה הזו היא צעד הכרחי כדי לחבר את סקטור הטכנולוגיה על מנת לקדם AI באופן אחראי, ולהתמודד עם האתגרים, כך שהטכנולוגיה תטיב עם כל האנושות".