שבוע אחרי הסינים, הבית הלבן הודיע אמש (יום ו') חגיגית לעולם על כך שהצליח להוציא התחייבויות וולונטריות משבע חברות טכנולוגיה אמריקניות בכל הנוגע לניהול סיכונים הנשקפים מבינה מלאכותית. במסגרת ההסכם התחייבו אמזון, גוגל, מטא, מיקרוסופט, OpenAI, אנתרופיק ו-Inflection בפני הנשיא ביידן לפתח מנגנונים כמו למשל "סימון מים" (Watermark) כדי לעזור למשתמשים להבחין מתי תוכן אודיו או ויז'ואל נוצר בעזרת בינה מלאכותית.
כמו הסינים, גם האמריקאים שואפים שההנחיות החדשות שלהם ישודרו לעולם, ומהבית הלבן נמסר שהם כבר התייעצו בעניין עם מדינות נוספות, בהן ישראל. "ככל שנקדם את סדר היום הזה מבית, הבית הלבן יעבוד עם בעלי ברית ושותפים כדי להקים מסגרת בינלאומית חזקה כדי לשלוט בפיתוח ובשימוש בבינה מלאכותית", לשון ההודעה. מלבד ישראל רשימת המדינות כוללת גם את אוסטרליה, ברזיל, קנדה, צ'ילה, צרפת, גרמניה, הודו, איטליה, יפן, קניה, מקסיקו, הולנד, ניו זילנד, ניגריה, הפיליפינים, סינגפור, דרום קוריאה, איחוד האמירויות ובריטניה.
עוד כתבות שיעניינו אתכם:
"לחברות שמפתחות את הטכנולוגיות המתפתחות הללו יש אחריות להבטיח שהמוצרים שלהן בטוחים. כדי להפיק את המירב מהפוטנציאל של בינה מלאכותית, הבית הלבן מעודד את התעשייה לעמוד בסטנדרטים הגבוהים ביותר כדי להבטיח שהחדשנות לא תבוא על חשבון הזכויות והבטיחות של האמריקאים", נמסר מהבית הלבן. "ההתחייבויות הללו, שהחברות בחרו לקחת על עצמן באופן מיידי, מדגישות שלושה עקרונות בסיסיים לעתיד הבינה המלאכותית - בטיחות, אבטחה ואמון - ומסמנות צעד קריטי לקראת פיתוח בינה מלאכותית אחראית", לשון ההודעה.
ענקיות הטק התחייבו למעשה לשתף מידע על המוצרים שלהן עם ממשלות וגופים אחרים שמנסים לנהל את הסיכונים של AI. הן התחייבו לבדיקה פנימית וחיצונית של יכולתן ובטיחותן של מערכות ה-AI שלהן לפני שחרורן לציבור, ולשתף את התוצאות של בדיקות אלו, כמו גם מידע על ניהול סיכוני הבינה המלאכותית בכל התעשייה. בנוסף, הן התחייבו להשקיע בהגנה על המודלים שלהם מפני "אינספור איומים", כדי להקל על גילוי ודיווח של צד שלישי על נקודות התורפה של המערכות שלהם, בין השאר על ידי מומחים בלתי תלויים. מלבד זאת, החברות יפתחו כלים מתקדמים של בינה מלאכותית להתמודדות עם "האתגרים הגדולים ביותר של החברה", כמו ריפוי סרטן ומלחמה בשינויי האקלים.
אבל מדוע, להבדיל מהסינים, ההנחיות החדשות הן "וולונטריות" ולא מחויבות על פי חוק? יש כמובן את הגישה האמריקאית של "היד הנעלמה" שדוגלת בכמה שפחות התערבות ממשלתית, אבל כנראה שבמקרה זה עסקינן בסיבה יותר פרקטית: ארצות הברית צריכה את ענקיות הטק שלה יותר מאשר ענקיות הטק צריכות את ארצות הברית. חיוב על פי חוק ואכיפה בכוח תעורר יותר התנגדות מצד התעשייה מאשר התחייבויות התנדבותית, שלדברי מומחים גם ככה כבר באות לידי ביטוי בפרקטיקות של החברות היום. ההבטחות החדשות לא ירסנו את התוכניות שלהן ולא יפריעו להתפתחות הטכנולוגיות שלהן.
"אנחנו שמחים לבצע את ההתחייבויות הוולונטריות הללו לצד אחרים במגזר", מסרו במטא בתגובה להצהרה. "הם מהווים צעד ראשון חשוב בהבטחת מעקות בטיחות אחראיים עבור AI והם יוצרים מודל שממשלות אחרות יפעלו לפיו. גם במיקרוספט חזרו על המנטרה: "ההתחייבויות של הבית הלבן יוצרות בסיס שיעזור להבטיח שהבטיחות של AI קודמת לסיכונים שלה", אמר בראד סמית', נשיא מיקרוסופט ואחד המנהלים שהשתתפו בפסגת ה-AI בבית הלבן בחודש מאי האחרון. ב-OpenAI תיארו את ההכרזה כ"חלק משיתוף הפעולה המתמשך שלנו עם ממשלות, ארגוני חברה אזרחית ואחרים ברחבי העולם כדי לקדם ממשל בינה מלאכותית".
התחייבויות אמורפיות
למרות ההצהרות החגיגיות, ברור לכל שההתחייבויות החדשות הן במידה רבה המכנה המשותף הנמוך ביותר, והן אמורפיות מספיק כדי שכל חברה תפרש אותה כראות עיניה. למשל, כשהחברות מתחייבות ל"אבטחת סייבר קפדנית סביב הנתונים והקוד שמשמשים לייצור מודלים של שפה" - האם לחברות אין אינטרס להגן על הקניין הרוחני שלהן בכל מקרה? ומהי בדיוק המשמעות הפרקטית של מהלך זה? שאלות שנותרו ללא תשובה.
המבקרים חוששים שההתחייבויות הוולונטריות שהוכרזו היום אינן ניתנות לאכיפה, וקוראים למחוקקים לגבש חקיקה קונקרטית, שדורשת שקיפות, הגנת פרטיות, ותגביר את המחקר על מגוון הסיכונים הרחב הנשקף מ-AI גנרטיבי. הבית הלבן מודע לזה: "יש עוד הרבה עבודה", מסרו בהודעה. או במילותיו של ביידן עצמו: "בשבועות הקרובים, אני מתכוון להמשיך לנקוט בפעולות ביצועיות כדי לעזור לאמריקה להוביל את הדרך לחדשנות אחראית. ואנחנו הולכים לעבוד עם שני הצדדים כדי לפתח חקיקה ורגולציה מתאימות". כלומר, בסוף כל הרוח ההתנדבותית הזאת תיגמר בחקיקה.