בהודעה לקונית באתר OpenAI, תחת הכותרת "עדכון בנוהלי הבטיחות והאבטחה שלנו", החברה מטילה לא פחות מפצצה בתחום הכל-כך רגיש של פיתוח אחראי של AI: מנכ"ל החברה, סם אלטמן פורש מוועדת הבטיחות של החברה, שלפי הצהרת החברה, תהיה מעתה עצמאית.
6 צפייה בגלריה
מירה מוראטי וסם אלטמן
מירה מוראטי וסם אלטמן
מנהלת הטכנולוגיה הראשית של OpenAI, מירה מוראטי ואלטמן
(צילום: Patrick T. Fallon / AFP)
לאמירה מסוג כזה מוסיפים בדרך כלל אצבע מתחת לעין, או כמאמר הגשש: 'אומרים כה ועושים ככה'. ויש סיבה להיות חשדנים לגבי ההצהרה הזו של OpenAI, שאינה באה על רקע נקי. אבל אולי צריך להתחיל מההתחלה ולהגיע להטלת הספק בסוף.

למה זה חשוב

OpenAI היא החברה הממונפת והחזקה ביותר בעולמות ה-AI, שמניעה את מערכת הבינה המלאכותית השאפתנית ביותר כיום, ומצליחה להקדים את המתחרות שלה שוב ושוב. והיא גם עושה את זה בקצב מטורף.
במרוץ הזה עולות כל הזמן שאלות קשות מצד מומחים בכירים, על היכולת לרסן את הבינה המלאכותית לפני שהיא תהווה סכנה ממשית לאנושות. עד כה אלטמן הכיר בסיכונים, אבל המשיך קדימה במלוא הקצב. אולי עם וועדה בלתי תלויה לצידו – הוא יעצור את המרוץ מדי פעם כדי לדון בהשלכות.
6 צפייה בגלריה
ChatGPT
ChatGPT
ChatGPT. המערכת של OpenAI הפכה אותה לחברה החזקה ביותר בתחום ולפנים של מהפכת ה-AI
(צילום: רויטרס)

מה חדש

בהודעת OpenAI נמסר שוועדת הבטיחות והאבטחה (SSC) תהפוך לוועדת פיקוח עצמאית של הדירקטוריון. בראשה יעמוד זיקו קולטר, ראש תחום למידת מכונה באוניברסיטת קרנגי מלון. חברים נוספים בוועדה יהיו אדם ד'אנג'לו, מנכ"ל Quora, פול נקסון, גנרל בדימוס וראש ה-NSA לשעבר, וניקול זליגמן, לשעבר סמנכ"לית סוני. כולם, אגב, חברי הדירקטוריון של OpenAI.
הוועדה אמורה לדון בימים הקרובים במודלי ה-AI העתידיים של OpenAI. בחברה טוענים שכוחה של הוועדה הוא רב – החלטותיה יכולות לעכב שחרור של מודלי AI לשוק על לדיון מעמיק יותר, כמו גם פיקוח על מודלים לאחר שחרורם.
בינתיים, הוועדה כבר הספיקה לבחון את המודל o1 (לשעבר "סטרוברי") החדש, ולדרג אותו כ"סיכון בינוני". הדירוג הזה מאשר את מה שה"דומרים" (Doomers) טוענים מזה תקופה ארוכה: הסיכון במודלים מתקדמים של AI חי וקיים.
6 צפייה בגלריה
Sora
Sora
התרשמתם ממה ש-Sora של OpenAI יודעת לעשות? זה כלום לעומת מה שמצפה לנו
(צילום: OpenAI)
בהקשר זה, מעניין לראות איך הוועדה תדרג את הסיכון של מודל "אוריון" העתידי, המוכר גם כ-GPT-5, שעתיד להציג ככל הנראה יכולות חסרות תקדים של בינה מלאכותית כוללת (AGI), הצעד הבא באבולוציה של הטכנולוגיה.

התמונה הגדולה

בראשיתה, OpenAI הוקמה כמלכ"ר על ידי שני יזמים – סם אלטמן ואיליה סוצקבר, הישראלי לשעבר. החזון היה פיתוח אחראי של בינה מלאכותית מתקדמת. מאוחר יותר, בדצמבר 2023, החליט דירקטוריון החברה על הדחתו של אלטמן בגלל שלא היה מספיק שקוף לגבי התוכנית שלו להמשך הפיתוח של המערכת.
מאחורי המהלך עמד בזמנו סוצקבר, האיש שהיה ממונה על הבטחת הפיתוח האחראי בחברה. ארבעה חודשים אחרי, מיקרוסופט, המשקיעה המרכזית, החזירה את אלטמן לתפקיד ובהמשך סוצקבר ואיתו מחצית מצוות הסיכונים של החברה עזבו, כאשר עזיבתם לוותה בראיונות בהם האשימו את אלטמן בשקרים לדירקטוריון ובפיתוח משולל רסן של AI.
6 צפייה בגלריה
איליה סוצקבר
איליה סוצקבר
איליה סוצקבר. פרש בעקבות מחלוקות עמוקות עם אלטמן
(צילום: OpenAI)
מאוחר יותר בחודש מרץ השנה, אלטמן חתם על מכתב המנכ"לים שקרא לפיתוח בינה מלאכותית אחראית. זה היה במהלך כנס דאבוס, שהכריז על ה-AI כסכנה הגדולה ביותר מולה ניצבת האנושות. זה גם היה ימים ספורים אחרי שאילון מאסק, בעבר ממייסדי OpenAI, תבע את החברה על כך שהיא "מציבה רווח לפני תועלת האנושות". הציניות מתה מצחוק.
בינתיים, את מקומם של סוצקבר וצוות הסיכונים שלו ב-OpenAI תפסה ועדת מומחים חיצונית לבטיחות ואבטחה. אז האם אפשר להירגע ולחזור להתלהב מהטכנולוגיה המדהימה הזו? אז זהו, שלא בטוח. כולם זוכרים את הביקורת על פייסבוק (מטא) והאלגוריתם האימתני שלה, שהביאה להקמת ועדת מומחים חיצונית לפיקוח על פעולותיה. כמה תמימים היינו. ספק אם המנכ"ל מארק צוקרברג זוכר היום את הוועדה שהקים דאז.
6 צפייה בגלריה
מארק צוקרברג בשימוע בסנאט
מארק צוקרברג בשימוע בסנאט
מארק צוקרברג. גם הוא ניסה להקים "ועדת מומחים". זה לא ממש עזר
(צילום: Evelyn Hockstein / Reuters)
ועדת מומחים עצמאית נשמעת כמו אליבי מושלם למנכ"ל חברה שנמצא תחת לחץ הביקורת. ואלטמן באמת נמצא תחת לחץ. חמישה סנאטורים אמריקאים פנו אליו לאחרונה עם סדרה של שאלות על מדיניות ריסון ה-AI שלו. וכשסנטורים בארה"ב מקבלים תשובות שלא מוצאות חן בעיניהם – הם עלולים להגיב בחקיקה שלא תמצא חן בעיני אלטמן.

אז מה עושה אלטמן

דבר ראשון, הוא ניפח את תקציב הלובי של החברה. OpenAI משלמת כעת 1.6 מיליון דולר לשנה על לובי בוושינגטון, לעומת 260,000 דולר ששילמה ב-2023. עם כל כך הרבה כסף אפשר לא רק להסביר לחברי קונגרס למה כדאי להם לתמוך בך, אלא אפשר גם לשכנע אותם וגם להבטיח להם תמיכה משמעותית בקמפיין הבא שלהם לכיסא בקפיטול.
ולהלן דוגמה מהתקופה האחרונה - רק בחודש שעבר החברה נאבקה לעצירת "חוק בטיחות הבינה המלאכותית" שקודם במדינת קליפורניה. זוהי כמובן רק הסנונית ויהיו עוד חוקים רבים כאלה. הלוביסטים הם הלוחמים החדשים של אלטמן.
6 צפייה בגלריה
סם אלטמן בשימוע בסנאט
סם אלטמן בשימוע בסנאט
אלטמן בשימוע בסנאט. מה עושים כדי להשפיע על חוקים שמאיימים עלייך? משלמים כסף ונכנסים למוקדי קבלת ההחלטות
(צילום: Patrick Semansky / AP)
דבר שני, הוא דאג לקבל מושב במועצה לבטיחות וביטחון AI של משרד הביטחון האמריקאי, כך שיהיה קרוב למוקדי קבלת ההחלטות. כל זה כנראה לא מספיק כדי לשכנע שפיתוח AI אחראי היא בראש מעייניו של אלטמן, ולכן באה ההצהרה היום על ועדה עצמאית שתפקח עליו.

מה הלאה

הבעיה היא שכל הצעדים שנקט אלטמן אינם תחליף לפיתוח מצפון - לוקסוס בחברה שנמצאת בתחרות קטלנית, נערכת לגיוס 7 מיליארד דולר לפי שווי של 150 מיליארד דולר, ורוצה להישאר מובילה עולמית.
שאפתנות היא לא תופעה חדשה, אבל בניגוד לקונגלומרטים עסקיים שאפתניים שהכרנו בעבר, טווח הסיכון הפעם הוא מעבר לכל דמיון. אם חוזי השחורות צודקים אפילו קצת, אנחנו עתידים להצטער על כל יום שבו אלטמן פעל באופן חופשי.
הדרך היחידה להתמודד עם סכנות ה-AI היא לא להשאיר למנכ"לי החברות לשמור על האתיקה של עצמם. רק התערבות ממשלתית אגרסיבית, הדבר ממנו אלטמן מפחד יותר מכל, תהיה אפקטיבית. ראינו את זה קורה באיחוד האירופי, עכשיו צריך שהממשל האמריקאי יחוקק כללי משחק דומים.