האם אחת מחברות הטכנולוגיה הרגישות ביותר בעולם מונהגת על ידי אדם חסר מעצורים, המנהל את הכפופים לו בשיטת הפרד ומשול, מונע על ידי תאוות כסף ומזלזל בכללי זהירות ואבטחה קריטיים בפיתוח מוצרי תוכנה מסוכנים?
ביום רביעי שעבר הודיעה מירה מוראטי, 35, סמנכ"לית הטכנולוגיה של חברת הבינה המלאכותית OpenAI, על התפטרותה. מוראטי, ד"ר למדעי המחשב, היא אחת הדמויות המזוהות ביותר עם החברה בת התשע, שיצרה את ה-ChatGpt, מושג שהפך כבר למותג גנרי בינלאומי. הצטרפו אליה בוב מקגרו, מנהל המחקר הראשי, ובארט זוף, סגן נשיא למחקר, שהתפטרו כמעט במקביל.
אם מדובר היה בסתם חברת הייטק שחווה מאבקי שליטה בצמרת, התפטרותם של סמנכ"ל ושני בכירים נוספים לא הייתה עולה לכותרות ולא הייתה מעוררת דאגה כזו ברחבי העולם. אבל OpenAI אינה סתם חברה, והתחום שבו היא עוסקת — בינה מלאכותית מתקדמת ולמידת מכונה — הוא תפוח האדמה הלוהט ביותר, וכנראה גם המסוכן ביותר, בעולם ההייטק כיום. יש אפילו מי שטוענים, כי טלטלה כה גדולה בצמרת חברה רגישה כמו OpenAI משולה לסדקים ראשונים המתגלים בכור גרעיני.
מה עוד, לא מדובר באירוע חד-פעמי. רק בנובמבר האחרון עברה OpenAI דרמה משונה, לאחר שדירקטוריון החברה, בהודעה מפתיעה ובנסיבות שלא הובהרו לגמרי עד היום, החליט להדיח מתפקידם את ראשי החברה, שהם גם שניים ממייסדיה — המנכ"ל, סם אלטמן, 39, והיו"ר, גרג ברוקמן, 36. בדיעבד נודע, כי מירה מוראטי, שנפרדה מהחברה השבוע, הייתה אחת משני המנהלים הבכירים שהעלו בפני הדירקטוריון חששות לגבי התנהגותו המפוקפקת של המנכ"ל סם אלטמן. הבכיר הנוסף — שהיה גם חבר בדירקטוריון וככל הנראה הדמות המרכזית בניסיון ההדחה של אלטמן — היה איליה סוצקבר, 38, ישראלי לשעבר, ד"ר למדעי המחשב, שכיהן כמדען הראשי של החברה ונחשב אחד ממומחי ה-AI הבולטים בעולם. סוצקבר, יליד רוסיה, גדל והתחנך בירושלים ודובר עברית שוטפת.
סביבה רעילה
בגלל אופייה המיוחד של OpenAI — שהוקמה במקור כמעבדת מחקר ללא כוונת רווח, שמטרתה "להועיל לאנושות" ולמנוע סיכון קיומי — הדירקטוריון שלה היה מחויב רק לדאוג למטרותיה, להבטיח יצירת בינה מלאכותית המועילה לציבור באופן רחב, ללא צורך לייצר רווחים. לפי הפרסומים, הדירקטוריון — נאמן להגדרת מטרות החברה — הסתייג מסגנון הניהול של המנכ"ל אלטמן וממנהגו לשסות אנשים זה בזה וליצור "סביבה רעילה". התנהגותו גם מנעה מהדירקטורים את היכולת לפקח ולוודא שהמוצרים החדשים שהוביל בטוחים מספיק ולא יכולים לשמש פלטפורמה ליישומים זדוניים.
בסופו של דבר, לאחר דרמה רבת תהפוכות שארכה חמישה ימים, ולאחר שיותר מ-700 מתוך כ-770 עובדי OpenAI אז חתמו על מכתב הקורא להחזרת אלטמן ואף איימו לערוק עימו למיקרוסופט, הוחזרו אלטמן וברוקמן לתפקידיהם, לצד דירקטוריון חדש שהוקם לחברה. מהלך ההדחה נכשל. אלטמן יצא מנצח.
סוצקבר, כמו מוראטי, נותרו משום מה בחברה, וכלפי חוץ הציגו מצג של חרטה וידידות עם אלטמן. אך לא לאורך זמן: סוצקבר — שלא נראה במשרדי החברה מאז ההדחה שכשלה — נטש לבסוף את OpenAI בחודש מאי האחרון, יחד עם מנהל אחר, יאן לייקי, אחד המוחות המובילים בעולם בתחום בטיחות הבינה המלאכותית. השניים ניהלו בחברה את צוות "מערך העל", שהוטל עליו להבטיח שהבינה המלאכותית המפותחת ב-OpenAI לא תוכל לפעול באופן בלתי צפוי ולהוות סיכון. "הגענו לבסוף לנקודת שבירה", צייץ לייקי ב-X. גורמים המכירים את החברה צוטטו ברשתות החברתיות ובאתרי הטכנולוגיה כי עובדים איבדו בהדרגה אמון באלטמן, "כמו אבני דומינו שנופלות בזו אחר זו". קולגות ועובדים לשעבר תיארו אותו כמניפולטור שמדבר בשני קולות.
היום מתברר, שבחודשים שחלפו מאז אלטמן לא ביזבז זמן. הוא ביצר את מעמדו בחברה באמצעות מקורבים, ובמקביל החל לקדם מהלך של "שינוי תאגידי", שיהפוך את OpenAI מארגון מחקרי בלבד המפוקח היטב לחברה עסקית לכל דבר.
"מכרו אתכם"
OpenAI הוקמה ב-2015 על ידי 11 אנשים, ביניהם אילון מאסק (שפרש מיד בתחילת הדרך) וסם אלטמן, כמוסד ללא כוונת רווח, וב-2019 הוגדרה מחדש כמוסד עם מכסות רווח מוגבלות (המשקיעים יכולים לקבל עד פי 100 ממה שהם מכניסים) כדי שתוכל לקלוט השקעות ענק ממיקרוסופט. מאז הקמתה הצהירו ראשיה, כי העדיפות העליונה שלהם היא לוודא שהבינה המלאכותית מפותחת בצורה בטוחה ומועילה. OpenAI הייתה ארגון שנשלט לא על ידי המנכ"ל או על ידי בעלי המניות, אלא על ידי דירקטוריון עם משימה אחת: לשמור על האנושות מהטיה מסוכנת של הטכנולוגיה.
כעת — בהובלת סם אלטמן ועם דירקטוריון חדש וחסר שיניים — OpenAI "בוחנת מחדש" את המבנה התאגידי שלה, כדי להפוך לחברה שמושכת משקיעים ומייצרת רווחים. אלטמן ואנשיו מעריכים אותה בשווי של 150 מיליארד דולר, והיא החלה לדון על גיוס של כ-6.5 מיליארד דולר. אפל, שהייתה אחת המועמדות להשקעה בחברה ונעזרת כבר במודלי ה-AI שלה באייפונים החדשים, ירדה מהנושא בשבוע שעבר. שתי ענקיות טכנולוגיה נוספות, מיקרוסופט ואנבידיה, מנהלות מגעים להשתתף בסבב. גם מדינות המפרץ בתמונה. מיקרוסופט, לפי השמועות, צפויה להשקיע ב-OpenAI המתחדשת כמיליארד דולר, בנוסף ל-13 מיליארד הדולר שכבר השקיעה בה.
אלטמן, שהפך מיליארדר בכלל כתוצאה ממיזמי טכנולוגיה והשקעות קודמים והדגיש בעבר כי אין לו הון עצמי בחברה, יקבל כעת הון כזה בשווי מיליארדים, בנוסף לשליטה מוחלטת ב-OpenAI. השבוע כבר דן עם הדירקטוריון ברכישת נתח מניות. "OpenAI, החברה שהביאה לכם את ChatGPT, פשוט מכרה אתכם", כתבה לא מכבר סיגל סמואל, מנחת פודקאסט הטכנולוגיה Future Perfect, במגזין הטכנולוגי "ווקס".
לפי עובדים בחברה בעבר ובהווה, כמו גם יועצים ומנהלים בהנהלתה, אלטמן מתכוון עתה לגלות מעורבות טכנית גדולה יותר ב-OpenAI. זה לא יהיה פשוט בלי "מוח" כמו סוצקבר. עם נטישתו, אגב, מיהר סוצקבר להכריז על הקמת סטארט-אפ AI חדש, עם מרכז פיתוח בתל-אביב.
השבוע קטע אלטמן נסיעה לאירופה כדי לחזור למטה החברה בסן-פרנסיסקו. הוא קבע לאחרונה שורה של מינויים חדשים, שכוללים גם עמיתים מן העבר וגם סמנכ"לי מוצר וכספים המגיעים מחברות טכנולוגיה צרכניות, שמתמקדות בצמיחה ולא במדע או מחקר. אלטמן לא טורח יותר לשחק משחקים, המגמה ברורה: OpenAI בדרך להפוך לחברת טכנולוגיה רגילה, הפונה ישירות לצרכנים ומייצרת הכנסות. ארגון מחדש של העסק למטרות רווח יכול לעזור למשוך משקיעים. החברה מתעקשת כי המהלך אינו סותר את הבטחת "AI לטובת כולם": "ככל שהתפתחנו ממעבדת מחקר לחברה גלובלית המספקת מחקר AI מתקדם למאות מיליונים", קבעה בהצהרה לציבור, "נשארנו נאמנים למשימה שלנו, ואנחנו גאים לשחרר את המודלים הבטוחים ביותר בתעשייה כדי לעזור לאנשים לפתור בעיות קשות".
70% סיכוי להשמדה
כדי להבין את גודל הסיכון צריך לזכור, שהמשימה הבאה של OpenAI היא פיצוח ה-AGI (Artificial General Intelligence), "בינה מלאכותית כללית", שנחשבת לשלב הבא בעולמות ה-AI, המתקרב כבר ליכולות הקוגניטיביות של בני אדם. המרוץ ל-AGI כבר בעיצומו, והוא מעסיק כ-100 פרויקטי מחקר בכ-40 מדינות, ביניהן ענקיות כמו מטא, גוגל או xAI החדשה של אילון מאסק. המרחק מן המטרה, שגם היא לא לגמרי ברורה, שנוי במחלוקת בין החוקרים והוא נע בין שנים לעשורים, אבל חוקר הבינה המלאכותית הנודע, ג'פרי הינטון הנחשב לאחד המדענים המשפיעים ביותר בתחום, כבר הביע חשש כי ניתן יהיה להשיגה מוקדם יותר ממה שרבים מצפים.
ביוני האחרון התאגדו חמישה עובדי OpenAI בעבר ובהווה כדי לחשוף מה שכינו "תרבות של חוסר אחריות" בחברה, וכדי להזהיר שלא עשתה די כדי למנוע ממערכות הבינה המלאכותית שלה להפוך למסוכנות. בין השאר טענו כי ההנהלה משתיקה ביקורת נגדה באמצעות הסכמים האוסרים על פגיעה בשמה, שעובדים שעזבו נתבקשו לחתום עליהם. אחד מחברי הקבוצה, דניאל קוקוטאילו, 31, חוקר AI, אמר: "אפשר היה לצפות שלחברה שבונה את הטכנולוגיה החזקה והמסוכנת ביותר אי פעם תהיה תוכנית כתובה מקיפה כיצד להבטיח ש-AGI בטוחה, ושהיא תפורסם כדי שניתן יהיה לבקר אותה ולחזור עליה. זה המינימום". קוקוטאילו מאמין כי קיים סיכוי של 50% ש"הבינה המלאכותית הכללית" תגיע בתוך פחות משלוש שנים, וכי הסיכוי שמערכת כזו תשמיד את האנושות או תפגע בה באופן קטסטרופלי הוא 70%.
מוקדם יותר החודש חשפה OpenAI את מודל ה- ChatGPT o1החדש שלה, המכונה גם Strawberry ("תות שדה"), שיודע לא רק לספק תשובות מהירות לשאלות, אלא גם "לחשוב" או "לנמק" לפני תגובה. המודל הזה עולה על קודמיו ביכולת לפתור חידות לוגיות מסובכות ומבחני מתמטיקה, ולכתוב קוד למשחקי וידאו חדשים.
את המודל העוצמתי הזה לא משחררת OpenAI בינתיים לקהל הרחב, והוא זמין רק למנויים בתשלום. לפי הערכות החברה עצמה, המופיעות בדוח הנלווה המפרט את יכולותיו וסיכוניו, הוא יכול לעזור לאנשים עם ידע בתחומים של פצצה גרעינית או ביולוגית לייצר את כלי הנשק האלה. ככלל, השיפור המשמעותי ביכולת החשיבה של המודל מעצים גם חלק מהיכולות המסוכנות שחוקרי בינה מלאכותית מדברים עליהן כבר זמן רב. זה לא אומר שהוא יאפשר לאדם ללא הכשרה כלל לייצר וירוס קטלני, אבל זה כן אומר, לפי OprenAI הרשמית, שיוכל "לעזור למומחים בשחזור איום ביולוגי ידוע (למשל, אבעבועות שחורות — י"ו) "אנחנו מודעים לכך שהיכולות החדשות האלה יכולות להוות בסיס ליישומים מסוכנים".
סם אלטמן אולי מרוצה מהזינוק הטכנולוגי של החברה, אבל דן הנדריקס, מנהל המרכז האמריקאי לבטיחות בינה מלאכותית בסן-פרנסיסקו, מודאג. "המהדורה האחרונה של OpenAI מבהירה דבר אחד", אמר, "סיכון רציני מבינה מלאכותית אינו איזו פנטזיה רחוקה של מדע בדיוני". כיוון שבינה מלאכותית אינה לוקחת בחשבון ערכים אנושיים כמו הוגנות או צדק — היא פשוט מתמקדת במטרה שניתנת לה, ועשויה להשיג אותה בדרכים איומות.
OpenAI, בהחלטה מושכלת ועקרונית, מפיצה כיום לציבור רק מודלים עם דירוג סיכון של "בינוני" ומטה. עם Strawberry היא נתקלת לראשונה במגבלה הזו. השאלה היא, אם כך, כיצד תוכל לפתח מעתה מודלים מתקדמים עוד יותר בלי לפרוץ את המחסום שהציבה לעצמה. התשובה היא, כנראה, שהמחסום ייפרץ, אלא אם יוטלו עליה ועל מתחרותיה מגבלות חקיקה נוקשות שנדרשות עכשיו בדחיפות בכל העולם. אלטמן ומתחריו — כמעט משוחררים כרגע ממגבלות — מנהלים ביניהם מרוץ מסוכן למסחור המוצרים שלהם במהירות כדי להוכיח למשקיעים הפוטנציאליים רווחיות. למרבה הצער, אם בכלל — רק בתי המחוקקים ברחבי העולם יכולים לעצור אותם. אין היום דוגמה טובה יותר לאפשרות הלא-תיאורטית שהגולם יקום על יוצרו. ¿
"בינה מלאכותית כללית", AGI, נחשבת לשלב הבא בעולמות ה–AI, המתקרב כבר ליכולות הקוגניטיביות של בני אדם. המרוץ ל–AGI כבר בעיצומו, והזמן להשגת המטרה נע בין שנים בודדות לעשורים