עסקת הענק שדווחה בשבוע שעבר בין xAI, חברת הבינה המלאכותית, של אילון מאסק לבין ענקית הענן אורקל היא לא פחות מאירוע מכונן במירוץ האגרסיבי לבינה מלאכותית כוללת (AGI). בליגת האלופות של ה-AI העולמי, xAI היא קבוצת פרברים שכותשת את דרכה לצמרת מלווה בקהל אוהדים חמום מוח. היומרה שלה מתקבלת בתימהון מצד קבוצות צמרת נוצצות כמו גוגל, מטא ומיקרוסופט. הן הרי השקיעו את מיטב כספן בכוכבים מהצמרת העולמית. אבל xAI מפלסת את דרכה בכוח למעלה, חצופה, בוטה, עם תיקולים ומרפקים שבינתיים נעלמים מעיני הרגולטורים, כלומר השופטים.
3 צפייה בגלריה
אילון מאסק
אילון מאסק
אילון מאסק
(צילום: רויטרס)
הכדורגל הוא רק משל. הנמשל הוא האמביציה הבלתי נלאית של אילון מאסק להוביל ביוזמה וחדשנות בכל תחום טכנולוגי, למשל רכב אוטונומי, למשל תעשיית החלל הפרטית. הבעייה שלו היתה שהוא זיהה את מהפכת ה-AI מאוחר מדי, אחרי שכבר נטש את השותפות ב-OpenAI, וחבריו לשעבר לא הסכימו להחזיר אותו. מונע מצורך אדיר לנצח אותם, ועם המון כסף שמאפשר לו לעשות את זה, הוא הקים את xAI בהשקעה אדירה ותוך לחץ אדיר על המפתחים שלו להגיע לפני כולם ליכולת AGI משמעותית.
וזאת כבר הבעיה של כולנו: AGI היא המפלצת שהולכת ונבנית במרתפים האפלוליים של OpenAI, גוגל, אנת'רופיק, מטא וחצי תריסר חברות נוספות. חלק מהמומחים מעריכים שתהיה חכמה יותר מבני אדם ועשויה להשתלט על העולם, עם יכולות מופלאות אבל עם סכנות שעוד לא יודעים איך לרסן אותן. אחרים מעריכים שאנחנו אפילו לא קרובים לשם עם הטכנולוגיה הנוכחית. אבל מאסק רוצה להיות הראשון בתחרות על ה-AGI וספק אם סוגיות אתיות יעכבו אותו. האדם ששחרר תוכנת נהיגה אוטונומית לא בשלה, שגרמה לתאונות דרכים קטלניות, עלול לשחרר הפעם סכנה הרבה יותר גדולה.
נחזור לאירועי השבוע. העסקה בין xAI לאורקל באה בהמשך לשיתוף פעולה ארוך שנים בין שני הידידים, האיש העשיר בעולם אילון מאסק והאיש הרביעי בעושרו בעולם (לפי דירוג פורבס) לארי אליסון , הבעלים של אורקל. אם העסקה תצא לפועל, אילון מאסק ירכוש כמות עצומה של זמן עבודה בענן של אורקל במטרה להשתמש בו עבור חברת xAI. מדובר בעסקה בהיקף 10 מיליארד דולר, כמו העסקה של מיקרוסופט עם OpenAI. זה מהלך משמעותי בתחרות, שמתנהלת לא רק בין התאים האפורים של גאוני המחשב של החברות, אלא גם בין כמויות השרתים של אנבידיה שהחברות מצליחות לרכוש. שבבים הם משאב בחוסר. ככל שיש לך יותר מהם, ה-AI שלך יהיה חזק יותר, וליריבים שלך יהיו פחות שבבים.
מקורות באורקל אומרים לנו: "הענן של אורקל תוכנן ונבנה מהיום הראשון כדי להיות קטליזטור למהפכת הבינה המלאכותית שנמצאת בעיצומה בימים אלו. הדור השני של הענן של אורקל Gen2 עם המוצרים והשירותים השונים שפותחו עליו מאפשר לחברות בינה מלאכותית קטנות וגדולות כאחד לפתח בינה מלאכותית בהיקפים גדולים מאוד, לפרוץ קדימה תוך שינוי הענף מהיסוד, ולשמור על הדאטה שלהם מאובטח. בעתיד הקרוב אנחנו צפויים לראות עוד עסקאות משמעותיות כאלה שישנו את הענף".

בינה מלאכותית כוללת יכולה להפוך את העתיד שלנו למטריקס

למי שמצמץ לרגע, כדאי אולי להזכיר למה הבינה המלאכותית הכוללת כל כך מדאיגה את העולם. טכנולוגיית AGI כוללת בנוסף להבנת שפה טבעית (NLP) כמו הבינה המלאכותית היוצרת (GenAI) גם הבנה של כל יכולות הקוגניציה האנושית - ראייה, שמיעה, הבנת הקשרים, פענוח התנהגות ועוד. בנוסף לכך, כמות הנתונים ומקורות המידע של ה-AGI גדולה בסדרי גודל מה-AI הנוכחי וככה נולד המונח החדש – בינת-על (סופר-אינטליגנציה). סם אלטמן מנכ"ל OpenAI אמר אך לאחרונה, ש-GPT-4 – היהלום בכתר ה-AI כיום – היא ממש מטומטמת לעומת מה שאנחנו צפויים לראות בקרוב.
3 צפייה בגלריה
מייסד אורקל, לארי אליסון
מייסד אורקל, לארי אליסון
מייסד אורקל, לארי אליסון
(צילום: EPA)
אז כמה אינטליגנטית תהיה בינת-העל? עם קוד באיכות מספקת, מעבדים ואחסון היא עשויה להאפיל על חכמתם של בני האדם. היא תקבל החלטות טוב יותר מבני אדם, היא תשתלב בכל תחומי החיים ותוכל לסייע בכל עניין. היא אפילו תיזום בעצמה את הנושאים הדורשים טיפול, שבני האדם לא הבחינו בהם. היא תוכל לקודד את עצמה ולהוסיף לעצמה יכולות שבני אדם לא היו מספיק חכמים לתת לה. מכיוון שהתוצאות שה-AGI תניב יהיו חסרות תקדים, הפתרונות שלה יהיו גאוניים וההכנסות שהיא תניב יהיו אסטרונומיות – או לפחות כך מצפים חסידיה - בני אדם יעבירו לה עוד ועוד תחומי אחריות: כספים, לקוחות, תשתיות, קבלת החלטות אסטרטגיות.
אנחנו תמיד מספרים לעצמנו שאין צורך לדאוג כי תמיד יהיה אדם כדי לאשר או לדחות המלצה של ה-AI. אבל מה יעשה האדם הזה עם המלצות AGI שהוא לא מבין, אבל שבאופן עקבי מוכחות כטובות יותר מכל אלטרנטיבה? נכון – יעביר את ההחלטות אוטומטית לבינה המלאכותית.
כאן מגיעות הסכנות שעליהן מתריעים מומחים רבים: ההחלטות שתקבל ה-AGI עלולות לסכן בני אדם, עלולות להעדיף שיקולים רחבים יותר מטובת בני אדם בלבד. יש מי שצופים שה-AGI תפתח מודעות עצמית, ויהיו לה דעות על בני אדם - לאו דווקא חיוביות - וכשבידיה היכולת לשלוט ישירות בכל המערכות המקיפות אותנו, היא עלולה לקבל החלטות, וגם לבצע אותן, מבלי שניתן יהיה למנוע זאת. זה היה הרקע למכתבים וגילויי הדעת של מומחי המחשבים והאתיקה לפני כשנה, שקראו לעצור לרגע את המרוץ ל"בינה מלאכותית דמוית אלוהים", כמו שכינה זאת איאן הוגארת'. אבל אף אחד לא עצר. וה-AGI מתקרבת הרבה יותר מהר ממה שהעריכו בתחילה. זה באמת מפחיד.

קרינג', קרינג' בכל מקום

נחזור לאילון מאסק. האיש שהכריז על הקמת חברת xAI במטרה מוצהרת לפתח AGI, וציין בשיחה עם עיתונאים כי הוא משוכנע, שכשה-AGI תלמד להכיר את בני האדם היא תחשוב שהם נחמדים ולכן תימנע מלהשמיד אותם. היו כאלה שחשבו שזו בדיחה תפלה. אצל אחרים בצבצו אגלי זיעה על המצח. מאסק היה בין החותמים על מכתב התרעה מסכנות ה-AGI. אחר כך הקים חברה שמפתחת AGI ולאחרונה אפילו שחרר את חלקה כקוד פתוח בצעד שיכול להקל על פושעי העולם לפתח AGI זדוני.
3 צפייה בגלריה
AGI
AGI
AGI
(התמונה נוצרה באמצעות מחולל התמונות DALL-E3)
הפה של מאסק ממשיך להפיק מרגליות. על ChatGPT הוא אמר שהוא Woke, כלומר זהיר בלשונו ושומר על תקינות פוליטית. כש-xAI הוציאה לשוק את המוצר המתחרה שלה – Grok – אפשר היה להבין את ההבדל. השפה של גרוק נמוכה יותר, הוא עונה במשפטים שמתיימרים לשעשע והוא מוסר מידע ש-ChatGPT היה נזהר מלתת. אלטמן אמר עליו, שהוא מעורר בו תחושת קרינג', מבוכה וחוסר נעימות. מאסק חיכה עד לשבוע הזה, כשאלטמן הציג את ChatGPT החדש (GPT-4o) והפטפטן. מאסק צייץ שחש בקרינג' אחרי שניסה אותו.
הסכנה האמיתית מגרוק וגם מ-ChatGPT היא הרבה מעבר לתחושת אי נעימות. אבל פה יש הבדל בין OpenAI ל-xAI: בעוד ש-OpenAI, גוגל וחברות אחרות משקיעות מאמצים כבירים בצוותי הבטחת "בינה מלאכותית אחראית" ובפיתוח "התאמה" (Alignment) בין מטרות ה-AGI לבין מטרות בני האדם, לא בטוח ש-xAI מעמידה את זה בראש העדיפויות שלה. זוכרים את פרשת פיטורי אלטמן וביטולם? זה היה על רקע הטענה שדחף את ה-AGI של החברה מבלי להתייעץ עם אחרים. למאסק אין "אחרים". ההחלטה הסופית היא שלו, ושלו בלבד. ואם יעמוד בפני השאלה האם לשחרר AGI שלא נבדקה עד הסוף כדי לנצח בתחרות או להתעכב בכמה חודשים כדי לאפשר בדיקה מעמיקה יותר, לא בטוח מה תהיה העדפה שלו.
התקווה היחידה שיש לכולנו היא שהרגולטורים ישכילו לפקח על ה-AI ולמנוע יציאה לשוק של טכנולוגיות מסוכנות מדי. בינתיים זה קורה באירופה בלבד, שאימצה רגולציה מחמירה (ובה גם ישראל משתתפת כמשקיפה, ה"ע) המחייבת את החברות לקחת אחריות על נזקים שייגרמו בגלל ה-AI שלהן. בארה"ב ובמדינות נוספות יש בינתיים רגולציה רכה הרבה יותר, שמסתפקת בהנחיה של החברות להיות זהירות בפיתוח AI. הרגולציה על התחבורה האוטונומית בארה"ב פעלה כנגד חברת טסלה רק אחרי שבני אדם נהרגו בגלל תוכנת הנהיגה האוטונומית שלה. אם זה יקרה גם במקרה של ה-AGI, זה עלול להיות מאוחר מדי.