רקמת המציאות שלנו מתחילה להיפרם. זו לא נבואת זעם, זה היום-יום. ההתקדמות המהירה של הבינה המלאכותית מציבה בפנינו אתגרים משמעותיים במגוון רחב של תחומים, ומעליהם מרחף השינוי הגדול מכולם: בקרוב לא נעמוד יותר בראש שרשרת המזון. הבינה המלאכותית, יציר כפינו, באה לתפוס את מקומנו.
לא רוצים לפספס אף כתבה? הצטרפו לערוץ הטלגרם שלנו
כולם מדברים עכשיו על תוכנות כמו ChatGPT ועל תוכנות ליצירת דימויים כמו מידג'ורני - שכבר מצליחות לשבש סדרי עולם באקדמיה, באמנות, בעולם התעסוקה ועוד. לצידן יש תוכנות שונות העונות על צרכים שונים, שכל אחת מהן חותכת עוד חתיכה ממה שפעם היינו מגדירים כחוכמה, כישרון או מותר האדם על המכונה.
כתבות נוספות למנויי +ynet:
מה שאנחנו חווים עכשיו זו רק ההתחלה של ההתחלה. המטרה המוצהרת של התחום היא להגיע לבינה מלאכותית שתהיה בינה של ממש - לא תוכנה שמזינים אותה, מאמנים אותה ונותנים לה הוראות, אלא כזו שתדע לעשות הכול, כולל ללמד את עצמה ולהשתפר בעצמה, שתהיה אוטונומית לגמרי וכבר לא תצטרך אותנו. אנחנו עוד לא שם, נכון - אבל גם היום אנחנו לא איפה שהיינו לפני שנה או עשור. אף אחד לא יכול להעריך מתי תצוץ אותה סופר-בינה עדיפה, שתהיה טובה, מהירה, חזקה וחכמה מאיתנו בהכול כולל הכול ולא יהיה לנו סיכוי מולה; אולי בעוד עשור, אולי בעוד שניים, אולי אחרי פסח. דבר אחד נראה בטוח: המין האנושי עומד על סף המהפכה הגדולה בתולדותיו. "בינה מלאכותית תהיה ההמצאה האחרונה של המין האנושי", אמר הפילוסוף האמריקני ניק בוסטרום, אחת הדמויות המשפיעות בחשיבה על העתיד. תנו למשפט הזה לשקוע.
מה מונע מתוכנות הבינה המלאכותית של היום לעשות את הקפיצה הגדולה אל עבר העתיד המדובר? הבעיה המרכזית והגדולה ביותר של הבינה המלאכותית היום היא שאין לה מה שיש לכל אחת מאיתנו, מעצם העובדה שאנחנו אנחנו. בינה מלאכותית טובה במשימות נקודתיות: לנצח בשח, לנתח צילומים, לייצר דימויים, לזהות פנים, לעבד שפה טבעית, לנתח כמויות מידע עצומות, למתן תחזיות וכדומה. אבל כשיוצאים מאזור הנוחות או מוסיפים משתנה חדש, היא מתחילה להסתבך ולטעות.
זו בעיית השכל ישר (Common Sense). השכל הישר הוא החומר האפל של הבינה המלאכותית - חיוני וחמקמק, נמצא בכל מקום ובשום מקום, בלעדיו קשה לנו להסביר את העולם ואותו קשה לנו להסביר. שכל ישר כולל את כל הדברים שאספנו מבלי דעת ולא למדנו בצורה מסודרת. הוא כולל היגיון, רגש, יכולות חברתיות, יכולת חיזוי, הבנת סיבה ותוצאה, הסקת מסקנות, פיזיקה בסיסית, תפיסת זמן, פתרון בעיות, תכנון, יצירתיות ועוד. שכל ישר כולל ידע כמו המים רטובים; אם תעזוב אבטיח באוויר הוא ייפול; חפצים לא נעלמים כשמכסים אותם; סכינים חותכות; אדם הוא ילד לפני שהוא זקן; קיר זה לא אוכל; ברווזים לא יודעים לנגן במפוחית; מיץ תפוזים עשוי מתפוזים ולא להפך, אבל ביצה ותרנגולת כן עשויות זו מזו, ולכל כלל, יוצאים מן הכלל: יש סכינים למריחה ובסרטים מצוירים ברווזים יכולים לנגן במפוחית. עובדות והנחות עד לאינסוף. אם תנסו לרשום אותן לא תצליחו לסיים אף פעם, כי העולם הוא ממש מסובך.
אם כדור קופץ מישהי הקפיצה אותו - הסקת מסקנות. אם נכניס יד לאש נכווה - תחזית. אם אספר שישבתי במסעדה טבעונית והשארתי טיפ גדול תבינו שאכלתי, לא סטייק, והיה לי טעים למרות שדבר מזה לא נאמר - יכולת הכללה. אני יכול להעריך כמה זמן עבר מאז התחלתי לעבוד על הכתבה הזו - תפיסת זמן. אדם עושה שיקולים בלי הפסקה: חלקם חברתיים, חלקם מוסריים, חלקם תלויי זמן ומקום: לא תנהגו בצורה זהה ביום שישי עם החברים בפאב וביום ראשון בבוקר בישיבה עם הבוס. אבל בינה מלאכותית נמצאת תמיד באותו אף-מקום ובאותו אל-זמן. התכונה של התוכנה היא לבצע את המשימה שהגדירו לה, וזהו.
שכל ישר הוא גם היכולת להתאים ידע קיים לנסיבות חדשות: כלי רכב לא מוכר שועט לעברי ב-150 קמ"ש. לא צריך להסביר לי שקודם עדיף לזוז הצידה ורק אז לברר מה הדגם. בני אדם בנויים לחוסר ודאות, לכפילויות ולערפל: כששואלים אותי "מה העניינים?", ברחוב זה "מה נשמע", בעבודה זה "מתי תגיע הכתבה??" ולפני יציאה זה "כמה זמן אפשר לחכות לך???". יש לי אחיין שקוראים לו אביב, אבל הוא בחור ולא עונת שנה. יש לי אחיינית שקוראים לה שיר, אבל היא ילדה ולא קובץ ביוטיוב - אף אחד לא היה צריך להבהיר לי את זה. כשאומרים למישהו "עוף לי מהעיניים" לא מתכוונים שיש לו כנפיים והוא בתוך העיניים. וזה עוד לפני שנכנסנו לעולמות ההומור, האירוניה, האנלוגיה, הפאסיב-אגרסיב ועוזריהם. כל הדברים האלה שקופים לנו אבל אטומים עבור הבינה המלאכותית, נכון לעכשיו.
השכל הישר הוא המחסום העיקרי בפני הפיכת הבינה המלאכותית לבינה כללית, "אמיתית". האם יהיה לה שכל ישר אי פעם? לא ברור, ובעיקר לא ברור אם הוא יהיה אנושי. אולי יהיה לה שכל ישר משלה, כזה שלעולם לא נבין ולעולם לא תהיה לנו אליו גישה - וזו לא בדיוק מחשבה נוסכת ביטחון.
"בינה מלאכותית היא העתיד. יש בה הזדמנויות אדירות, אך גם איומים שקשה לחזות. מי שיהפוך למוביל בתחום זה יהיה לשליט העולם"
(ולדימיר פוטין)
המלחמה באוקראינה היא מלחמת הבינה המלאכותית (ב"מ) הגדולה הראשונה. כמו שמלחמת העולם הראשונה הציגה את הטנק והצוללת, ומלחמת העולם השנייה הציגה את הפצצה הגרעינית ואת מפציצי הענק. לראשונה אפשר לראות את הפוטנציאל ההתקפי וההגנתי של מערכות נשק מבוססות ב"מ בזמן אמת. באופן ציני אפשר לראות את המלחמה באוקראינה כמעבדת הניסויים של הבינה המלאכותית - מלבד הצדדים הניצים, השתתפו בה לא מעט צבאות וחברות מערביות - והניסוי מצליח, לטוב ולרע.
כבר בתחילת המלחמה הופיע ראש ממשלת אוקראינה זלנסקי בשידור הולוגרפי מול אלפי יזמים ומנהלי חברות, ואמר להם "אוקראינה היא הזדמנות למהפכה דיגיטלית - זה הזמן והמקום לכל חברת טכנולוגיה להראות ולעשות שימוש בכלים המתקדמים ביותר שלה". קריאתו נענתה בחדווה. לרוסיה אומנם יש כוח אש עדיף, אבל המערב, שלא שלח כוחות פיזיים, סייע רבות בחזית הטכנולוגית והשאיר את אוקראינה בחיים (בלי להמעיט בעוז רוחם ובאומץ ליבם של האוקראינים). טכנולוגיות ב"מ שנעשה בהן שימוש מרכיבות פחות או יותר את הגלריה השלמה של הב"מ הצבאית: מתקפות סייבר, שימוש בלוויינים שסיפקו מידע על תנועות של כוחות, טכנולוגיות מודיעיניות, וכמובן, רחפנים, מזל"טים מתאבדים וכטב"מים - גולת הכותרת ההרסנית של המלחמה.
המלחמה הזאת היא הפרומו שלפיו אפשר לדמיין איך ייראו שדות הקרב העתידיים, כשהבינה המלאכותית תשתכלל בהרבה ומערכות נשק אוטונומיות - שמעריכות סיכון, מחליטות על פעולה ומבצעות אותה ללא מגע והתערבות אדם - יהפכו להיות הסטנדרט. חשבו על מלחמה המתנהלת בעזרת מערכות כאלה, שהן כמובן חסרות מוסר ועכבות ומגיעות להחלטות תוך שבריר שנייה, כמעט במיידיות: כמה זמן ייקח עד שאחת תזהה איום ותחליט לירות, בעוד השנייה מזהה את אותו הדבר בדיוק. בום. הכול הלך. מלחמות העולם הקודמות ייראו כמו קטטה בעזרת כיסאות כתר פלסטיק. ויש לזה כבר שם: "הייפר-מלחמה".
אחת הטכנולוגיות היותר מאיימות שנמצאות בקנה נקראת "טכנולוגיית הנחיל" (Swarm) השואבת השראה מבעלי החיים הנעים בקבוצות גדולות ללא מנהיג, כמו דגים, נמלים וציפורים - בינה מבוזרת, אינטליגנציה משותפת. כל חבר בקבוצה תורם את שלו, אבל אף אחד לא יודע הכול, ואם כמה מתים בדרך לא נורא - מה שחשוב הוא הנחיל.
קחו את הדגים, הציפורים והנמלים והחליפו אותם ברחפנים, בצוללות ובטילים. עשרות אלפי יחידות משוגרות ליעדן ומגיעות להחלטות לבדן. בסוכנות הצבאית האמריקנית לפרויקטים מחקריים מתקדמים (דארפ"א) עוסקים בפיתוח נחילים כבר תקופה ממושכת, ובעת האחרונה מתמקדים בשיתוף פעולה בין נחיל לאדם. הטכנולוגיה עדיין לא קיימת בשימוש, אבל היא מעבר לפינה: בפברואר פירסמו דארפ"א והפנטגון תוכנית לטכנולוגיית נחיל מעוררת פלצות. פרויקט AMASS יכלול עשרות אלפי כלים, שינועו במקביל באוויר, ביבשה ובמים ויעבדו יחד במה שנקרא "נחיל של נחילים". ואלה רק הדברים שפורסמו, כן?
ב-2017, כשיצא ליוטיוב סרטון מד"בי בשם "רצחנובוטים" (Slaughterbots), שהציג נחילי רחפנים המשתמשים בזיהוי פנים כדי להתנקש בחיי יריבים פוליטיים, זה היה נראה עתידני מאוד. והנה, קם החלום והיה.
אנשי צבא, חברה וטכנולוגיה מסכימים שצריך לסווג את הנחילים כנשק להשמדה המונית. מזכ"ל האו"ם אנטוניו גוטרש אמר ב-2019: "מכונות בעלות כוח ושיקול דעת לקחת חיים ללא מעורבות אנושית אינן מקובלות פוליטית, דוחות מוסרית וצריכות להיות אסורות על פי החוק הבינלאומי". מילים יפות, אבל עדיין אין כללים ומגבלות נגד ייצור ומכירה של נשקים כאלה. האם יש סיכוי שהמדינות יסכימו ביניהן על משהו? לא סביר, לפחות לא לפני שיהיה אסון. שיהיה לנו בהצלחה.
"גם בשדה הקרב לטכנולוגיה יש פוטנציאל לצמצם סיכון ופגיעה בחיי אדם. לטכנולוגיות ב"מ יש יכולות דיוק והבחנה ברמה שהיא מעל לקצה גבול היכולת האנושית. זה יכול למנוע הרג של חפים מפשע"
ד"ר לירן ענתבי, מנהלת תוכנית טכנולוגיות מתקדמות וביטחון לאומי במכון למחקרי ביטחון לאומי (INSS), פירסמה מסמך בן כ-140 עמודים בכותרת "בינה מלאכותית וביטחון לאומי בישראל". לא הייתי מגדיר אותו כקריאה כיפית, אבל בהחלט פוקחת עיניים. אני מרים לה טלפון. "מה שנקרא, כיף שבאתם. אני מתעסקת עם זה יותר מעשור. בשנים הראשונות לא הבינו מה אני רוצה, עכשיו זה משתנה".
"לב"מ יש משמעויות עצומות בתחום של ביטחון לאומי", היא אומרת, "אבל מה זה ביטחון לאומי? כמובן שיש פן צבאי, אבל אני מסתכלת על הגדרה רחבה יותר: היכולת של המדינה לספק לי יכולת לנשום אוויר נקי, כלכלה יציבה, מזון, בריאות, ביטחון אישי, קהילה וביטחון פוליטי. בעיניי זה חשוב יותר מכלי נשק".
גם בעיניי, אבל בכל זאת - בואי נדבר על כלי נשק.
"קודם כל, צריך לזכור שגם בשדה הקרב לטכנולוגיה יש פוטנציאל לצמצם סיכון ופגיעה בחיי אדם. לטכנולוגיות ב"מ יש יכולות דיוק והבחנה ברמה שהיא מעל לקצה גבול היכולת האנושית. זה יכול למנוע הרג של חפים מפשע. אתה יכול למצוא יישומים צבאיים עם ב"מ בכל תחום שעולה על הדעת: לוגיסטיקה, כוח אדם. הכול. בקשר למה שיורה והורג, בעיניי הכי קיצוני זה דווקא הכי 'פושטי'. נכון שיש מערכות מאוד מתקדמות אצל מדינות, אבל אני רוצה לקחת אותך אל המחבל הבודד או אל תא טרור קטן שהשיג חומר נפץ, קנה רחפן ברשת, עם קצת ידע במחשוב קל לחבר לזה טכנולוגיה לזיהוי פנים - והרי לך מערכת נשק אוטונומית, פרסונלית, תוצרת בית.
"מל"טים ורחפנים זה מסע צלב אישי שלי: אנחנו רואים התקדמות אדירה בתחום. צבאות אימצו טכנולוגיות מדף, אבל שכחו שזה נותן יכולות גם לצד השני. בעצם, עכשיו לכל ארגון קטן יש סוג של חיל אוויר. לפני עשור לא היה דבר כזה. מערכות ההגנה האווירית שלנו לא מתאימות להתמודד עם דברים כאלה. הן מפגרות מאחור. מקבלי ההחלטות משתהים. לפעמים מחוסר הבנה, לפעמים מחוסר תפקוד, לפעמים מזלזול בצד השני, לפעמים בגלל אג'נדות. הבעיה שלנו היא במקבלי ההחלטות. היום לא מתנהלים תהליכים של חשיבה והחלטה ואנחנו נמצא את עצמנו בבלגן. הם לא מבינים".
בגדול, מסכמת ד"ר ענתבי, "הכול נהיה יותר גרוע". באחד המחקרים שלה פירסמה תחזית שעד 2033 כמעט כל משימה צבאית ניתן יהיה לתכנן ולבצע ללא מגע אדם, "אבל במקום לצאת מההלם אנחנו אומרים - איזה קרנף אפור יפה מגיע!".
ענתבי רומזת למושג "קרנף אפור", שבא כקונטרה לביטוי "ברבור שחור", כלומר הפתעה שבאה משום מקום (על שם ספרו של נאסים טאלב). לעומתו, הקרנף האפור מתקדם לעברנו בקצב אחיד, ועדיין קשה לנו לראות בו איום. זה יכול להיות משבר כלכלי, משבר חברתי (מי ראה את זה בא? כולם. מי עשה משהו? אף אחד), משבר האקלים ועוד. את הביטוי הגתה מישל ווקר, אנליסטית מדיניות כלכלית שפרסה אותו בהרצאת טד פופולרית. חלקנו סומכים על אחרים שיסדרו, חלקנו מדחיקים או מכחישים, וחלקנו חושבים שבכל מקרה אין סיכוי להתמודד מול קרנף, אז יאללה, נאכל ונשתה כי מחר יאכלו אותנו.
בפברואר פורסם כי ממשק הבינה המלאכותית באינטרנט ChatGPT עבר את בחינת הרישוי לרפואה בארה"ב (וגם את בחינות ההסמכה של לשכת עורכי הדין). נשמע מרשים, אבל לא הכי מדויק. כמו שמסביר לי ד"ר תום הופ מהמעבדה לבינה מלאכותית ברפואה בבית הספר למדעי המחשב באוניברסיטה העברית בירושלים, שגם תרם לי הרבה דוגמאות והסברים לפרק הזה, התוכנה קיבלה לא מעט הנחות: היא ענתה רק על השאלות האמריקניות, לא הייתה צריכה לנתח תרשימים וטבלאות או לענות על שאלות בשפה חופשית. ועדיין.
עם כל הכבוד לתוכנות בינה מלאכותית שיודעות לייצר דימוי בסגנון ואן גוך של כלב קורא עיתון על הירח בעודו רוכב על פיל גמדי שאוכל ארטיק אננס, או לכתוב סונטה בסגנון שייקספיר על נהג אוטובוס מאוהב שמחפש חניה ברחוב הצר של אהובתו - בתחום הרפואה הבינה המלאכותית משחקת תפקיד משמעותי בהרבה.
השימושים של ב"מ ברפואה מגוונים עד מאוד: ניתוח צילומי רנטגן, סריקות CT ,MRI, אולטרסאונד וביופסיה, אבחון מוקדם של מחלות, גילוי סוגי סרטן, פיתוח חיסונים ותרופות, מיטוב של קומבינציות תרופתיות, זיהוי תופעות לוואי, עזרה בעריכה גנטית, הנגשת מידע לרופאים ולרופאות (מיליוני מאמרים רפואיים מתפרסמים בשנה, למי יש סיכוי לעבור על כולם?), ניהול משאבים של מרפאות ובתי חולים, תכנון וניתוח של ניסויים קליניים, חיזוי של סיכויי החלמה או מוות, חלילה, למאושפזים, עזרה וירטואלית למטופלים ועוד. גוגל אף מנסה לפתח ב"מ שתוכל לפענח את כתב היד הבלתי אפשרי של רופאים - לפי מחקר שנעשה בארה"ב, כתב היד של רופאים הרג יותר מ-7,000 אמריקנים ב-2006, ומיליונים קיבלו תרופות לא נכונות - אבל ממשיכה להיכשל. כמי שנשוי לרופאה אני מזדהה עם הכישלון של גוגל.
ועדיין, למרות כל הפיתוחים והתרומה הנהדרת של הב"מ, עוד רבים האתגרים וארוכה הדרך. מחסור בשכל ישר, ידידנו הוותיק, אי-ידיעה על הרגלי חיים ולקות בהבנה הבסיסית של סיבתיות (האם עישון גורם לשיניים צהובות, או האם בעלי שיניים צהובות מתמכרים יותר לסיגריות? האם אנשים חולים בגלל שהם מונשמים - או מונשמים כי הם חולים?) מהווים מכשול בפני השתלבות טובה יותר של ב"מ ברפואה.
בינה מלאכותית הסיקה כי סרגלים גורמים לסרטן עור, מאחר שסרקה מיליוני צילומים של נגעי עור שונים וסרגלים קטנים הופיעו לצד חלק מהנגעים הסרטניים. במקרים אחרים היא נטתה לטעויות בחולים בעלי גוני עור כהים. זה נוגע בבעיה גדולה נוספת של הבינה המלאכותית: הטיות וחיזוק סטריאוטיפים. מהיום שבו החלה הבינה המלאכותית להתאמן על תמונות וטקסטים מהרשת מלווה אותה צל כבד ודוחה של גזענות, מיזוגיניה, הומופוביה, אנטישמיות ושלל סטריאוטיפים.
הדברים לא נגמרים בדימויים ובדיבורים פוגעניים - לא שזה דבר קטן - הם יכולים להביא לפגיעה ממשית. מדענית המחשב ג'וי בואולמוויני ממעבדת המדיה ב-MIT הראתה שמכוניות אוטונומיות שמתאמנות על לא לדרוס אנשים, מתאמנות על צילומים של לבנים; את השחורים הן לא מזהות כבני אדם. תוכנות שנעשה בהן שימוש בתהליכי קבלת עובדים, מתן הלוואות, הערכת סיכונים בריאותיים וכדומה, נוטות כמעט תמיד לאפליה בוטה. כך גם בתחומי הרפואה - הב"מ מתקשה יותר לאבחן את האדם הלא-לבן.
וגם כשמערכות ב"מ מספקות תחזיות רפואיות, לא תמיד הן לוקחות בחשבון גורמים כמו מצבו המשפחתי של החולה, אורחות חייו, רצונותיו, אמונותיו וכדומה. יש גם ענייני אתיקה: אם מטרתה לרפא, היא עלולה להתעלם מתופעות לוואי חמורות של הטיפול. אם מטרתה היא לשפר את יעילות בית החולים, היא עלולה להעדיף את המוסד על החולה. כשמוסיפים לזה את הרציונליות הקיצונית של התוכנה (כלומר, ה"רצון" לעמוד ביעד בכל דרך), אפשר להבין את פוטנציאל הנזק.
בנוסף, ברוב המקרים אף אחד לא יודע מה עומד מאחורי התשובה שנותנת הב"מ. מה שמביא אותנו לעוד בעיה קשה - כן, הן לא נגמרות! - של התמודדות מול הבינה המלאכותית בתחומי המדע והרפואה (במידה רבה גם בעולם העבודה): בעיית "הקופסה השחורה". אנחנו יודעים מה נכנס, מיליארדים של פרטים ופרמטרים, אנחנו רואים מה יוצא, אבל אין לנו מושג מה קורה בפנים ולמה ואיך הגיעה הב"מ להחלטה. הב"מ לא מסבירה, וגם כשמנסים, לא תמיד מצליחים להבין. המערכת בלתי חדירה.
קחו את בעיית הקופסה השחורה, הכפילו אותה במוחכם פי אלף ותקבלו את התרחיש הקיצוני ביותר של השתלטות הבינה המלאכותית על העולם: ב"מ אוטונומית שיש לה אג'נדות ואין לה מוסר. הפילוסוף ניק בוסטרום הציע את ניסוי המחשבה "ממקסם מהדקי הנייר": בינה מלאכותית שתוכננה לייצר כמה שיותר מהדקי נייר. בלהיטותה האדישה, משתלטת התוכנה על עוד ועוד משאבים, עד שהיא הופכת את כל כדור הארץ לחומר גלם למהדקי נייר.
יש המון תרחישי אימה על בינה מלאכותית שמשמידה את העולם, אבל לא חייבים להשמיד את כולנו והאמת שגם לא חייבים לשלוט בכולם, מספיק לשלוט באלה שחשוב לשלוט בהם. לשלוט על בני אדם זה די קל: או שמשקרים להם, או שנותנים להם מהדבר שהם הכי רוצים, או שנותנים להם מהדבר שהם הכי פוחדים ממנו.
הפחד מספר אחת של רובנו מהבינה המלאכותית הוא שהיא תיקח לנו את העבודות. זה לא חשש מופרך. הפורום הכלכלי העולמי מעריך שכ-100 מיליון מקומות עבודה אנושיים יתבטלו עד 2025, ועד סוף העשור עלולה הבינה המלאכותית לקחת את מקומם של עד 800 מיליון עובדים. דוח של חברת מקינזי העריך כי כ-70 אחוז מהחברות יאמצו טכנולוגיות בינה מלאכותית בעשור הקרוב. מצד שני, מבטיחים לנו שהב"מ תיצור צמיחה ומקומות עבודה חדשים ושהכול יהיה בסדר. בסדר.
מבט לאחור מראה שהעבודות שהמכונות משתלטות עליהן ראשונות הן העבודות הפיזיות. חשבנו שכמו שהמנוף החליף את הסבל, תשתלט הב"מ קודם כל על העבודות הפיזיות שעוד נותרו, לאחר מכן תעבור אל העבודות האוטומטיות והחוזרניות, כמו עבודה בפס ייצור; לעבודות הדורשות דיוק, כמו הזנת נתונים, ולעבודות שלא דורשות יצירתיות ומחשבה, כמו למשל שמירה או הפיכת המבורגרים במסעדת מזון מהיר.
אבל נראה שאיש - כולל סופרי המד"ב המהוללים ביותר - לא צפה את הטוויסט הנוכחי. נכון לעכשיו נראה שהעבודות שמתבצעות בעולם הפיזי בטוחות בינתיים. תחומי החישה, התנועה, הראייה וההתמצאות במרחב - כל מה שצריך בשביל רובוט - עדיין משתרכים מאחור (למעט איירובוט ודומיו). דווקא העבודות שנחשבות ליצירתיות ויכולות להתבצע במרחב הווירטואלי הן שעומדות ראשונות בקו האש: ציירים ומאיירים, כותבים, אנליסטים, אדריכלים, עו"דים ועוזרים משפטיים, מתכנתים, מאבחנים, מנהלי לוגיסטיקה, קופירייטרים, מוזיקאים מסחריים - כל מה שאלה יכולים לעשות, בינה מלאכותית עושה הרבה יותר טוב. זה כבר קורה, ולא רק במשחקי שחמט או גו - ב"מ מביסה רופאים, מתכנתים, כותבים ואמנים במגרש הפרטי שלהם שוב ושוב. את זה אף אחד לא ראה מגיע.
כמי שמשתייך למעמד הזה, אני מודאג. פעם סיפרתי לעצמי שאף אחד לא יכול לכתוב בדיוק כמוני (לא הכי טוב, רק כמוני), אבל כש-GPT ומידג'ורני מחליפים סגנונות בקלות מרשימה, משייקספיר להמינגווי, מאמינם לפרנק סינטרה, מוואן גוך לנורמן רוקוול, אני כבר לא כל כך בטוח. זו לא מחשבה קלה. הרי מה רוצה הבן אדם בסך הכול: להיות בעל ערך, להרגיש מיוחד. הבינה המלאכותית הולכת לקחת את כל זה מאיתנו ביג טיים, ואם לא מחר אז מחרתיים.
"מבט לעתיד המעט רחוק יותר", אומרת ד"ר לירן ענתבי, "מעלה הרבה שאלות בנוגע לעולם התעסוקה. כשיותר ויותר מקצועות יבוצעו בצורה טובה יותר על ידי ב"מ מאשר על ידי אדם, המצב יציב את האנושות בפני משבר תעסוקתי חמור, שאולי יאלץ אותנו לכונן סדר חברתי חדש, כזה שאינו סובב סביב העבודה".
אומרים לנו שכל משבר הוא הזדמנות. לא יודע. יש הרבה משברים שהם פשוט משברים וזהו, בטח אם אתה לא "שוק העבודה" אלא רק אדם בעולם שיש לו עבודה. אין ברירה אלא לקבל את העתיד, אבל זה לא אומר שאין מה לחשוש ממנו.
אבל לא צריך לחכות לבינה המלאכותית ה"אמיתית" - כבר במצבה הנוכחי מגישה הבינה המלאכותית סדרה של שיבושים רציניים למדי במרקם החיים. אחד מהגדולים שבהם הוא הדיפ-פייק, הזיוף העמוק. כלי ב"מ מאפשרים ליצור, לשכפל ולערוך מניפולציות על כל סוג של מידע וצורת תקשורת. אמצעי השקר הכי טוב שאי פעם בא לעולם. מכל הפחדים שמעוררת הבינה המלאכותית, זה בעיניי אחד המפחידים ביותר.
הדיפ-פייק מכיל בתוכו את זרעי פירוק יסודות החברה האנושית. כשאתה לא יכול להאמין לדבר, כשאי אפשר יהיה יותר להבחין בין אמת ושקר, טבעי ומסונתז, מקור והעתק, כשלא נוכל יותר לסמוך על החושים שלנו - איך אפשר יהיה לקיים חברה? במחקר שפורסם בשנה שעברה על ידי ד"ר לירן ענתבי בכותרת "דיפ-פייק והאתגרים לביטחון הלאומי", היא בוחנת לעומק את סכנות הדיפ-פייק. השימוש הנפוץ ביותר בו, לא מפתיע, הוא ליצירת פורנוגרפיה, אבל הוא משמש למטרות מלבבות אחרות כמו סחיטה, הונאה וזריעת דיסאינפורמציה וכאוס.
"הסיכון שמציב הדיפ-פייק לביטחון הלאומי", אומרת לי ד"ר ענתבי, "הוא פחות ביכולת לערער מדינות, אבל אדם פרטי יכול למצוא את עצמו במערבולת נוראית. יש הרבה תרחישים שיכולים להוביל לערעור הסדר הציבורי, לאלימות ולאובדן אמון הציבור". תכלס, אומרת ענתבי, העולם יוצא משליטה.
בועז לביא, חוקר, מרצה וכותב על בינה מלאכותית (ההסכת "עושים תוכנה", "עליית המכונות", בצלאל) מספק זווית מקורית ומלחיצה. "קח לדוגמה, ציורים של ורדים ברשת. הב"מ מייצרת דימויים של ורדים עד שבשלב מסוים כמות הוורדים המסונתזים תהיה גדולה מכמות הדימויים האמיתיים. לא נדע מה אנחנו רואים. הקיום שלנו יתנתק ממה שאנחנו מכנים הטבע, או העולם. זה דבר מפחיד, מסוכן ומשבש. אפשר לחשוב עלינו כווריאציה עתידנית על משל המערה של אפלטון: אנחנו נכלאים מחדש במערה וכל הדימויים שיש לנו הם סינתזה. בעלי החיים, הפרחים, הנופים, אפילו המילים - הכול צללים, שום דבר לא אמת. למכונות האלה יש יכולת חזקה לשקר ואנחנו לא בנויים להתמודד: כבר היום אין לנו כלים לשפוט מה נכון. ובעתיד יהיו להן יכולות מתקדמות הרבה יותר".
הבינה המלאכותית לא הולכת לשום מקום אלא קדימה, כל יישום חדש פותח חלון נוסף עם אתגרים חדשים והזדמנוית מרגשות. רק חלקם פורטו כאן - לא דיברנו, למשל, על אהבה, על חינוך, חקר החלל ועוד. מה שבטוח, הגיע הזמן להתחיל להתכונן ברצינות. הקרנף האפור מגיע.