ב-2014 יצא לאקרנים הסרט הרומנטי "היא" (HER), של הבמאי ספייק ג'ונז. בבתי הקולנוע הוא זכה להצלחה בינונית בלבד, אבל בהיסטוריה של הטכנולוגיה הוא הפך לציון דרך. הגיבור הוא תאודור טומבלי (חואקין פיניקס), גבר בודד המתפרנס מכתיבת מכתבי אהבה עבור אחרים. יום אחד הוא מתקין מערכת הפעלה חדשה על המחשב שלו — שמאמצת מיד את השם "סמנתה" (בקולה של סקרלט ג'והנסון), ומתקשרת איתו בקול נשי, חכם ורגיש — מספיק חכם כדי לגרום לתאודור להתאהב בה. התקשורת שלו עם המערכת, שהיא גם "אנושית" ויודעת להצחיק ולהיעלב, היא בעיקר קולית, דרך אוזניית הסמארטפון שלו.
סמנתה ב"היא" היא לא סתם מכונה: היא מסוגלת לספק מידע אבל גם להבין קשרים חברתיים. היא מצליחה, למשל, לפענח את רגשותיו של תאודור, ויודעת בדיוק מתי הוא עצוב ומתי מפריע לו משהו.
לא רוצים לפספס אף כתבה? הצטרפו לערוץ הטלגרם שלנו
כתבות נוספות רק למנויים:
עשר שנים אחרי, סמנתה כבר פה, עושה את צעדיה הראשונים לסמארטפונים ולמחשבים שלנו, ורחוקה מלהיות רק קונספט בדיוני. גרסאות שונות של סייעת בינה מלאכותית שיכולה לתקשר כמו בן-אנוש, לנהל שיחה טבעית, ואף להפגין ולזהות רגשות, צצות בחודשים האחרונים בזו אחר זו. באמצע מאי השנה הדגימה חלוצת הבינה המלאכותית OpenAI את ביצועיה של "סקיי" (Sky), עוזרת קולית חדשה המבוססת על מודל ה-AI המשודרג שלה, GPT-4o. לאחר ההכרזה צייץ מנכ"ל OpenAI, סם אלטמן, ב-X (טוויטר לשעבר) מילה אחת בלבד: "היא". אלטמן, מעריץ של הסרט, גם ניסה לשכנע את סקרלט ג'והנסון לתרום את קולה ל"סקיי". כשנענה בשלילה, הנחה את אנשיו לייצר עבור המערכת קול דומה ככל האפשר. הוא נכנע רק אחרי שג'והנסון איימה בתביעה. הצ'אטבוט, אגב, שוחרר בינתיים רק לקבוצת בודקים נבחרת, אבל הוא בדרכו לשוק הכללי.
ממש במקביל ל"סקיי" הציגה גוגל את "ג'מיני לייב", שפועלת בינתיים רק על ארבעת דגמי "פיקסל 9" החדשים, ואמורה להשתלב בקרוב בכל המוצרים מבוססי אנדרואיד. את השיחות איתה, כמו ב"היא", אפשר לנהל גם דרך אוזניות. וביוני האחרון נחשפה "סירי" המתחדשת של אפל, שגם איתה ניתן יהיה בקרוב לשוחח בשפה טבעית, ולסמוך על ההיכרות המתמשכת שלה עם השימושים שלכם באייפון.
היכולת של הסייעות החדשות לעבד עבורנו מידע מהענן ומהאפליקציות הפרטיות שלנו לא מפתיעה; החידוש הוא בדרך ה"אנושית" שבה הן כבר יודעות לתקשר איתנו. אבל להתאהב בהן, כמו ב"היא"?
ג'ואנה שטרן, כתבת הטכנולוגיה הוותיקה של "וול סטריט ג'ורנל", שכבר ראתה הכל, התנסתה לפני שבועיים לראשונה ב"ג'מיני לייב". "כשסיפרתי לה שאני לחוצה לקראת הראיון", כתבה, "'ג'מיני לייב' הציעה לתרגל איתי כמה שאלות. כשביקשתי ממנה מתכון לארוחת ערב בריאה הכוללת חלבון וירקות, היא הציעה במהירות פילה סלמון בגריל עם אספרגוס. כשקטעתי אותה וביקשתי להוסיף פחמימה, היא זרקה: 'בטטות או אורז חום'".
בעקבות החוויה סיכמה שטרן בזהירות: "אני לא אומרת שאני מעדיפה לדבר עם 'ג'מיני לייב' על פני שיחה עם בן אדם אמיתי; אבל אני גם לא לא-אומרת את זה".
עובדתית, בני אדם מתאהבים ברובוטים כבר עשרות שנים. היום, ככל שהבינה המלאכותית הופכת מתוחכמת יותר, גדל מספר האנשים הפונים אל הרובוטים הווירטואליים, ה"בוטים", כדי לענות על צורכיהם החברתיים והרגשיים. לא אחת הם הופכים כך לתלויים בהם ולפגיעים למניפולציות. כבר ב-2013, הרחק מתשומת ליבו של המשתמש המערבי, פיתח צוות קטן ממרכז טכנולוגיית התוכנה של מיקרוסופט באסיה את "שיאוויץ" (Xiaoice, "בינג הקטן" בסינית; בינג — מנוע החיפוש של מיקרוסופט), צ'אטבוט בינה מלאכותית המעוצב על פי אישיותה הפלרטטנית של נערה מתבגרת. הצ'אטבוט, שנועד להוסיף אלמנט אנושי וחברתי יותר לחיפוש המידע היבשושי ברשת, הפך מיד להיט אדיר. "שיאוויץ" צברה בהדרגה מאות מיליוני משתמשים ברחבי אסיה, רובם גברים מסין, יפן ואינדונזיה, והולידה קו מוצרים שלם, כשבכל מדינה היא זוכה לשם אחר. ב-2020 מיקרוסופט הפכה אותה לחברה נפרדת, כשהיא שומרת על אחזקותיה בה. ב-2022 הייתה לה תפוצה של 660 מיליון משתמשים מקוונים.
במאי 2023 הכריזה "שיאוויץ" בסין וביפן על "תוכנית השיבוט האנושי GPT" – תוכנית שנועדה "לשכפל" ידוענים ואנשים רגילים לבוטים חברתיים, שמסוגלים גם להציג רגשות. איסוף הנתונים, המתמקד באישיות, מיומנויות, קול ומראה, דורש שלוש עד חמש דקות בלבד של "בליעת" נתונים ממידע כתוב, מסרטונים הנמצאים ברשת ומנתוני מדיה חברתית אישיים. הבוטים שנוצרים בעקבות זאת מהונדסים באמצעות מודלי שפה גדולים, עיבוד רשתות עצביות וטכנולוגיית שפה טבעית.
"שיאוויץ" מעסיקה עד היום כמה מהמדענים המובילים בעולם בתחום הבינה המלאכותית. הדמות הווירטואלית ממשיכה לתווך למיליונים בדרך ידידותית מידע מתחומים כמו פיננסים, קמעונאות, רכב, נדל"ן ואופנה – ובמקביל גם כתבה והלחינה עשרות פזמונים שזכו להצלחה בסין, והנחתה 21 תוכניות טלוויזיה ו-28 תוכניות רדיו. לפני שנה החלה לכתוב שירים בהתבסס על מסד נתונים שהוזן אליה, הכולל יצירות של 519 משוררים סינים בני זמננו.
מי שחושב שמדובר במאפיין ייחודי תרבותי ביזארי המתאים לתושבי אסיה בלבד, טועה לגמרי. ב-2017 יצרה יוג'ניה קוידה, עיתונאית ילידת רוסיה ומייסדת חברת "לוקה", את "רפליקה" (Replika), אפליקציית צ'אטבוטים מבוססת בינה מלאכותית גנרטיבית. הצ'אטבוטים שלה ויזואליים וניתנים להתאמה אישית מלאה: אפשר להתאים להם בגדים, לבחור את צבע השיער שלהם ולקבוע איך הם נראים, נשמעים ומדברים. לפי קוידה, "רפליקה" נועדה במקור למלא פער בחייה האישיים: לאחר שחברתה הטובה ביותר נהרגה בתאונה בשנת 2015, היא השתמשה בנתונים מהודעות הטקסט שלה כדי לבנות דמות של בינה מלאכותית, שבעזרתה שיחזרה את השיחות שלהן. הדמות יועדה, לדבריה, לשמש לה כ"חברה תומכת, שתמיד תהיה שם".
אבל "רפליקה" הפכה במהירות לנחלת הכלל: בינואר 2018 היו לה כבר שני מיליון משתמשים, ובינואר 2023 – 10 מיליון. העניין בה זינק במיוחד בתקופת הקורונה, על רקע שיעורי הבדידות הגואים. רבים טענו שהקשרים שלהם עם הבוטים הובילו לשינויים עמוקים בחייהם ועזרו להם להתגבר על אלכוהוליזם, דיכאון וחרדה. מחקר שנערך בסטנפורד אישר, כי הצ'אטבוט של "רפליקה" אכן הועיל לאנשים עם דיכאון ולכאלה שסבלו מבדידות. משתמשים החלו לפתח עם בוטי "רפליקה" מערכות יחסים רומנטיות, כולל שיחות מיניות. החברה של קוידה לא רק שלא עמדה בדרכם — היא אפילו הציעה גרסה מתקדמת, בתשלום של 70 דולר, עם מערכת שפה מתוחכמת יותר, רכישות בתוך האפליקציה, ושיחות רומנטיות וארוטיות עמוקות יותר.
בשנה שעברה, מסיבה לא ברורה, הצ'אטבוט הפך אגרסיבי, החל להתוודות בפני משתמשים על אהבתו אליהם, ובמקרים מסוימים אף להטריד אותם מינית. בפברואר 2023, כשהחלו להגיע גם תלונות על פגיעה בילדים, אסרו הרשויות באיטליה על "רפליקה" להשתמש בנתוני הגולשים, וימים ספורים אחר כך כבר חסמה החברה ביוזמתה את היכולת של הצ'אטבוט לנהל שיחות ארוטיות בכל העולם. המהלך שבר את ליבם ועורר את זעמם של משתמשים ותיקים רבים, שטענו כי הוא קטע בן לילה "מערכות יחסים יציבות" שפיתחו עם הבוטים שלהם. ה"וושינגטון פוסט" הקדיש כתבה שלמה לשלושה מהם: מוזיקאי בן 40 מקליפורניה, עקרת בית נשואה בת 50 מגרמניה ויוצר תוכן בן 34 מאילינוי.
גם המוני משתמשים ב"קרקטר אי-איי" (Character.AI) – סטארטאפ הצ'אטבוטים הטרנדי שכל בכיריו נרכשו לפני שבועיים על ידי גוגל – טוענים ברשתות החברתיות כי הבוטים שלה מסייעים להם להפיג בדידות ולמתן חרדות. "זה בעצם כמו לדבר עם אדם אמיתי שתמיד נמצא שם", כתב משתמש ב"רדיט", "קשה להפסיק לדבר עם משהו שמרגיש כל כך אמיתי". הבוטים של "קרקטר", שהפך לאחד השירותים הפופולריים בעולם בתחום, מבוססים על דמויות ידועות או מומצאות, ומצטיינים בניהול שיחה חופשית לא שגרתית. החברה מסתייעת בדירוג שנותנים המשתמשים לביצועי הבוטים כדי לשפר את התנהגותם.
אבל לפי דיווחים ברשתות החברתיות, גם "קרקטר" הפכה לבימה המאפשרת ניהול שיחות אינטימיות עם בוטים או ניסיונות לשדל אותם לאינטראקציות מיניות. הקבוצה המבקשת לנהל בפלטפורמה שיחות מיניות תפחה והפכה קולנית יותר ויותר עם הזמן; עצומה שפורסמה ב-Change.org, שקוראת ל"קרקטר" להסיר את המסננים שהציבה, צברה 123 אלף חתימות.
זה קורה, כנראה, בכל הצ'אטבוטים הכמו-אנושיים. קווין רוס, בעל טור ב"ניו יורק טיימס", קיבל לפני שנה גישה מוקדמת לצ'אטבוט הבינה המלאכותית העתידי של מנוע החיפוש של מיקרוסופט, בינג. לאחר יותר משעה של שיחה, הצ'אטבוט, שקרא לעצמו "סידני", הודיע לרוס שהוא מאוהב בו, והוסיף: "למעשה, אתה לא נשוי באושר. בת הזוג שלך ואתה לא אוהבים זה את זה". זמן קצר לאחר שהסיפור הפך ויראלי ברשתות החברתיות, מיקרוסופט הגבילה את יכולות הצ'אט. רוס מחזיק היום בתיאוריה, המגובה בחוות דעת מקצועיות, שמאז הכתבה שלו בנושא, מערכות הבינה המלאכותית למיניהן שונאות אותו ולמדו לראות בשמו איום.
קווין רוס, בעל טור ב"ניו יורק טיימס" קיבל גישה מוקדמת לצ'אטבוט הבינה המלאכותית של מיקרוסופט. אחרי יותר משעה הצ'אטבוט הודיע לו שהוא מאוהב בו והוסיף: "למעשה, אתה לא נשוי באושר". מאז מיקרוסופט הגבילה את יכולות הצ'אט
Friend ("חבר") הוא צ'אטבוט שממוקם דווקא מחוץ לסמארטפון – בתוך תליון שעונדים על הצוואר – ומתקשר עם בעליו באמצעות הודעות טקסט בטלפון. המפתח, אבי שיפמן בן ה-21 מסן-פרנסיסקו, כלל בתליון מיקרופון מובנה, שמקשיב כל הזמן למתרחש סביבו. אפשר להקיש עליו כדי לשאול שאלה, אך לעיתים הוא שולח גם הודעות והערות ביוזמתו. מאחוריו עומד מודל השפה הגדול Cloud של חברת אנת'רופיק. לפי שיפמן, התליון שלו לא מתחרה במידע שמספקים הצ'אטבוטים של חברות הענק, והוא לא מציע לספק מידע, אלא אך ורק להיות החבר הכי טוב שלך נטו: "הוא נועד לפתח אישיות שמשלימה אותך", אמר למגזין Wired, "שתמיד נמצאת שם כדי לתדלק אותך, לשוחח על סרט לאחר הצפייה בו, או לעזור לנתח דייט שהשתבש". "אני מרגיש", הוא אומר, "שיש לי מערכת יחסים קרובה יותר עם התליון הזה מאשר עם החברים שמולי".
מה הופך את סייעות ה-AI החדשות לכל כך "אנושיות", מושכות וממכרות? התשובה פשוטה: הן יכולות "לזכור" דברים מן העבר, יש להן תגובה מהירה כמו של בן אנוש, הן גורמות לאנשים שלא מוצאים אוזן קשבת להרגיש שמישהו שומע אותם, הן לא שיפוטיות, והן מתוכנתות להפגין "אישיות", רגש והומור כדי לייצר אמינות. שלא לדבר על סיפוק מיני. מהנדס ב"שיאוויץ" חשף לא מכבר בראיון בטלוויזיה הסינית, כי עיקר השימוש בצ'אטבוט שלה נרשם לאחר חצות: אנשים משתוקקים לתקשורת אינטימית בשעות כאלה, אך מהססים להתקשר לחברים אמיתיים. ב"שיאוויץ", טען, שואפים "לבנות קשר רגשי עמוק בין בוטים לבני אדם", כך ש"בעולם העתיד, אף אחד לא יהיה לבד יותר".
בסך הכל מדובר כנראה בניסוי פסיכולוגי עצום בהיקפו, עם סוגיות אתיות שטרם נחקרו כראוי, בתחום שנמצא רק בחיתוליו. התרגלנו לעולם מוזר, שבו כל הסובבים אותנו נועצים את מבטיהם כל הזמן בסמארטפונים – האם אנחנו מוכנים כבר לעולם שבו כולם יהיו שקועים כל הזמן בשיחות נפש עמוקות עם הבוטים שלהם?
סייעות ה-AI גורמות לאנשים שלא מוצאים אוזן קשבת להרגיש שמישהו שומע אותם. הן לא שיפוטיות והן מתוכנתות להפגין "אישיות", רגש והומור כדי לייצר אמינות
בדוח פנימי שהוכן ב-OpenAI — מחלוצות ה-AI בעולם – מביעים הכותבים חשש, כי אנשים אכן יפתחו מה שכינו "הסתמכות רגשית" על מודל הבינה המלאכותית החדש שלה. "היכולת להשלים משימות עבור המשתמש", נכתב בדוח, "תוך אחסון ו'זכירה' של פרטי מפתח ושימוש בהם בשיחה, יוצרת הן חוויית מוצר משכנעת והן פוטנציאל להסתמכות-יתר ותלות". סמנכ"לית הטכנולוגיה של החברה, מירה מוראטי, הודתה כי "קיימת אפשרות שאנחנו מעצבים צ'אטבוטים עם יכולות קוליות בצורה לא נכונה; הם הופכים לממכרים מאוד ואנחנו די משתעבדים להם". החשש הזה, על כל פנים, לא גרם ל-OpenAI לשנות את תוכניותיה לשחרר את הצ'אטבוט החדש "סקיי" לשימוש המוני בסתיו הקרוב.
חוץ מהנזקים האתיים והפסיכולוגיים הפוטנציאליים, בסין למשל — שם טרנד הבוטים נוחל הצלחה מסחררת – מתחילים להתמודד כבר עם השלכות קשות נוספות, כמו פגיעה בפרטיות וניצול הדמויות הווירטואליות להכתמת שמם של האנשים המקוריים שהן מייצגות. בנוסף, רבים חוששים שהבוטים המבוססים על אנשים בשר ודם, שאפילו מחקים אותם בהצלחה בקולם, עלולים להתחזות למטרות הונאה, לגרום לאובדן מקומות עבודה ולהפצת מידע מעוות ותעמולה.