עורך הדין סטיבן שוורץ לעולם לא ישכח את היום שבו הגיש לבית משפט פדרלי בניו יורק רשימה של פסקי דין קודמים שתתמוך בתביעה שהגיש. שוורץ, עורך דין ותיק עם 30 שנות ניסיון, נעזר ב־ChatGPT, הצ'אטבוט של חברת OpenAI שרק חודשים ספורים קודם לכן יצא לשוק. הבעיה: הצ'אטבוט סיפק לו רשימה מומצאת של פסקי דין. השופט זעם, שוורץ נקנס ב־5,000 דולר והמקרה העגום סוקר על ידי כלי תקשורת ברחבי העולם.
לא מדובר במקרה נדיר; צ'אטבוטים מסוגו של ChatGPT משקרים לנו כל הזמן. "הזיות" (hallucinations), קוראים לתופעה בז'רגון המקצועי, דברים שלא באמת קרו. גם אנחנו נתקלנו בתופעה: בארד, הצ'אטבוט של גוגל, טען בפנינו בטעות שיהונתן גפן ז"ל כתב את התסריט לסרט "הבית ברחוב גריבלדי". קלוד, הצ'אטבוט של חברת אנתרופיק, סיפר לנו שפאדי קוסגרייב — מנכ"ל כנס הטכנולוגיה WebSummit שהתבטא נגד ישראל — הוא בכלל שחקן כדורגל ישראלי ש"עורר ביקורת וכעס בקרב חלקים בציבור".
1 צפייה בגלריה
yk13744888
yk13744888
(ביקשנו מתוכנת DALL-E3 תמונה בנושא השקרים וההזיות של הבינה המלאכותית: זאת התוצאה)
בשביל להבין מדוע צ'אטבוטים שוגים בהזיות, צריך קודם כל להבין איך הם בנויים: מודלי שפה גדולים (LLMs, ראשי תיבות של Large Language Models), הטכנולוגיה שעליה מבוססים הצ'אטבוטים המודרניים, מתאמנים על כמות עצומה של טקסטים מהאינטרנט על מנת ליצור טקסטים משכנעים בעצמם. ד"ר עידו ליברטי, מנכ"ל חברת פיינקון (Pinecone) שמפתחת טכנולוגיה לצמצום הזיות של בינה מלאכותית, מסביר שהמודלים האלה הם לא מנועי ידע. הם לא מסוגלים להעריך את הנכונות של אמירה כלשהי, וזאת גם לא המטרה שלהם. "זה כמו בן אדם מאוד חכם שבמקום ללמוד רפואה יצטרף בכל יום במשך עשר שנים לסבב רופאים בבית חולים. אחרי עשר שנים הוא יידע לדבר כמו רופא וב־90% מהמקרים הוא יגיד דברים נכונים, אבל הוא עדיין לא יבין כלום ברפואה. המודלים האלה היו ב'סבב רופאים' — הקשיבו לכל האינטרנט אלף פעם. האם הם באמת יודעים משהו? לרוב לא".
מכיוון שרוב המידע שהמודלים התאמנו עליו הוא באנגלית, בעיית ההזיות מתגברת כאשר מתכתבים עם צ'אטבוטים בשפות אחרות, למשל עברית. "המודלים ראו הרבה פחות דאטה בעברית, והם הרבה פחות שולטים בשפה הזאת, אז הם יכולים לעשות טעויות בעברית וגם לכתוב בצורה קלוקלת", מסביר ד"ר יונתן גייפמן, מנכ"ל חברת Deci שמפתחת ומשפרת מודלים של בינה מלאכותית.
ההזיות קורות לא פעם כשמודל השפה לא מצליח למצוא מידע, ובמקום זה הוא "מאלתר" או "מנחש". התופעה לא אמורה להפריע לכם אם אתם מבקשים מ־ChatGPT ודומיו לכתוב לכם שיר, ברכה או תסריט לסדרת טלוויזיה. אבל אם אתם נעזרים בצ'אטבוטים לצורכי עבודה, לכתיבה אקדמית או ליצירת תוכנית אימונים או תזונה, יכולות להיות לה השלכות משמעותיות. בעיה נוספת היא שתכנים שנוצרו על ידי מודלי שפה כבר מתפשטים ברחבי האינטרנט ללא גילוי נאות, ולעתים קרובות הם נגועים במידע כוזב.
"בעיית ההזיות חמורה מאוד מכיוון שבהקשרים רבים הן יכולות להוביל לנזק רב", אומרת ד"ר רוית דותן, חוקרת ויועצת של אתיקת בינה מלאכותית, "לפני כמה חודשים פורסמו באמזון מספר ספרים בנושא ליקוט פטריות, שככל הנראה נכתבו על ידי בינה מלאכותית יוצרת. הזיות בספרים כאלה יכולות להוביל למוות".
דותן, אגב, מתנגדת לשימוש במונח הזיות. "השם עלול להטעות אנשים לחשוב שבינה מלאכותית היא יצור דמוי אנושי בעל תודעה, משהו שיכול להזות, ושנית, השם עשוי להסיר אחריות מהחברות שמאחורי הטכנולוגיה. הן אלו שלמעשה אחראיות למידע השקרי". היא מעדיפה מונחים כמו טעויות, מידע כוזב, מיסאינפורמציה ודיסאינפורמציה.
תקראו לזה איך שתרצו, מדובר בתופעה מדאיגה שמהווה מכשול לאימוץ נרחב יותר של בינה מלאכותית יוצרת. אבל האם מדובר בבעיה פתירה? מנכ"ל OpenAI, סם אלטמן, אמר בשנה שעברה כי הוא מאמין שאף אחד לא ידבר על הזיות בבינה מלאכותית תוך שנה וחצי־שנתיים, אבל לא כולם מסכימים איתו. "בעיית ה'הזיות' טמועה עמוק בבינה מלאכותית יוצרת, ויש מומחים שטוענים שלא ניתן לפתור אותה", אומרת דותן. גייפמן נשמע יותר אופטימי: "אני בטוח שמיטב המוחות עובדים על הבעיה הזאת, ושזה אחד הדברים שב־OpenAI עובדים עליהם הכי הרבה".
עד שיימצא פתרון, אחת השיטות שמשתמשים בהן כדי לצמצם את שיעור ההזיות נקראת Retrieval Augmented Generation, או בקיצור RAG. מדובר בחיבור של מודל השפה למאגר מידע שממנו הוא יכול לשלוף את המידע הרלוונטי, במקום להסתמך על הנתונים שעליהם התאמן, שלא בהכרח כוללים את המידע הנדרש.
פיינקון של עידו ליברטי היא החלוצה של תחום חדש יחסית — מסדי נתונים וקטוריים (Vector Data Bases), שאותם ניתן להצמיד למודלים של שפה באמצעות טכניקת RAG. במסדי הנתונים האלה ניתן לאחסן טקסטים, תמונות, סרטונים ועוד, כאשר כל פריט מידע מקבל ייצוג מתמטי (וקטור) בהתאם למאפיינים שלו. כאשר שאילתה נשלחת ממודל השפה אל מסד הנתונים, כלומר כאשר המודל "מחפש תשובה" כלשהי במסד הנתונים, נוצר עבור השאילתה ייצוג מתמטי משלה, ומסד הנתונים מחפש ייצוגים דומים, כלומר מידע שדומה או קשור אליה, על מנת למצוא את התשובה הנכונה. אפשר להסתכל על מסדי הנתונים האלה כעל זיכרון לטווח ארוך, או בסיס הידע, של המודלים. "אנחנו יודעים בוודאות שזה מצמצם מאוד את שיעור ההזיות", אומר ליברטי.
גישה אחרת היא לקחת מודל שפה קיים, ולאמן אותו באופן ספציפי על המידע הפנימי של הארגון. התהליך הזה נקרא "כוונון עדין" (Fine Tuning), אך הוא נחשב פחות יעיל לצמצום תופעת ההזיות, וטומן בחובו סיכונים בתחום הפרטיות: אם בטעות השתרבב למערך הנתונים מידע פרטי של עובד או לקוח, מחיקה שלו מהמודל היא משימה בלתי אפשרית.
אפשר בעזרת RAG ומסד נתונים וקטורי לצמצם גם את ההזיות של צ'אטבוטים צרכניים כמו ChatGPT, בארד וכו'?
ליברטי: "כן. באיזשהו מובן זה מאוד פשוט — אם אני רוצה שהמודלים שלי יגידו דברים נכונים עובדתית, הם צריכים מידע. זה מאוד טבעי שתיתן להם את המידע הזה באיזושהי צורה נגישה, בזמן אמת, באמצעות מסד נתונים. למה שמודל שפה יוכל לענות על משהו בצורה נכונה בלי שיהיה לו את המידע הרלוונטי? זה הזוי שבכלל חשבנו על זה".