שתף קטע נבחר

 

מתי לא יצטרכו אותנו?

למה לא הושגה עד עכשיו התקדמות גדולה בתחום הבינה המלאכותית, ומתי זה כן יקרה?

חוקרי הבינה המלאכותית בכל העולם שואפים לפתח תוכנת מחשב בעלת אינטליגנציה אנושית, אך במשך 50 שנות מחקר הושגה התקדמות מעטה בתחום והחוקרים גילו כמה קשה לתכנת מחשב להתנהג, לחשוב ולדבר כמו בני אדם.
תוכנות הבינה המלאכותית שקיימות כיום אינן תבוניות במיוחד. הן משתמשות בשיטות בסיסיות למדי כדי לשכנע אנשים שהם משוחחים עם בני אדם ולא עם תוכנה.
באופן בסיסי, תוכנות אלה תוכנתו לזהות את אחת המלים בשאלה ומשתמשות בחישובים סטטיסטיים, במאגר מלים ומשפטים ובזיהוי דקדוק כדי לענות תשובה אינטליגנטית לכאורה (לרוב בשאלה נוספת), שמבוססת על מלת המפתח על פי הקשר השאלה.
תוכנות אלה מצליחות להוליך שולל חלק מהאנשים חלק מהזמן, אך מתקשות להגיב למשפטים קצרים, מחוסרי הקשר ודלים ברמזים על כוונת המחבר.

החדר הסיני

אך האם חיקוי של אינטליגנציה אנושית מעיד בהכרח על אינטליגנציה? הפילוסוף האמריקני ג'ון סרל טען שלמחשבים חסרה יכולת הרצון האנושי. לדבריו, מחשבים חסרים את הנפש האנושית ולא יוכלו להשיגה, גם עם תוספת של טריליארד פטאבייטים (אלף טראבייט).
סרל הגה את משל החדר הסיני, על פיו יושב אדם בחדר שבו ספרים בסינית, מחברות עם דפים לבנים וכלי כתיבה. הקשר היחיד של אותו אדם עם העולם החיצון הוא דרך שני חרכים בקיר, אשנב של "קלט" ואשנב של "פלט".
מדי פעם, פיסות נייר עם שאלות בסינית על סיפור מסוים מוכנסות לחדר באשנב הקלט. המשימה של האדם היא לאתר באחד הספרים פיסקה הזהה לשאלה המופיעה על הדף ולהעתיק על דף מחברת את התשובה המתאימה לשאלה, שכתובה אף היא בסינית. לאחר מכן, האדם פשוט דוחף את הדף באשנב הפלט.
הנוכחים מחוץ לחדר כה מתרשמים מאיכות התשובות עד כי הם סבורים שהמשיב הוא אדם משכיל, יליד סין. אך הוא אינו מבין סינית כלל.

תאי העצב במוח מבינים משהו?

סרל טען כי משל החדר הסיני מוכיח שבין תוכנות של בינה מלאכותית לבין תבונה אין דבר וחצי דבר, גם אם מדובר בתוכנות מתוחכמות ביותר, אך לא כולם מסכימים.
חלק מהחולקים עליו טוענים כי תוספת של חיישנים וגוף רובוטי לתוכנות הבינה המלאכותית תעניק להן תבונה ורצון. גישה זו שואבת ממורשתו של אלאן טיורינג, אבי תחום הבינה המלאכותית, שדימיין מכונה הלומדת מאינטראקציה עם העולם הסובב.
"האדם, במידה שהוא מכונה, כפוף לכל מיני התערבויות... הוא מקבל כל הזמן גירויים חזותיים וגירויים אחרים...", כתב טיורינג ב-1950.
סביר להניח שטיורינג היה טוען שגם תאי העצב במוח אינם מבינים דבר, אבל המערכת בשלמותה איכשהו כן מבינה. לכן, השיפוט התבוני צומח מתוך חישובים חסרי מודעות.
על פי הטיעון הזה, האדם בחדר הסיני הוא חלק ממערכת גדולה יותר, ואותה מערכת כן מבינה סינית. לא מן הנמנע שגזע המחשבים האינטליגנטי, שצופים כי יצמח בעתיד, יגלה תבונה קולקטיבית, על אנושית.
אך האם האינטליגנציה הממוחשבת אמורה לצוץ פתאום במהלך הפיתוח של התוכנה?
במאמרו משנת 1950, "מכונות חישוביות ובינה", כותב טיורינג: "במקום לנסות ליצור תוכנית הדמיה של מחשבת האדם הבוגר, האם לא עדיף לנסות ליצור תוכנית הדמיה של מחשבת הילד?".
טיורינג כתב כי הדרך הטובה ביותר לפתח תוכנת מחשב בעלת בינה אנושית, היא ממש כמו שמגדלים אדם: לפתח תחילה תינוק ממוחשב - ולגדל אותו בהדרגה להיות תוכנה בוגרת. טיורינג האמין שהתוכנה תצבור אינטליגנציה תוך כדי האינטראקציה עם סביבתה. כך עושה חברת הבינה המלאכותית Ai עם התינוק הממוחשב שלה, "האל".

"אנחנו לא רואים רובוטים תבונתיים מסתובבים ברחובות"

פרופ' שמואל ליימן-וילציג, ראש מסלול תקשורת במחלקה למדעי המדינה באוניברסיטת בר אילן מצנן את ההתלהבות סביב האל ו-Ai.
"אין חדש במחקר של Ai", הוא אומר, "כבר לפני 15 שנים החלו מדענים ללמד תוכנות מחשב לדבר בלשון בני האדם, על פי שיטה שקרויה Bottom-up. דני היליס, מי שהמציא את המחשב המקבילי (שמבצע כמה פעולות חישוב משלימות במקביל ג.מ), יזם בשנות ה-80 פרויקט של גידול 'תינוק ממוחשב' בעל יכולת לימוד.
"תוך זמן קצר הצליחו החוקרים לגדל את התינוק לגיל של שנתיים. למרות זאת, אנחנו לא רואים היום רובוטים תבוניים מסתובבים ברחובות. הגישה של בניית אלגוריתמים בעלי יכולת לימוד בעצם 'אשמה' בכך שתחום הבינה המלאכותית לא התקדם במשך 30-40 שנים.
"עד שלא נלמד את המחשב מהם הצרכים האמיתיים של האדם, לא נצליח לעבור את מבחן טיורינג".
פרופ' ליימן-וילציג סבור שהגישה הנכונה יותר בתחום הבינה המלאכותית היא Up-Bottom. על פי גישה זו, יש להלעיט את תוכנות הבינה המלאכותית בכמה שיותר מידע על המהות האנושית, בהנחה שמצבור עצום של ידע אנושי ואלגוריתמים חכמים יוביל לבסוף לאינטליגנציה אנושית.

כל מה שבני האדם יודעים

הפרויקט החשוב ביותר על פי גישה זו הוא בסיס הידע של CYC, שמטרתו היא לכלול חלק גדול מהידע האנושי על העולם. למשל, "המוח" של CYC יודע שעצים בדרך כלל נמצאים מחוץ לבתים, שכל בני האדם מתים יום אחד ואז הם גם חדלים לקנות דברים, וכשהולכים בלי מטריה בגשם, סביר להניח שהבגדים ירטבו.
לאחר 17 שנות פעולה, בסיס הנתונים של CYC כולל 1.5 מיליון הנחות יסוד - התקדמות מרשימה על פי המקובל בתחום, אך עדיין מדובר בקצב פיתוח איטי.
החוקרים שמנהלים את פרויקט CYC מאמינים כי כאשר יצליחו להלעיט את בסיס הנתונים ב-100 מיליון עובדות על החיים יהיה ברשותם "מוח" רב עוצמה, שיסייע לתוכנות הבינה המלאכותית "להבין".

- האם אינטליגנציה אנושית היא תוצר של צבירה כמותית של ידע? הרי גם מחשב-על, בעל ידע רב אינו יודע שהוא "יודע".

פרופ' ליימן-וילציג: "זו שאלה פילוסופית מורכבת בת 20-30 שנה. לי נדמה שבסופו של דבר כמות של ידע מביאה לאיכות. למשל, דוגמה מעולם החי. נמלה זו אחת מבעלי החיים הטפשים ביותר אך 10,000 נמלים יחד מהוות אינטליגנציה חברתית מתקדמת. כפי שאנחנו מבינים כיום כך התפתחה האינטליגנציה האנושית, כאשר מוח האדם פיתח בהדרגה כישורים חדשים".

למרות הדברים שאמר נגד Ai, פרופ' ליימן-וילציג סבור ששילוב הגישות, של Ai ושל CYC, כלומר הזנת עובדות חיים אל "מוח ממוחשב" ובמקביל לימוד עצמי של אותו מוח, יוביל לתוכנות בינה מלאכותית מוצלחות יותר.
בעקבות הגדלת השקעות של חברות עסקיות בתחום הבינה המלאכותית בשנים האחרונות, פרופ' ליימן-וילציג חוזה כי בשנים הקרובות צפויה התקדמות רבה בתחום, אך מדגיש כי רצוי להימנע מאופטימיות יתרה, לנוכח אכזבות העבר.

- מהן ההשלכות העתידיות של ההתקדמות בתחום הבינה המלאכותית?

"בעוד שמונה עד 10 שנים נוכלן להיפרד לשלום מהמקלדות ובטווח של 20-30 שנים ההשלכות הן מהפכניות יותר.
"כבר כיום אנחנו רואים סימנים ראשונים לתוכנות מחשב יצירתיות, שיודעות לצייר ולכתוב שירה, ברמה כזו שמבקרים ספרות מתקשים להבחין בינן לבין יצירה של אדם. אם נחבר תוכנה מתקדמת מספיק לגוף רובוטי דמוי אדם, בטווח הרחוק המחשבים עוד עלולים להגיע למצב שגם רובוטים ידרשו הגדרה עצמית.
"בגלל ההתקדמות בתחום המחשבים, כבר כיום נפלטים ממעגל העבודה עובדי צווארון ורוד (מזכירים ופקידים). בעתיד השאלה תהיה אם יהיה צורך בכלל בעובדים תבוניים".

לפנייה לכתב/ת
 תגובה חדשה
הצג:
אזהרה:
פעולה זו תמחק את התגובה שהתחלת להקליד
אלאן טיורינג, אבי תחום הבינה המלאכותית
מומלצים