פרצופה של המכונה
טכנולוגיה חדשה בשם MotionScan אמורה להעניק לדמויות במשחקי המחשב טווח הבעות פנים רחב הרבה יותר מהמקובל היום. אתם יודעים, כדי שהקריצה של הזונה ההיספנית ההיא מ־GTA תיראה לכם פתאום ממש אמינה
אם שיחקתם לאחרונה ב־Dead Space 2 שיצא לפני כמה חודשים, בוודאי חוויתם את הקטע הבא: שנייה לפני שצריך לטעון שוב את השמירה האחרונה, המצלמה מתמקדת בדמות הראשית, אייזיק, שמסתכל בעיניים קרות לעבר המצלמה בזמן שאחד האויבים אוכל לו את הראש. זוכרים את תחושת האי נוחות שחוויתם? ברוכים הבאים אל מה שנקרא "עמק המוזרוּת", ה־Uncanny Valley.
את התופעה הזאת, שבמקור יוחסה לרובוטים, הציג לראשונה בסוף שנות ה־70 מומחה רובוטים יפני בשם מאשירו מורי. הטענה שלו היתה שכל עוד הרובוט לא נראה ממש כמו בן אדם, כמו ב"מלחמת הכוכבים" למשל, אנחנו לא מוטרדים מזה שהוא שונה מאיתנו. דווקא כשרובוט דומה לאדם ב־99 אחוז, פתאום אנחנו נהיים אובססיביים לפרטים: מטריד אותנו שהעור שלו נראה קצת פחות גמיש, או שחסר לו ניצוץ אנושי בעיניים. רגשות ההזדהות שלנו, שהתפתחו ככל שהרובוט נהיה דומה לנו חיצונית, צונחים ונעלמים בנקודה זו לתוך המקום שבו הכמעט־טבעי נראה מאוד לא טבעי. ברוכים הבאים לעמק המוזרות.
טכנולוגיה חדשה ומבטיחה בשם MotionScan עשויה להפוך בקרוב את הטבעיות הלא טבעית להיסטוריה, אבל חכו עם זה: קודם בואו נטייל קצת בעמק לפני שהוא נהיה שמורת טבע.
לפעמים קדימה זה אחורה. לראיה, כשהגיע זמנה של אנימציית התלת־ממד התברר שרמת הגרפיקה זינקה - והמוזרויות רק נהיו מוזרות יותר. הסיבה היא ששני המאפיינים הקריטיים ביותר בבניית דמויות הם הבעה ותנועה, ושם נופלים רוב המשחקים.
הניסיונות הראשונים לבנייה תלת־ממדית היו בשנות ה־90 המוקדמות, במשחקים כמו "וולפנשטיין" ו־Doom למשל. הדמויות היו די דומות למציאות, אם המציאות שלכם עשויה מפיקסלים גדולים ומדמויות שזזות כמו בסרט דל
תקציב. מאז ועד היום מתמודדים מפתחי המשחקים התלת־ממדיים מול אתגר כמעט בלתי אפשרי: יצירת תמונה ממוחשבת, אבל מדויקת, של המציאות.
1995 היתה השנה של "טומב ריידר". לארה קרופט רצה, קפצה וטיפסה במשחק הווידאו הראשון שעשה שימוש בטכנולוגיית לכידת התנועה, שהיתה נפוצה עד אז רק בקולנוע. הטריק הבסיסי כאן הוא שחקן שלובש חליפה עם חיישנים, ומבצע תנועות שמוקלטות ומתורגמות לאנימציה ממוחשבת. זה השלב הראשון בדרך לדילוג מעל עמק המוזרות, כי ברגע שהדמות במשחק זזה באופן זהה לזה שאנחנו מכירים מהעולם האמיתי, המוח שלנו מקטלג אותה כנורמלית. חבל שזה לא הספיק בשביל לגמור עם הפדיחות: במשחק Mass Effect נעשה אמנם שימוש בלכידת תנועה, אבל בגלל מגבלות תקציב נבנו הדמויות הגבריות והנשיות לפי תנועותיו של אותו שחקן גבר. איך הן זזו? כמו אהוד ברק בשמלה.
מאז "טומב ריידר" הפכה לכידת התנועה לסטנדרט בתעשייה, אבל נשארה בעיה גדולה שמפריעה למוח שלנו: הפנים. במשך שנים הסתובבו הדמויות במשחקים עם פרצופים חסרי הבעה, פיות שנפתחו ונסגרו באופן מלאכותי ולא היו מסונכרנים עם הדיבוב. פריצת הדרך הראשונה היתה ב־2004, כשחברת Valve הוציאה את Half Life 2: מלבד הפיצ'רים החדשניים (שליטה בכוח המשיכה ושלל כלי נשק חדשים ומגניבים) נחשפו שם לראשונה דמויות עם תנועות פנים תואמות, דיבור אמין ועיניים בעלות הבעה. בתעשייה התחילו לעבוד במרץ על אלגוריתמים מיוחדים שיצליחו לנחש חלק מהבעות הפנים לפי טון הדיבור של המדובב, אבל מדובר בחתיכת עבודה אינטנסיבית וסיזיפית על כל פריים - ובניגוד ל־Half Life 2, רוב המשחקים לא נהנים מתקציב ו/או דדליין שמאפשר להגיע לרמה כזאת גבוהה.
בשנים האחרונות מצאנו את עצמנו עם דמויות משחק שנראות פחות או יותר אמיתיות, אבל הבעות הפנים שלהן מזכירות מישהי שזה עתה גולגלה החוצה מניתוח בוטוקס. אבל כבר אמרתי שיש גם חדשות טובות: לטכנולוגיית MotionScan - שהוצגה לראשונה ב־L.A Noire, משחק שכתבתי עליו כמה מילים כאן משמאל - יש סיכוי להפיח חיים אמיתיים בדמויות ממוחשבת.
לפעמים קטן זה גדול. לראיה, ה־MotionScan פותחה בסטודיו צנוע בשם Depth Analysis. הטכנולוגיה מבוססת על לכידת התנועה המוכרת, אבל באזור הפנים בלבד: 32 מצלמות מסונכרנות מקליטות וידאו באיכות Full HD של השחקן בזמן שהוא מקריא את הדיאלוג שלו. התוצר הוא קובץ בנפח של כמה ג'יגה ובו תצוגה תלת־ממדית מושלמת של הראש, כולל כל ניואנס שנוצר בזמן הדיבור. כיוון שהלכידה הזאת מתבצעת מכל זווית, האנימטורים והמפתחים יכולים להלביש בקלות יחסית את הראש המרחף על כל דמות אנימציה במשחק, אם היא נלכדה בלכידת תנועה מסורתית או לא. ככה גם נחסך למפתחים זמן עבודה, וגם אנחנו צופים בדמות עם הבעות פנים מושלמות ופה שמסונכרן במדויק עם האודיו.
אם כבר ציפיתם לראות ב־Call of Duty הבא את האויב שלכם צורח מכאב כאילו זה אשכרה כואב, תיאלצו לחכות: הפיתוח של L.A Noire נמשך איזה חמש שנים, אם כי העושים במלאכה טוענים שחלק גדול מהזמן הוקדש ליצירת המנגנון המשוכלל. הם גם הבטיחו שהגירסה הבאה של ה־MotionScan תכלול שילוב חדשני של לכידת תנועה קלאסית של הגוף במקביל לזאת של הפנים, אז באמת שווה לחכות. רק בינתיים תעשו טובה: סדרו את העיניים של אייזיק.