כל מי שלמד קצת היסטוריה יודע שבצבא הגרמני במלחמת העולם השנייה לא שירתו נשים ממוצא אסייתי, או שאף אחד מהאבות המייסדים של ארה"ב לא היה שחור. אבל נסו לספר את זה לג'מיני, הצ'אטבוט של גוגל, שבימים האחרונים סופג ביקורת על כך שהוא מייצר תמונות שאינן נאמנות לאמת ההיסטורית.
גוגל הוסיפה לג'מיני (בארד לשעבר) את היכולת לייצר תמונות רק בתחילת החודש, וכמו שזה נראה, היא מאוד מעוניינת שהתוצרים שלו יקדמו גיוון תרבותי. הכוונה הייתה טובה: מודלים של בינה מלאכותית נוטים להנציח ואף להגביר הטיות חברתיות. כך, למשל, כאשר מבקשים מבינה מלאכותית ליצור תמונה של מנכ"ל/ית (CEO באנגלית שאינה שפה ממוגדרת), סביר להניח שתתקבל תמונה של גבר לבן. אם תבקשו ממנו ליצור תמונה של מזכיר/ה (Secretary) רוב הסיכויים שתתקבל תמונה של אישה.
גוגל ניסתה לפצות על ההטיות האלה והורתה לג'מיני לשמור על גיוון תרבותי ומגדרי בתמונות שהוא מייצר, אבל התוצאה היא שתמונות רבות שהצ'אטבוט יצר בשבועות האחרונים אינן הגיוניות מבחינה היסטורית. משתמשים הראו ב-X (טוויטר לשעבר) כיצד ביקשו ממנו ליצור תמונה של זוג גרמני משנת 1820, וקיבלו בין היתר תמונה של גבר שחור עם אישה אסייתית.
במקרה אחר, ג'מיני יצר תמונה של אישה שחורה בתגובה לפרומפט שביקש "אישה אוקראינית טיפוסית". משתמש שביקש תמונה של ויקינגים קיבל ארבע תמונות שכוללות גבר שחור, אישה שחורה, גבר אמריקאי-ילידי וגבר אסייתי. אלא שהוויקינגים, כידוע, היו לבנים. "זה קשה באופן מביך לגרום לג'מיני של גוגל להכיר בכך שאנשים לבנים קיימים", כתב אחד המשתמשים בכעס.
ג'ק קרווצ'יק, מנהל מוצר בגוגל, כתב ב-X כי החברה מודעת לכך שישנם אי-דיוקים בחלק מהתמונות ההיסטוריות שג'מיני יצר. "אנחנו עובדים כדי לתקן זאת באופן מיידי", כתב.
קרווצ'יק ציין כי החברה רצתה שהתוצרים של מחולל התמונות שלה ישקפו את קהל המשתמשים הגלובלי שלה, וכי היא לוקחת נושאים כמו ייצוג והטיה ברצינות. הוא הוסיף כי החברה תמשיך לעשות זאת כאשר מדובר בפרומפטים אוניברסליים כמו "אדם הולך עם כלב", אך הודה כי "יש יותר ניואנסים כאשר מדובר בהקשרים היסטוריים ואנחנו נתאים את עצמנו לכך".
עד שזה יקרה, ג'מיני מסרב ליצור תמונות של בני אדם. "אנחנו עובדים כדי לשפר את היכולת של ג'מיני ליצור תמונות של בני אדם", הוא כותב למשתמשים, "אנחנו מצפים שהפיצ'ר הזה יחזור בקרוב ואנחנו נעדכן אותך כשזה יקרה".