גוגל הפצירה בעובדיה לא לחשוף מידע חשאי כאשר הם מתכתבים עם צ'אטבוטים כמו בארד, שהיא עצמה פיתחה, ו-ChatGPT - כך דיווחה היום (ה') סוכנות הידיעות רויטרס. בנוסף, הורתה החברה לעובדים לא להשתמש בשורות קוד שנוצרו על-ידי צ'אטבוטים.
1 צפייה בגלריה
Bard
Bard
Bard, הצ'אטבוט של גוגל
(צילום: ssi77 / Shutterstock.com)

עוד כתבות שיעניינו אתכם:

גוגל מצטרפת לשורה של חברות טכנולוגיה, בהן סמסונג, אמזון ולפי דיווחים גם אפל, שהורו לעובדיהן לא לחשוף סודות מסחריים בהתכתבויות עם הצ'אטבוטים שהפכו בחודשים האחרונים לכלים פופולריים במיוחד. לפי סקר שערך אתר Fishbowl בינואר בקרב 12 אלף עובדים בארה"ב, 43% מהם משתמשים ב-ChatGPT ובכלי בינה מלאכותית אחרים - לעתים ללא ידיעת המנהלים שלהם.
ישנן שתי סיבות עיקריות לחשש של החברות: ראשית, חלק מהשיחות עם צ'אטבוטים כמו ChatGPT ובארד נבדקות על ידי בוחנים אנושיים ויש חשש שהם ייחשפו למידע חשאי. שנית, השיחות של הצ'אטבוטים משמשות להמשך האימון שלהם, מה שמעלה את החשש שבארד או ChatGPT יפלטו סודות מסחריים בשיחות עם משתמשים אחרים. כך לדוגמה, עובד בגוגל עשוי להתייעץ עם בארד על טקסט שיווקי למוצר שעוד לא הושק, והצ'אטבוט "ידליף" את תוכן השיחה למשתמשים אחרים.
גוגל ומיקרוסופט, שאימצה את הטכנולוגיה של OpenAI, הציגו מוקדם יותר השנה כלי בינה מלאכותית יוצרת (גנרטיבית) שמיועדים לעסקים ושומרים על הדאטה שלהם מופרד מזה של חברות אחרות. גם קלאודפלייר, שמגנה על אתרים מפני מתקפות סייבר, הציגה כלי שמאפשר ללקוחותיה לתייג מידע על מנת למנוע זליגה שלו מהמערכות הפנימיות שלהם. אבל הכלים האלה עדיין לא מונעים מעובדים להשתמש באופן פרטי בצ'אטבוטים חינמיים שפתוחים לציבור הרחב ולחשוף בפניהם מידע שהיה עדיף שישמרו לעצמם.