הבינה המלאכותית נמצאת בחיינו כבר זמן רב והיא משולבת בלא מעט מתחומי החיים שלנו. אבל אם עד שנת 2021 נושא ה-AI היה נחלתם של קומץ חברות טכנולוגיה ומפתחים מוכשרים אשר שילבו את הבינה המלאכותית במשימות ייעודיות, היום מדובר בתחום פופולרי ומדובר מאוד.
1 צפייה בגלריה
Bard ו-ChatGPT
Bard ו-ChatGPT
Bard ו-ChatGPT
(צילום: JRdes / Shutterstock)

עוד כתבות שיעניינו אתכם:

ב-2021 שחררה חברת OpenAI את הכלי DALL-E אשר מפענח טקסט לבקשת המשתמש ומייצר ממנו תמונה. החברה הפכה לשם בולט וחם בתחום הבינה המלאכותית והצ'אטבוט ChatGPT שאותו השיקה בסוף 2022 הפך אותה למפורסמת מאוד בתחום ואף סייע למתג אותה כאיום מספר אחת על מנוע החיפוש של גוגל. בינואר חצה מספר המשתמשים ב-ChatGPT את רף המאה מיליון וקצב הגדילה של המשתמשים בכלי השאיר מאחור את גוגל ופייסבוק. בשבוע שעבר חשפה גוגל שורה של מוצרים מבוססי בינה מלאכותית, לרבות פתיחת הצ'אטבוט שלה, בארד, שצפוי להתחרות ב-ChatGPT, לקהל הרחב.
אושר עשוראושר עשורצילום: יניב כהן
חשיפת מנועי הבינה המלאכותית לציבור הרחב מאפשרת למערכת ללמוד ממספר רב של משתמשים ולשכלל מיום ליום ומשימוש לשימוש את יכולותיה. בזמן שעבר בין השקת ChatGPT ועד לרגע כתיבת שורות אלו, השתמשו בכלי מיליוני אנשים במגוון רחב של תחומים: חיפושים רגילים, כתיבת קוד, ניתוח נתונים ועוד מגוון רב של שימושים. בין המתנסים במערכת היו חוקרים באוניברסיטאות שבחנו את יכולות הכלי לעבור מבחנים במדעים מדויקים, כותבים שהשתמשו בה על מנת לייצר תכנים והיה אפילו ניסיון לכתוב בעזרתה פרק שלם של סאות'פארק.
עם התקדמות הטכנולוגיה המדהימה של הבינה המלאכותית החלו לעלות שאלות רבות. רבים מודאגים כי בינה מלאכותית יכולה להשתלט על המשרה שלהם, ואילו אחרים שואלים מהם הקווים האדומים של הטכנולוגיה והאם בכלל קיימים כאלה. באיחוד האירופי קמו מספר סנוניות ראשונות עם תהיות על גבולות אדומים הנוגעים לפרטיות ושימוש של קטינים, האם המידע הרב שזורם דרך המערכת לחברת OpenAI אכן מוגן, והאם החברה עומדת בהגבלות הגנת הפרטיות.
דווקא אצלנו, בסטארט-אפ ניישן, לא נשמעו קולות רבים שמבינים או רואים את הבעייתיות בשימוש במערכת כמו ChatGPT והעברת מידע רגיש - רפואי, אישי או אפילו צבאי ומדיני - לחברת OpenAI. זאת, למרות שבחצי השנה האחרונה תועדו מקרים של שימוש במידע אישי רגיש ואף רפואי במערכת ChatGPT.

מי המבוגר האחראי?

מעבר לכך, בכל מדינת ישראל לא קם המבוגר האחראי שאמור לתת מענה לאחד הנושאים המטרידים ביותר את האנושות בימים אלה. השאלה המעניינת היא מי במדינת ישראל אמור להיות הגורם האחראי שמנטר את הסיכונים שמעלה הבינה המלאכותית ואמור לטפל בהם, לתת פתרון ובעיקר להרגיע את האזרחים והעובדים עקב השינויים הדרמטיים שמביאה עמה הבינה המלאכותית. לא ברור אם הסמכות לכך נמצאת במערך הסייבר הלאומי ובמשרד ראש הממשלה, במשרד החדשנות, הטכנולוגיה והמדע, או אולי דווקא במשרד הביטחון או במשרד ממשלתי אחר.
באיטליה, רשות ההגנה על המידע (Garante), חסמה לאחרונה את השימוש ב-ChatGPT והתירה אותו מחדש לאחר שדרישותיה נענו. חקירת הרגולטור באיטליה החלה לאחר שפרצת אבטחה הובילה לכך שאנשים ראו קטעים משיחות ChatGPT של משתמשים אחרים ונחשפו גם למידע הפיננסי שלהם. גם בגרמניה הגוף המוסמך בנושא, הממונה על הגנת הנתונים, נתן את דעתו על הסיכונים הגלומים בשירות ואילו בשבדיה רגולטור הפרטיות הודיע שאין לו תכניות לאסור את פעילות ChatGPT. הממונה על הגנת המידע באירלנד בוחן את הנושא ועוקב אחר פעילות הרגולטור האיטלקי וכך מסרו גם גורמים רשמיים בצרפת.
לעומת זאת, בסין, הונג קונג, איראן, רוסיה וחלקים מאפריקה אין גישה לצ'אטבוט, והתושבים במדינות אלו לא יכולים לפתוח חשבונות של OpenAI. נדמה כי רק בישראל אין דעה רשמית בנושא ואפילו לא ידוע על גורם רשמי העוסק בו.
ההתקדמות המסחררת של הטכנולוגיה משאירה אבק לתהליכים הרגולטוריים והבירוקרטיים שלא עומדים בקצב. טכנולוגיה משנת חיים כמו בינה מלאכותית על כל סוגיה צריכה להיות מטופלת בהקדם האפשרי על מנת להציב קווים אדומים וגבולות לפני שיהיה מאוחר מדי.
אושר עשור הוא מנהל הסייבר בפירמת הייעוץ Auren ישראל ויועץ סייבר למשרד הביטחון