רשות ההגנה על המידע באיטליה הורתה אתמול (יום ו') על חסימה זמנית של הגישה לצ'אטבוט ChatGPT במדינה ופתחה בחקירה נגד חברת OpenAI שעומדת מאחוריו. ברשות הסבירו כי OpenAI אוספת מידע על משתמשים באופן שלפי החשד לא עולה בקנה אחד עם חוקי האיחוד האירופי וכי החברה לא נקטה בצעדים כדי למנוע מילדים להשתמש בצ'אטבוט ולהיחשף לתכנים לא ראויים.
עוד כתבות שיעניינו אתכם:
ברשות הזכירו גם תקלה שהתרחשה בשירות ב-20 במרץ וגרמה לחשיפת פרטים אישיים של חלק מהמשתמשים. הרשות הורתה ל-OpenAI להודיע לה תוך 20 יום על הצעדים שבהם נקטה על מנת להבטיח את הפרטיות של המשתמשים, או שתקבל קנס בגובה 20 מיליון אירו או 4% מההכנסות הגלובליות השנתיות שלה.
למה זה חשוב?
איטליה היא המדינה הדמוקרטית הראשונה שחוסמת את הגישה ל-ChatGPT, שהפך בחודשים האחרונים לאחד הכלים הפופולריים ברשת. מדינות נוספות עשויות ללכת בעקבותיה בזמן שהן בוחנות אם וכיצד ניתן להגביר את הפיקוח על כלים מבוססי בינה מלאכותית שהופכים בחודשים האחרונים ליותר נפוצים ומשוכללים.
מה הם אומרים?
מ-OpenAI נמסר בתגובה כי החברה פועלת "על מנת לצמצם את כמות המידע האישי בתהליך האימון של מערכות AI כמו ChatGPT בגלל שאנחנו רוצים שהבינה המלאכותית שלנו תלמד על העולם, לא על אנשים פרטיים. אנחנו גם מאמינים שיש צורך ברגולציה על בינה מלאכותית, כך שאנחנו מצפים לעבוד באופן צמוד עם הגרנטה (הכינוי של רשות ההגנה על המידע באיטליה - י"מ) ולהסביר להם כיצד אנחנו בונים את המערכות שלנו ומשתמשים בהן".
תקציר הפרקים הקודמים
ChatGPT, שהושק בסוף נובמבר 2022, הוא צ'אטבוט מבוסס בינה מלאכותית שהתאמן על כמויות עצומות של טקסטים. הוא מסוגל לענות על שאלות, לנסח מכתבים, לכתוב קוד, לפתור בעיות מתמטיות ועוד. ההשקה שלו נחשבת לנקודת מפנה שהובילה למרוץ חימוש בקרב חברות הטכנולוגיה בניסיון למסחר את הטכנולוגיה שעליה הוא מבוסס - מודלי שפה גדולים (LLMs). בפברואר הטמיעה מיקרוסופט צ'אטבוט דמוי ChatGPT במנוע החיפוש שלה בינג, ובחודש שעבר פתחה גוגל בפני משתמשים בארה"ב ובבריטניה את האפשרות להירשם לצ'אטבוט שלה, Bard.
התמונה הגדולה
ההחלטה של רשות ההגנה על המידע באיטליה מגיעה בשעה שברחבי העולם גוברות הדאגות סביב הפיתוח המואץ של כלים מבוססי בינה מלאכותית. שורה של חוקרים בולטים בתחום מדעי המחשב, לצד אילון מאסק, חתמו השבוע על מכתב שקורא לחברות הטכנולוגיה לעצור לחצי שנה לפחות את העבודה על פיתוחים מתקדמים יותר מ-GPT-4, מודל השפה החדש של OpenAI, ובמקביל לפתח פרוטוקולי בטיחות על מנת לוודא שהטכנולוגיה לא תגרום נזק לאנושות.