שתף קטע נבחר
 

אפל מקטלגת הלבשה תחתונה של נשים

זיהוי תוכן תמונה וקטלוג שלה קיים באפל כבר למעלה משנה, אבל משום מה מישהו באפל החליט לקטלג הלבשה תחתונה. רק של נשים אגב

אין יום שנפלאות הטכנולוגיה לא טופחות על פנינו ואנחנו מגלים דברים חדשים שהמחשבים והסמארטפונים שלנו יכולים לעשות. חלק מהטכנולוגיות הללו עובדות ברקע ולא תמיד אנחנו מודעים לקיומן או מבינים בכלל מה הן עושות. מנגנון זיהוי תוכן התמונה וקטלוג שלה קיים כבר למעלה משנה בחברת אפל ואפילו יותר בגוגל, ולמי שלא מכיר, כל תמונה שאתם מצלמים, מורידים מהרשת או אפילו מקבלים אחת מתוכנות המסרים עוברת תהליך זיהוי וקטלוג וכך גם תוכלו למצוא אותן לאחר מכן.

 

סגורסגור

שליחה לחבר

 הקלידו את הקוד המוצג
תמונה חדשה

שלח
הסרטון נשלח לחברך

סגורסגור

הטמעת הסרטון באתר שלך

 קוד להטמעה:

 

אפל הכניסה כ-4500 מילים אל מערכת הזיהוי הזו אבל גולשת חביבה בשם אל (לא רפאלי) שמה לב שיש שם גם כמה מונחים שמעוררים סימני שאלה, בעיקר בתחום ההלבשה התחתונה. ולא סתם הלבשה תחתונה, אלא רק של נשים. חיפוש אחר הערך Brassiere או Bra ואפילו מונחים רומנטיים יותר כמו Corest (מחוך) ו-Girdle (חגורת בטן), מופיעים שם. מה שכן, הערכים המקבילים אצל גברים כמו תחתוני גברים ותחתוני בוקסר, לא מופיעים שם.

 

הציוץ המבוהל של אל (צילום מסך)
הציוץ המבוהל של אל(צילום מסך)

 

מה שזה אומר, הלכה למעשה זה שמישהו מחברת אפל קיטלג ביודעין את המונחים האלו ולא ממש ברורה הסיבה מדוע. זה בעייתי גם ברמה המוסרית וגם ברמת אבטחת המידע, למרות שמבקרה של אפל, התמונות נשמרות רק על המכשיר ומנגנון הזיהוי לא מבצע העתקה שלהן לענן כלשהו. במקרה של גוגל, אמנם המילים הללו לא מקוטלגות אבל שם זה בעייתי מכיוון שהתמונות נשמרות בענן על מנת שהזיהוי יעבוד כמו שצריך. חברת אפל עדיין לא הגיבה על הנושא.

 

 תגובה חדשה
הצג:
אזהרה:
פעולה זו תמחק את התגובה שהתחלת להקליד
צילום: shutterstock
אפל מציצה לנו?
צילום: shutterstock
מומלצים