Apple יסרוק iCloud בחיפוש אחר תמונות המכילות אלימות כלפי ילדים.

תמונה של המחבר
stealth

אנו יודעים כי Apple אכפת לך מאוד מהסודיות של הנתונים העוברים במכשירים במערכת האקולוגית וכי הם מוגנים היטב מפני עיניים סקרניות. עם זאת, אין זה אומר שמשתמשים לא צריכים לציית לכללים הקשורים לאתיקה, מוסר, ולמה לא, אנושיות.

Apple הודיעה כי בקרוב תשיק טכנולוגיה המסוגלת לסרוק את כל התמונות המאוחסנות על ידי משתמשים iCloud ולזהות תמונות המכילות התעללות מינית בילדים. חומר להתעללות מינית בילדים (CSAM).
טכנולוגיה זו תושק על ידי Apple לקראת סוף שנה זו, ככל הנראה בגרסת פיילוט, למספר קטן של משתמשים.

אם אתה תוהה "היכן סודיות הנתונים?", גלה שכל מה שאנחנו מקבלים הוא תוכן וידאו / צילום זה נעשה באמצעות פרוטוקול מוצפן. כמו גם אחסון נתונים ב iCloud הוא מוצפן, אך לספקים של שירותים כאלה יש את המפתח להצפין את הנתונים. כאן אנו אומרים לא רק על Apple. Microsoft, Google ושירותי אחסון נתונים אחרים ב cloud אני עושה את אותו הדבר.

ניתן לפענח ולאמת את הנתונים המאוחסנים אם הם מתבקשים בפעולה משפטית או אם הם מפרים באופן חוקי את החוקים. כגון אלה הנוגעים למעשי אלימות כלפי ילדים ונשים.

כדי לשמור על סודיות המשתמשים, החברה מסתמכת על טכנולוגיה חדשה בשם NeuralHash, שתסרוק ממנה תמונות iCloud ויזהה את אלה המכילים אלימות כלפי ילדים על ידי השוואתם לתמונות אחרות במאגר מידע.
זה דומה במקצת לזיהוי פנים או זיהוי מושכל של חפצים, חיות ואלמנטים אחרים.

הטכנולוגיה תוכל לסרוק ולאמת את התמונות שצולמו או מועברות דרך מכשיר אייפון, אייפד או מק, גם אם הן יעברו שינויים.

אני שמח לחלוק את החוויות שלי בתחום המחשבים, הטלפונים הניידים ומערכות ההפעלה, לפתח פרויקטים באינטרנט ולהביא את ההדרכות והעצות השימושיות ביותר. אני אוהב "לשחק" באייפון, MacBook Pro, iPad, AirPort Extreme ובמערכות הפעלה macOS, iOS, Android ו- Windows.

השאירו תגובה