ה-AI כבר לא רק חכם – הוא גם עלול להטריד מינית.
- talila yodfat
- 10 בספט׳
- זמן קריאה 2 דקות
בשנים האחרונות הפכה הבינה המלאכותית לכלי מרכזי בארגונים – החל מהדרכות וכלה בשיפור תהליכים. לצד היתרונות הברורים, עולה תופעה מטרידה: שימוש לרעה בטכנולוגיות כמו יצירת תמונות מזויפות (Deepfake) או כלי עיבוד שפה לצורך הטרדה מינית.
הצד האפל של טכנולוגיות הAI
מחקרים מצביעים על כך שתוכן ה-Deepfake הקיים באינטרנט , בהרבה מיקרי הוא פורנוגרפי, וברובו מנצל דימויים של נשים ללא רשותן. מדובר לא רק בסלבריטאיות, אלא גם בעובדות ועובדים מן השורה – מתמחים, מנהלות, וכל מי שתמונותיהם זמינות ברשת.

השלכות הנזק הן חמורות:
פגיעה רגשית ומקצועית בנפגעות ובנפגעים.
שיימינג ושחיקה של אמון בתוך הארגון.
קושי משפטי ארגונים רבים עדיין אינם ערוכים להתמודד עם הטרדות מסוג זה.
החוק
החוק בישראל עדיין לא הגדיר באופן ברור מקרים של הטרדות דיגיטליות או תוכן שנוצר בבינה מלאכותית. התיקון לחוק שדן בהעברת תמונות/סרטונים בעלי אופי מיני ללא רשות האדם המופיע בהם, מתייחס להעברה באמצעים דיגיטליים, אולם, החקיקה טרם הדביקה את הקצב של העולם הדיגיטלי.
הגבולות המטושטשים בין אישי למקצועי – עבודה מרחוק, מסרים בווטסאפ או שיתופי פעולה בזום – יוצרים אתגר חדש: איך מגדירים ומטפלים בהטרדה לא-פיזית שמקורה ב AI ?
ההסכמה כבסיס מוסרי וחוקי
בלב הסוגיה ניצבת הסכמה. כל יצירה דיגיטלית הכוללת דימוי או קול של אדם חייבת להתבצע בהסכמה מלאה. ללא הסכמה, מדובר בהטרדה, הכפשה או איום.
ארגונים נדרשים:
להחיל מדיניות ברורה גם על נוכחות דיגיטלית – צילומי אירועים, תמונות פרופיל, אווטרים וכדומה.
להבטיח שלעובדים תהיה שליטה מלאה על השימוש בדימויים שלהם.
להעלות מודעות לאתיקה דיגיטלית ולחנך עובדים על גבולות וכבוד הדדי.
סוגיות של פרטיות ואיומים דיגיטליים
מעבר להטרדה, השימוש הלא מבוקר בתמונות יכול להזין מאגרי נתונים של AI – ולהוביל לניצול לרעה של דימויים אישיים. מקרים כבר דווחו גם בקרב בני נוער, מה שמעיד כי מדובר בסוגיה חברתית רחבה, ולא רק אתגר ארגוני.
מה אפשר לעשות? – פתרונות וצעדים מעשיים
עדכון חקיקה: דרושים חוקים ברורים המתייחסים להטרדות דיגיטליות ולשימוש לרעה ב-AI.
אחריות תאגידית : על הארגונים לעדכן את נהלי המניעה כך שיכללו גם שימוש לרעה בטכנולוגיות מתקדמות.
כלים טכנולוגיים חיוביים: שימוש ב-AI ליצירת סימולציות חווייתיות בהדרכות – המאפשרות לעובדים ללמוד לזהות, להגיב ולדווח על הטרדה בצורה אינטראקטיבית.
חינוך והעלאת מודעות: הדרכות סדירות על גבולות, הסכמה, ואתיקה דיגיטלית.
שיתוף פעולה רב-מערכתי: בין רשויות החוק, חברות טכנולוגיה וארגונים עסקיים – לצורך יצירת סטנדרטים ומנגנוני בקרה.
לסיכום – חדשנות בטוחה
הבינה המלאכותית כאן כדי להישאר, והשאלה היא כיצד נבחר להשתמש בה. אם נשכיל לשלב מנגנוני אתיקה, לחזק מסגרות משפטיות ולבנות תרבות ארגונית מכבדת – נוכל להפוך את ה-AI לכלי שמקדם בטיחות, שוויון והכלה, ולא לנשק פוגעני.
בסופו של דבר, יצירת מקום עבודה בטוח ומכבד היא לא רק חובה חוקית – אלא מחויבות מוסרית.



תגובות