top of page

כשאלגוריתם פוגש כאב אנושי: האם AI יכול להחליף אנשים בטיפול ומניעה של הטרדה והתעמרות בארגון?

מחקר שפורסם  Science Direct  קושר בין היעילות של בינה מלאכותית לבין סביבת העבודה בארגון. מטרת המחקר היא להשוות האם עובדים מרגישים בנוח להתמודד עם מקרה של הטרדה במקום העבודה באמצעות מערכת בינה מלאכותית, או שמא הם מעדיפים לפנות לאנשים.

במילים אחרות- האם הבינה המלאכותית יכולה להחליף בני אדם בעניין זה?


הרקע התיאורטי

החוקרים נשענו על כמה עובדות ממחקרים על התעמרות והטרדות מיניות בארגונים:

  1. רוב הפגיעות לא מדווחות

  2. החשש המרכזי הוא התגובה הארגונית.

  3. יחסי כוח מרתיעים עובדים מפנייה לגורמים פורמליים.

שאלות שעובדים שואלים את עצמם:

  1. האם יאמינו לי?

  2. האם אסתבך?

  3. האם זה זה מספיק חמור?

בנוגע ל AI בדקו איך הוא נתפס באופציה לתקשורת.

המחקרים עד כה העלו שהוא נתפס כפחות שיפוטי, מעורר פחות חרדה חברתית אבל גם מעורר חשד רב, בעיקר שלא ברור מי עומד מאחורי המסך.

המאמר בוחן ארבע שאלות עיקריות:

  1. האם עובדים מוכנים יותר לפנות ל-AI מאשר לאדם בנושאים רגישים?

  2. באילו מצבים AI נתפס כיתרון, ובאילו כחיסרון?

  3. כיצד תפיסת ניטרליות, אנונימיות ושליטה משפיעה על הנכונות לשימוש?

  4. מה הסיכון הארגוני בשימוש ב-AI ללא שינוי תרבותי?

 

ממצאים מרכזיים

·        מוריד חסמים רגשיים ראשוניים

עובדים תפסו פנייה ל-AI כ: פחות מאיימת, פחות מביכה, מאפשרת ניסוח לא מושלם של החוויה, במיוחד במצבים של , חוסר ודאות (אולי אני מגזים? אולי זה לא משהו שצריך לדווח וכדומה), פגיעה גבולית, חשש מיחסי מרות.

 ה AI נתן פתרון ביניים בין שתיקה מוחלטת לדיווח.

·       אבל  AI לא נתפס כתחליף לאדם

עובדים לא רוצים ש-AI יהיה הכתובת הסופית. הסיבות לכך הן: צורך בהכרה אנושית, רצון שמישהו ייקח אחריות, הבנה שטקסט מילולי לא יכול לתת מענה כולל למי שנפגע.

 AI נתפס כטוב להתחלה אך לא לסיום.

 

 ברמת המערכת של הארגון ולא בפן האישי ה  AI יעיל בזיהוי דפוסים חוזרים, ניתוח שפה והתנהגות, איתור מוקדים ארגוניים בעייתיים.

אבל  הוא חלש בהבנת רגשות עמוקים, פירוש דינמיקות כוח, שיפוט של מצבים אפורים.

הסכנה שה AI ישמש עלה תאנה- הארגון יבנה מערכת  AI, יעביר אליה את האחריות הרגשית אבל לא ישנה התנהלות או תרבות ארגונית. במצב כזה התוצאה יכולה להיות, תחושת ניכור, אובדן אמון, העמקת קשר השתיקה.

טכנולוגיה בלי אחריות אנושית  יכולה להחמיר את הפגיעה.

 

סיכום

ה AI יכול להיות:

  • כלי הקשבה ראשוני

  • מנגנון איתות מוקדם

  • מראה למערכת

אבל הוא לא יכול:

  • להחליף מנהלים

  • להכריע באירועים מורכבים

  • לשאת אחריות מוסרית

 

המשמעות הארגונית

בינה מלאכותית יכולה לחזק אחריות ניהולית, לא לעקוף אותה והיא חייבת להיות כלי תומך החלטות, אבל לא כלי שמאפשר חוסר תגובה או פעולה.

והשאלה האמיתית איננה:

איזו מערכת מעולה התקנו, אלא- מי באמת לוקח אחריות כשמישהו נפגע.

קישור למחקר:

 
 
 

תגובות

דירוג של 0 מתוך 5 כוכבים
אין עדיין דירוגים

הוספת דירוג
bottom of page