בשנה וחצי האחרונות ראינו איך עשרות אלפי רחפנים משתלבים בפעילות הכוחות הלוחמים בעזה, בלבנון ולמעשה בכל הגזרות. כך גם במלחמת רוסיה אוקראינה, בה נעשה שימוש כבר במאות אלפי כטב"מים ורחפנים מתאבדים. הגבול שעדיין ככל הנראה לא נחצה – כלי אוטונומי שבוחר בעצמו את המטרה, ומחליט האם לבצע את הפעולה הקטלנית.
האם אנחנו רוצים להיות במקום בו הרובוט מחליט על ביצוע הפעולה הקטלנית, והאדם נמצא מחוץ לחוג ההפעלה? דמיינו את הסיטואציה – רחפן אוטונומי קטלני מרחף מעל אזור לחימה וממתין. הוא מזהה תנועה חשודה, מחשב מסלול, משווה להוראות הפתיחה באש שקיבל, מנתח נתונים – ו"לוחץ על ההדק". אין אף גורם אנושי מאחורי מסך, אין גורם אנושי שמאשר, רק האלגוריתם וההנחיות שהוזנו מראש ושורת קוד שמחליטה על חיים או מוות. זה נשמע כמו תסריט עתידני, אבל זו המציאות שמתחילה לחלחל לשדה הקרב.
לזהות אויב ולירות, בלי מעורבות אדם
מערכות אוטומטיות רבות כבר נמצאות בשימוש. ההבדל בין מערכת אוטומטית לאוטונומית, הוא הבחירה אותה מבצעת המערכת האוטונומית, וההחלטה לבצע את הפעולה הקטלנית. בעוד שמערכת אוטומטית היא מערכת שרק מגיבה לחציית קו, או לנגיעה בגדר, למערכת האוטונומית יש מרכיב של "שיקול דעת" של מכונה, מבוסס על בינה מלאכותית (AI) שכפי שכולנו כבר יודעים, לא תמיד נוטה לדייק.
נשק אוטונומי קטלני הוא לא חלום רחוק. מדובר בכלים – כמו רחפנים או רובוטים קרקעיים – שמסוגלים לזהות מטרה, להעריך אם היא "אויב", ולבצע ירי. לגמרי לבד. בלי אישור. בלי התלבטות. אם זה נשמע לכם כמו קו אדום – אתם לא לבד.
בעולם קיימים מספר ארגונים המתנגדים להפעלת כלים אוטונומיים קטלניים. למשל הארגון הלא מדינתי Stop Killer Robots, מזהיר מפני המדרון החלקלק שבו "שיקול הדעת האנושי" יצא מהמשוואה. מבחינתם מדובר בחציית גבול מסוכנת – לא מוסרית, לא חוקית וכזו שאין לדעת איפה תסתיים. בישראל, הדיון הציבורי בנושא כמעט ואינו מתקיים, זאת למרות שאנחנו בין המדינות המובילות בפיתוח טכנולוגיות צבאיות מתקדמות, ומן הסתם גם טכנולוגיות אוטונומיות קטלניות.
ברור לכל כי הטכנולוגיה כבר קיימת. תעשיות ביטחוניות בכל העולם מפתחות כלים אוטונומיים קטלניים, ברמות שונות של אוטונומיה, וברמות שונות של מעורבות אנושית. כיום ההנחה בעולם גם בהתאם לוועדת האו"ם שמטפלת בנושא (CCW – Certain Conventional Weapon), היא כי גם בהפעלה של נשק אוטונומי קטלני, תישמר מעורבות אדם משמעותית בחוג ההפעלה. אולם, אין הסכמה על טיבה של אותה מעורבות משמעותית, ובהיעדר הסכמה כל מדינה מחליטה לעצמה איפה עובר הגבול.
האם פיקוח על 5 רחפנים אוטונומיים קטלניים ע"י אדם אחד משקף מעורבות אדם משמעותית? ופיקוח על 100 רחפנים אוטונומיים? ומה בנוגע למערכות הגנה שמתמודדות עם מאות טילים – האם שם מעורבות האדם תהיה משמעותית? כנראה שלא, וגם במערכות הגנה ניתן לייצר נזק אגבי כבד, כפי שכבר קרה בעבר בעולם, וכפי שרק לפני מספר ימים טיל רוסי ששוגר כנגד מתקפת כטב"מים אוקראינית, חלף בסמוך למטוס נוסעים אזרחי וכמעט פגע בו.
מי יישא באחריות?
אחראי למקרה של אסון? מפתחי הנשק? על אף שכבר עבר זמן רב מאז שהמערכת יצאה תחת ידם, והם אינם קשורים למשימה הספציפית. אולי המפעיל המבצעי שמעורב רק בחלק מסוים של ההחלטות? לא בטוח שכחברה נרצה להטיל את האחריות על אותו לוחם או לוחמת צעירים, ושיש לכך הצדקה.
האם כל השאלות אלה יקבלו מענה לפני הכניסה לשדה הקרב? התשובה המצערת היא כנראה שלא. האם שאלות אלה יעכבו כניסה של מערכות אוטונומיות ללחימה? גם פה התשובה היא לא, וזאת בשל היתרונות העצומים של מערכות אלה – החל מחסכון בחיי אדם בשני הצדדים, ובנוסף דיוק גבוה יותר, ציות מלא להוראות האש, חסינות לעייפות, ללחץ, לקור, חום, פחד או רגשות – כל אלו יבטיחו כי מפקדים ישלבו מערכות אוטונומיות בשדה הקרב, ברגע שיגיעו לידיהם.
החזון לפיו רובוטים מחליפים חיילים עד לרמת הלחיצה על ההדק קרוב, שלא לומר כבר פה. ואולם כמו במקרה של טכנולוגיות מתקדמות אחרות, ההתקדמות בשטח מקדימה את הסוגיות האתיות, המוסריות, החוקיות והמקצועיות הכרוכות בהתפתחות. כשמדובר בפיתוח שמטרתו להרוג – ההשלכות יכולות להיות עצומות ומרחיקות לכת.
מה נדרש ואפשר לעשות? הרבה מאוד. הדיון בנושא צריך להתרחב, הממשלה צריכה לתמוך בחקיקה ובהנחיות מתאימות, התעשיות הביטחוניות נדרשות לפתח לפי עקרונות שכבר קיימים בעולם, כאלו שיבטיחו הפעלה נכונה ובטוחה יותר של הכלים האוטונומיים הקטלניים, כזו שלא תטיל את האחריות על הלוחם בקצה שרשרת הייצור וההפעלה.
הכותב הוא אל"מ (מיל') בחיל האוויר, יועץ אסטרטגי לחברות ביטחוניות, חברות סטרטאפ, ומשרדי ממשלה. דוקטורנט למשפטים באונ' רייכמן בנושא נשק אוטונומי קטלני, ומעורבות האדם בחוג ההפעלה