• תפריט
חדשות טכנולוגיה

פרשנות

בינה מלאכותית חמושה: סכנה לאנושיות שלנו

מחאת עובדי גוגל נגד מעורבות החברה בתוכנית AI של הפנטגון מציפה את החשש האנושי מרובוטים מחסלים. האיום האמיתי הוא לא מחשב שיחליט לחסל בני אדם, אלא הפיכת ההרג ההמוני לפעולה קלה וזולה עוד יותר

עומר כביר 10:5412.04.18

כשג'יימס קמרון יצר את הסרטים הראשונים בסדרת "שליחות קטלנית" לפני כ-30 שנה, החזון האפוקליפטי שעמד במרכזם היה מדע בדיוני. גם היום הרעיון שמערכת בינה מלאכותית תפתח לפתע מודעות עצמית ותתחיל לבצע רצח עם בעזרת צבא רובוטים מחסלים נראה רחוק ממימוש.

 

 

אך הפחד האנושי מטכנולוגיות חדשות ומאובדן שליטה במכונות שעמד במרכז הסרטים רק התחזק לאחר שהרובוטים המחסלים הפכו למציאות. חזותם אמנם שונה מאד מארנולד שוורנצגר - רבים יתקשו לכנות אותם בכלל רובוטים - אבל הם כאן, בדמות כלי טיס בלתי מאוישים שנשלחים למשימות צבאיות מרוחקות. ארה"ב משתמשת בכלים אלה באופן נרחב במסגרת פעילותה הצבאית. מאז 2002 חיסל צבא ארה"ב בתימן לבדה בין 470 ל-1,124 חמושים ו-65-105 אזרחים.

 

מל"ט תקיפה אמריקאי משגר טיל מל"ט תקיפה אמריקאי משגר טיל

 

 

בנוסף, התפתחויות בחקר ה-AI בעשור האחרון הופכות את החזון של מערכת ניהול קרב עצמאית ואוטונומית להרבה יותר מציאותית. אין בנמצא חוקרים רציניים שסבורים שמערכת מסוג זה תפתח מודעות עצמית ותפנה להשמדת האנושות, אך הפעילות בתחום מעוררת מספיק חששות גם כך. בימים האחרונים חששות אלו התפרצו במקביל במספר מקומות, באופן שמצביע שלא מעט מהעוסקים במלאכה סבורים שיש סיבות אמיתיות לדאגה.

 

בשבוע שעבר 3,100 עובדים בגוגל, בהם מספר עשרות מהנדסים בכירים, העבירו למנכ"ל סונדאר פיצ'אי מכתב מחאה חריג. העובדים מחו על מעורבות החברה בתוכנית של הפנטנגון שמשתמשת ב-AI כדי לפענח סרטונים שהוקלטו ממל"טי תקיפה, במטרה לשפר את הדיוק שלהם. להתנגדות העובדים יש מניע מוסרי - "אסור לגוגל להיות בעסקי המלחמה" - אבל גם מעשי: "אנחנו לא יכולים לבצע מיקור חוץ לאחריות המוסרית שלנו", כתבו.

 

מי מפחד מרובוט עם אקדח? מי מפחד מרובוט עם אקדח? איור: ערן מנדל

 

 

יום לאחר מכן דווח שכ-50 מדענים וחוקרים מובילים בתחום ה-AI מכ-30 מדינות קראו להטיל חרם אקדמי על אוניברסיטת KAIST בדרום קוריאה. זאת לאחר שהאוניברסיטה נכנסה לשיתוף פעולה עם יצרנית הנשק הגדולה Hanwah Systems, הכולל הקמת מרכז מחקר לפיתוח טכנולוגיות AI שישולבו בכלי נשק ובפרט כלי נשק אוטונומיים. "אם יפותחו, כלי נשק אוטונומיים יהיו המהפכה השלישית של ניהול מלחמות", הזהירו המדענים. "הם יאפשרו לנהל מלחמות מהר יותר ובקנה מידה גדול מבעבר. טרוריסטים ודיקטטורים יכולים להשתמש בהם נגד אוכלוסיות תמימות תוך הסרת כל מגבלה אתית. זו תיבת פנדורה שאם תיפתח יהיה קשה לסגור".

 

החששות לא נעלמים גם מתשומת לבם של הרגולטורים. בתחילת השבוע מומחים מטעם ממשלות שונות נפגשו במטה האו"ם בז'נבה כדי לדון, בפעם החמישית, האם וכיצד יש לפקח על מערכות נשק אוטונומיות. לא הרבה יוצא מהפגישות הללו - יש מדינות שמעוניינות בחוק בינלאומי שיחייב שכל כלי נשק יהיה תחת שליטה ופיקוח אנושי, אך מדינות כמו ארה"ב, צרפת וגרמניה לא ששות לקדם רגולציה שתפגע ביכולות הצבאיות שלהן. אך העובדה שהאו"ם מכיר בחשיבות הנושא, שמדענים מכל העולם שבים ומתריעים מפניו פעם אחר פעם, ושגורמים בולטים בעולם הטכנולוגיה כמו אילון מאסק מובילים מאמצים לרגולציה מבהירה שהחשש מהתגשמות הנבואה של קמרון ממשי.

 

לחששות הללו יש סיבה טובה, והיא לא קשורה לפחד ממערכת תבונית שתשעבד או תחסל את האנושות. ככל שהמרחק הפיזי בין שני אנשים גדל כך גם גדלה הקלות שבה האחד יכול ליטול את חייו של האחר. קשה מאוד, פיזית ונפשית, לחנוק אדם למוות במו ידיך. קל יותר ליטול את חייו בדקירת סכין וקל עוד יותר לעשות זאת ביריית אקדח. מכסא הטייס מדובר כבר במכה קלה בכנף. כשנמצאים במשרד ממוזג, כשכלי הנשק הוא מל"ט במרחק מאות או אלפי קילומטרים והמטרות נראות כנקודות על הקרקע, זה כבר עוד יום במשרד.

 

עוד יום במשרד עוד יום במשרד צילום: militaryaerospace

 

 

הוציאו את הגורם האנושי לחלוטין מהמשוואה והסרתם את המגבלה המוסרית האחרונה להרג. חיסול אוכלוסיות שלמות, במהירות ובמספרים גדולים, הופך למשימה פשוטה שנתונה לגחמתם של אנשים ספורים. ככל שהטכנולוגיה תתפשט, תהפוך לזולה ונפוצה יותר ותזלוג ממדינות יציבות למדינות מעורערות פוליטית ומוסרית ומשם לטרוריסטים ומנהיגי כנופיות, השימוש בה עלול להתרחב וחיי בני האדם יהפכו לנזילים יותר.

 

 

 

המתריעים בשער לא חוששים מהיום שבו בינה מלאכותית תשלט על העולם ותשמיד את בני האנוש. הם חוששים ממשהו שיכול לקרות הרבה יותר מהר ובהרבה יותר קלות: היום שבו נשתמש בבינה מלאכותית כדי להשמיד את האנושיות שלנו.

בטל שלח
    לכל התגובות
    x