פרשנות
קלוד מגיע עם יותר מדי מגבלות, צבא ארה"ב יאמץ את גרוק הגזען
היחסים בין הפנטגון לאנתרופיק מפתחת קלוד עלו על שרטון בגלל סירובה של החברה לאפשר למודל ה־AI לעקוב אחרי אוכלוסיה אזרחית. כברירת מחדל, הצבא יאפשר לגרוק השנוי במחלוקת של xAI גישה למערכות מסווגות
על רקע המתיחות השוררת בין אנתרופיק לפנטגון סביב השימוש של צבא ארצות הברית במודל ה־AI של החברה, בין השאר במבצע ללכידת נשיא ונצואלה ניקולס מדורו, חתמה מחלקת ההגנה על הסכם שיאפשר לצבא לעשות שימוש בגרוק של חברת xAI של אלון מאסק, כולל גישה למערכות מסווגות. מדובר במהלך מעורר חשש, שכן גרוק פותח במכוון עם פחות מנגנוני הגנה ובטיחות לעומת מודלים אחרים, וכבר הפגין בעבר נטייה לקידום עמדות גזעניות, אנטישמיות וקונספירטיביות ולהפצה של פייק ניוז ותמונות אירוטיות של קטינים.
עד לאחרונה, קלוד של אנתרופיק היה המודל היחיד שקיבל את אישור הממשל הפדרלי לגישה למערכות ולמידע מסווגים, ולשימוש בהיבטים רגישים כמו מודיעין צבאי, פיתוח מערכות נשק ופעילות קרבית מבצעית. ואולם, בשבועות האחרונים היחסים בין אנתרופיק לפנטגון הפכו למתוחים על גבול העויינים.
ב־9 בינואר פרסם מזכיר ההגנה פיט הגסת' מזכר שעוסק בצורך של הפנטגון "לעשות שימוש במודלים שחופשיים ממגבלות מדיניות המסוגלות להגביל יישומים צבאיים חוקיים". מגבלות אלו שמיישמת אנתרופיק עוררו ביקורת בבית הלבן, וצאר ה־AI דיוויד סאקס אף הגדיר את הגישה שלה כ־Woke.
החודש נחשף, שקלוד שימש במבצע ללכידת מדורו בלי הסכמתה מראש או ידיעתה של אנתרופיק. במקביל דווח, שהחברה מסרבת לבקשת הפנטגון לאפשר שימוש בקלוד ב"כל תרחישי השימוש החוקיים", ומבקשת למנוע שימוש בטכנולוגיה שלה בפעילות כמו מעקב אחרי אוכלוסיה אזרחית בארצות הברית או פעילויות אוטונומית קטלניות.
על רקע זה, בכיר במחלקת ההגנה אמר ל"וול סטריט ג'ורנל", כי רבים בפנטגון מתחילים להתייחס לאנתרופיק כ"סיכון שרשרת־אספקה" (הגדרה השמורה לרוב ליריבות זרות) וייתכן שקבלנים וספקים יתבקשו לאשר שהם לא עובדים עם מודלים של החברה. "האומה שלנו דורשת שהשותפים שלנו יהיו מוכנים לסייע ללוחמים שלנו לנצח בכל קרב", נמסר מהפנטגון. "בסופו של דבר, מדובר בלוחמים שלנו ובבטחון העם האמריקאי".
אתמול דיווח ה"ניו יורק טיימס", שאנתרופיק זומנה השבוע לפגישה בפנטגון, במהלכה תתבקש להסכים להסרת המגבלות על השימוש במודלים שלה ולהתיר לצבא להשתמש בהם כראות עיניו, כל עוד מדובר בפעילות חוקית. לפי Axios, הגסת' יציג לחברה אולטימטום ברור: עליה להסכים להסרת מנגוני ההגנה, או שתוגדר כסיכון לשרשרת האספקה. סירוב של אנתרופיק יביא בוודאות גדולה לביטול חוזה הפיילוט בהיקף של 200 מיליון דולר שחתמה עם מחלקת ההגנה בשנה שעברה.
בינתיים, בפנטגון לא מתמהמהים וכבר מכינים חלופות אתיות פחות מאנתרופיק. לפי דיווחים של Axios ו"הניו יורק טיימס", הפנטגון חתם על הסכם עם xAI, שהסכימה לתנאי "כל השימושים החוקיים", וקרוב גם לחתימה על עסקה עם גוגל. מגעים עם OpenAI רחוקים יותר מסיכום. בפנטגון מקווים להשתמש בהסכמים הללו כמנוף לחץ על אנתרופיק, בין השאר, מכיוון שלא ברור אם גרוק של xAI (שנחשב למתקדם פחות ממודלים יריבים) מסוגל למלא את כל המשימות שממלא כיום קלוד.
המהלכים של הפנטגון מעוררים דאגה מכמה סיבות. בכל הנוגע לשחרור המגבלות, הם יכולים לתת בידי ממשל טראמפ כלים עוצמתיים במיוחד, שביחד עם הנתונים הרגישים והמורכבים שבידי הפנטגון, יכולים לשמש למהלכים אנטי־דמוקרטיים כמו מעקב המוני אחר אוכלוסיה אזרחית, או ניטור גורמים שמזוהים כ"אויבים" של הממשל, ופעילות נגדם. בכל זמן אחר, התנהלות מסוג זה בארצות הברית היתה נחשבת לבלתי חוקית ונדחית על הסף על ידי הממשל הפדרלי.
ואולם, טראמפ הפגין בשנה האחרונה נטיות סמכותניות ודיקטטוריות מובהקות, ולא היסס להפעיל את עוצמת הממשל על מנת לרדוף ולנקום ביריבים או לבצע מעשי אלימות נגד אוכלוסיה אזרחים, כפי שהודגם בפשיטות הקטלניות של סוכני ההגירה (ICE) במינסוטה, קליפורניה ומדינות נוספות. גם ההגדרה של הממשל לחוקיות של פעולה יכולה להיות רחבה מאוד, ולא בהכרח הולמת את החוק הקיים או את החוקה (הגם שבית המשפט העליון בהרכבו הנוכחי יכול לפסוק שזה המצב). במצב זה, המגבלות של חברות ה־AI הן החסם האחרון בפני שימושים מסוכנים אלו.
ההסכם עם xAI מעלה גם חששות שרלוונטיים לגרוק עצמו. בשנה האחרונה בלבד, הצ'טבוט קידם תיאוריות קונספירציה של עליונות לבנה, השווה את עצמו להיטלר, הפיץ פייק ניוז על פיגוע הירי באוסטרליה, ובשבועות האחרונים נענה בחדווה לבקשות משתמשים ליצור תמונות אירוטיות של קטינים ובוגרים ללא הסכמתם. זאת, כתוצאה מבחירות מכוונות של xAI ומאסק ליצור מודל "פרוע" יותר עם פחות מנגנוני הגנה ביחס למודלים אחרים. עתה, מודל זה מקבל גישה למידע מסווג וישמש בהליכי קבלת החלטות ותכנון פעולות צבאיות. מה כבר יכול להשתבש?































