סגור
באנר דסקטופ כלכליסט טק
מטה אלפבית גוגל בקליפורניה 2025
מטה גוגל בקליפורניה (צילום: בלומברג)

עובדים בעמק הסיליקון: לקבוע קווים אדומים ברורים לשימוש צבאי בבינה מלאכותית

בעקבות החלטת הפנטגון להחרים את מודלי הבינה המלאכותית של אנתרופיק, קוראים עובדים באלפבית, OpenAI וחברות נוספות לקבוע באופן ברור מהן המגבלות על שימוש צבאי ב-AI

עובדים באלפבית קוראים להנהלה לקבוע באופן ברור מהן המגבלות על שימוש צבאי ב-AI, ברקע המלחמה באיראן והחלטת הפנטגון להחרים את המודלים של אנתרופיק, מפתחת קלוד. בשורה של מכתבים פתוחים שהופצו בתעשייה נטען כי האירועים האחרונים מאשרים את החשש לגבי השימוש האפשרי ב-AI כנשק או לצורכי מעקב. על המכתבים חתמו עובדים בכמה חברות, כולל כ-100 עובדים ב-OpenAI, מפתחת ChatGPT, עימה הגיע הפנטגון להסכם.
"הם מנסים לפלג כל חברה עם איומים שחברה אחרת תיכנע", נכתב. "האסטרטגיה הזו תעבוד רק אם אנחנו לא יודעים מה המצב של כולם. המכתב הזה הוא דרך ליצור הבנה משותפת וסולידריות לנוכח הלחץ הזה המופעל עלינו ממשרד המלחמה".
עיקר הלחץ מופעל על גוגל, בשל הדיווחים כי החברה האם אלפבית מנהלת מגעים עם הפנטגון לגבי שימוש במודלים של ג'מיני בסביבות מסווגות. לפי דיווח ב-CNBC, יותר מ-1,000 עובדים של גוגל בחטיבות ה-AI חתמו בשבוע שעבר על מכתב פנימי שבו קראו להנהלה לאמץ את אותם קווים אדומים כמו שעשתה אנתרופיק, שהובילו לביטול החוזה שלה עם הפנטגון. מנכ"ל אנתרופיק דריו אמודיי אמר בשבוע שעבר כי החברה תעדיף לא לעבוד עם הפנטגון, על פני הסכמה ששימושי הטכנולוגיה שלה "ייפגעו ולא יגנו על ערכי הדמוקרטיה".
ג'ף דין, המדען הראשי של דיפמיינד, שקיבל לידיו את המכתב, הביע תמיכה מסוימת בחששות שהועלו בו. בפוסט שכתב ב-X טען כי מעקבים המוניים מפרים את התיקון הרביעי לחוקה, מדכאים את חופש הביטוי ופגיעים לניצול פוליטי.