ניתוח
מדינת ניו יורק התייצבה מול טראמפ בקרב על הסדרת בינה מלאכותית
חוק להסדרת בטיחות ב־AI שעליו חתמה מושלת ניו יורק הצית עימות חריג עם הממשל הפדרלי והעמיד את תעשיית הבינה המלאכותית בלב מאבק חוקתי, פוליטי וכלכלי. הטריגר למחלוקת: צו נשיאותי חדש להסדרת AI שמתמקד פחות בבטיחות ויותר בהאצת פיתוח
בעיר אולבני, בירת מדינת ניו יורק, התרחש בשבוע שעבר אירוע טכני לכאורה: המושלת קת'י הוקול חתמה על חוק מדינתי חדש להסדרת בטיחות בתחום הבינה המלאכותית. החוק נחתם ימים ספורים לאחר שנשיא ארצות הברית דונלד טראמפ חתם על צו נשיאותי שמבקש לבלום בדיוק מהלכים כאלה: יוזמות רגולטוריות של מדינות בודדות שמטילות מגבלות על פיתוח והפצה של מערכות AI מתקדמות.
הצו של טראמפ נועד ליצור מסגרת מדיניות לאומית אחידה לגבי בינה מלאכותית, לרבות מנגנונים המסוגלים לאתגר חוקים מדינתיים שנחשבים ל"מכבידים" או סותרים את המדיניות הפדרלית. שני המהלכים הללו, המדינתי והפדרלי, אינם רק סותרים זה את זה. הם מייצגים תפיסות עולם מנוגדות בשאלה מי אמור לשלוט בטכנולוגיה שמעצבת מחדש כל תחום אזרחי, כלכלי וביטחוני.
החוק שאושר במדינת ניו יורק מחייב חברות המפתחות מודלי בינה מלאכותית מתקדמים לנקוט שורה של צעדי בטיחות. אלה מונים ביצוע בדיקות סיכון יזומות, הטמעת מנגנוני שליטה ובקרה פנימיים, וחובת דיווח לרשויות המדינה על תקלות או כשלים שעשויים להוות סיכון ממשי לציבור. מנגד, הצו הנשיאותי מבטא גישה הפוכה כמעט לחלוטין. הוא קובע כי רגולציה על בינה מלאכותית היא עניין פדרלי ומזהיר מפני מצב שבו כל מדינה מייצרת מערכת חוקים משלה. הצו אומנם איננו מבטל חוקים מדינתיים ואיננו אוסר על מדינות לחוקק רגולציה על בינה מלאכותית, אך הוא משנה באופן מהותי את מאזן הכוחות. הצו מנחה את סוכנויות הממשל הפדרלי לפעול לפי קו מדיניות אחיד, שלפיו רגולציית AI היא עניין פדרלי, ומעודד אותן לראות ביוזמות מדינתיות בעיה שיש לבחון, לאתגר ואף להיאבק בה.
דילמה תפעולית וכלכלית
בפועל, המשמעות היא הקצאת משאבים לאתגור חוקים מדינתיים, הימנעות מאימוץ תקנים מקומיים כסטנדרט פדרלי, ושימוש בכלים תקציביים, כמו מענקים וחוזי רכש, כאמצעי לחץ על מדינות בארצות הברית שיחרגו מהקו הלאומי. זהו לא מהלך של ביטול ישיר, אלא הופך את הממשל הפדרלי לשחקן פעיל המנסה לבלום רגולציה מדינתית דרך בתי המשפט, התקציב והביורוקרטיה. כך נוצר מצב חריג: מדינת ניו יורק דורשת מחברות לעצור, לבדוק ולדווח, בעוד הממשל מאותת להן להאיץ, לפרוץ גבולות ולהימנע מעיכובים. עבור החברות זו איננה שאלה אידיאולוגית, כי אם דילמה תפעולית, משפטית וכלכלית.
אחת הטענות החוזרות נגד החוק של מדינת ניו יורק היא כי בינה מלאכותית איננה פועלת בתוך גבולות גיאוגרפיים. המודלים מאומנים בענן, מופעלים משרתים מרוחקים, ומשמשים משתמשים בכל העולם. כיצד יכולה מדינה אחת לפקח על טכנולוגיה כזו? התשובה היא, שהפיקוח איננו מתבצע על האלגוריתם עצמו, אלא על נקודות המפגש שלו עם החיים האמיתיים. מדינות אינן מנסות לשלוט בקוד, אלא להסדיר את האופן שבו מערכות AI משמשות בתחומים שנמצאים ממילא בסמכותן.
הרגולציה המדינתית פועלת, בראש ובראשונה, דרך פיקוח על שימושים, ולא על מודלים. מדינת ניו יורק איננה מורה לחברות כיצד לאמן מודל שפה, אלא קובעת באילו תנאים מותר להשתמש במערכות אוטומטיות בגיוס עובדים, בקבלת החלטות אשראי, באכיפת חוק, ברווחה, בבריאות ובתחבורה. המנגנון השני הוא אחריות משפטית. מדינות יכולות לקבוע חובות גילוי, תיעוד ובקרה: דרישה ליידע אזרחים כאשר מערכת אוטומטית מעורבת בהחלטה בעניינם; חובת בדיקות סיכון לפני פריסה רחבה והטלת אחריות אזרחית במקרה של נזק. זה אינו פיקוח על טכנולוגיה, אלא על השלכותיה. המנגנון השלישי הוא רכש ציבורי. מדינת ניו יורק היא לקוח עצום של טכנולוגיה: משטרה, בתי חולים, בתי ספר, תחבורה ותשתיות. באמצעות קביעת תנאים לשימוש במערכות AI במגזר הציבורי, המדינה מייצרת סטנדרט שמחלחל גם לשוק הפרטי.
ולבסוף, ישנו עקרון האכיפה הטריטוריאלית. גם אם שרתי החברה נמצאים מחוץ למדינה, עצם הפעילות מול תושבים ותשתיות מקומיות מכפיף אותה לדין המדינתי, כפי שקורה בתחומי מיסוי, הגנת צרכן ואיכות סביבה.
אז מי מוסמך לקבוע את הכללים? כאן מתחדד העימות. החוקה האמריקאית מעניקה עדיפות לחוק פדרלי, אך גם שומרת למדינות סמכויות לפעול להגנת ביטחון, בריאות ורווחת הציבור. כאשר מדינת ניו יורק מגדירה בינה מלאכותית מסוימת כסיכון בטיחותי או אזרחי, היא טוענת לפעולה במסגרת סמכות יסוד זו.
מדינת ניו יורק מצטרפת לחלוצות שמציבות גבולות ל־AI, והיא אחת המובילות בגל השני של חקיקה ייעודית למודלי פרונטיר מתקדמים (מערכות AI מתקדמות במיוחד, שנמצאות בקצה העליון של יכולות העיבוד, הלמידה וההשפעה).
קליפורניה וקולורדו הובילו
בגל הראשון של רגולציה בולטות בעיקר קליפורניה וקולורדו. בקליפורניה נחתם בספטמבר 2025 חוק ראשון מסוגו בארצות הברית, שמכוון למודלי AI מתקדמים במיוחד ומחייב שקיפות, דיווח על תקלות וניהול סיכונים. בקולורדו עבר ב־2024 חוק שמתמקד במערכות AI עתירות סיכון בתחומים אזרחיים מוגדרים, בעיקר תעסוקה ופיננסים, ומדגיש שקיפות ומניעת הטיות. לצד החקיקה הישירה, קליפורניה מפעילה גם רגולציה עקיפה דרך חוקי פרטיות מחמירים ותקנות נגד אפליה, שמשפיעים בפועל על שימוש ב־AI בגיוס עובדים, באשראי ובדיור, וכן מגבלות על שימוש בכלים אוטומטיים במגזר הציבורי, הכוללות דרישות לשקיפות ולאישור אנושי.
שלושת המקרים מדגימים שלוש גישות שונות לאותה בעיה. קליפורניה משלבת בין חוק ייעודי לבין שכבות של רגולציה קיימת בעוד קולורדו מתמקדת בפיקוח ממוקד על שימושים מסוימים. ניו יורק, לעומת זאת, בוחרת בפיקוח גלוי וברור על מערכות AI מתקדמות. הבחירה הזו, יחד עם תזמון החתימה סמוך לצו של טראמפ, מציבה את ניו יורק בקו עימות ישיר עם הממשל הפדרלי והופכת אותה לסמל של המאבק הרגולטורי כולו.
כמעט בלתי נמנע שהעימות יתברר בזירה המשפטית. עד אז, תעשיית ה־AI תמשיך לפעול בסביבה של אי־ודאות רגולטורית מתמשכת.































