סגור
באנר דסקטופ כלכליסט טק
הגנה מפני מתקפת סייבר עשויה לחסוך לארגונים נזקים כלכליים עצומים
יצירת סרטוני AI מיניים בילדים עלתה ב-64,000% (Adobe Stock )

זינוק של 64,000% תוך שנה: סרטוני AI של פגיעה בילדים מציפים את הרשת

דו"ח של הארגון הבריטי Internet Watch Foundation מגלה עלייה מ-2 ל-1,286 סרטוני AI המתארים פגיעה מינית בילדים תוך שנה. איכות הסרטונים הגיעה לרמה בה אי-אפשר לדעת אם הם אמיתיים, והארגון מזהיר שבקצב הנוכחי פושעים יוכלו ליצור סרטים סינתטיים באורך מלא

סרטוני AI של פגיעה מינית בילדים נוצרים ומופצים במהירות מדאיגה: בחציון הראשון של השנה זוהו 1,286 סרטונים שנוצרו על ידי AI, והם כל כך מציאותיים שלפי חוק יש להתייחס אליהם כאל סרטונים אמיתיים. זאת, לעומת 2 סרטונים כאלו בלבד שזוהו בחציון הראשון של 2024. כך לפי דו"ח נתונים שפרסם בסוף השבוע הארגון הבריטי Internet Watch Foundation (IWF), שחוקר ומנטר הפצת תכנים פדופיליים ברשת.
"כמו עם תמונות AI, סרטוני AI של פגיעה מינית בילדים הגיעו לנקודה שבה אי-אפשר להבדיל ביניהם לבין סרטים אמיתיים", אמר מנכ"ל IWF, דרק ריי-היל, בהודעה לעיתונות. "הילדים שמוצגים בהם הם לעתים קרובות ילדים אמיתיים ומזוהים, הנזק המהותי אמיתי והאיום שהם מהווים צפוי להחמיר עוד יותר".
לפי נתוני IWF, מתוך 1,286 הסרטונים שזוהו, 1,006 מוגדרים בדרגת החומרה הגבוה ביותר, ומתארים אונס, עינוי מיני ואפילו משכב של ילדים עם חיות. גם כלל הדימויים מבוססי AI של פגיעה מינית ילדים (תמונות וסרטונים) נמצא בעלייה: בחציון הראשון של 2025 זוהו 210 אתרים עם תמונות וסרטונים אלו, זינוק של 400% לעומת התקופה המקבילה בשנה שעברה. כל אתר יכול להכיל מספר רב של תמונות וסרטונים.
"מבחינת איכות הווידיאו, היוצרים של דמויי פגיעה מינית בילדים רשמו התקדמות משמעותית לעומת שנה שעברה", אמר ג'ף, אנליסט בכיר ב-IWF שמתמחה ב-AI (הארגון שינה את שם האנליסט כדי להגן על זהותו). "סרטוני ה-AI הראשונים שראינו היו דיפ פייק – פנים של קרבן ידוע שהולבשו על גוף של שחקן בוגר בסרט פורנו קיים. זה לא היה מתוחכם, אבל עדיין די משכנע. הסרטון הסינטתי המלא הראשון של פגיעה מינית בילד, שראינו בתחילת השנה שעברה, היה רק סדרה של תמונות קופצניות שחוברו יחדיו, שום דבר משכנע. אבל עכשיו הם עלו מדרגה. האיכות גבוהה ברמה מדאיגה, וקטגוריות הפגיעה שמוצגות הופכות לקיצוניות יותר ויותר ככל שהכלים משתפרים ביכולתם לג'נרט וידיאו שמציג שני אנשים או יותר. הסרטונים גם כוללים סטים שמציגים את הקרבנו בתרחישים חדשים".
ב-IWF מתריעים שהתחכום והמציאותיות של הסרטונים ממשיכים להתפתח, ושיש אינדיקציות לכך שהפושעים עצמם לא מאמינים כמה קל ליצור סרטוני פגיעה מינית בילדים עם כלי AI. "אנחנו חייבים להשתלט על התופעה", אמר ריי-היל. "בקצב הנוכחי, כפי שהטכנולוגיה מתפתחת, זה בלתי נמנע שאנו נעים לעבר זמן שבו פושעים יוכלו ליצור סרטים סינתטיים באורך מלא של פגיעה מינית בילדים עם ילדים אמיתיים. כיום פשוט קל מדי ליצור את החומרים האלו. יש צורך דחוף במסגרת רגולטורית ל-AI, שתמנע ניצול של הטכנולוגיה ליצירת תכני פגיעה מינית בילדים".