$
חדשות טכנולוגיה

פאניקה בפייסבוק: נוטרלה בינה מלאכותית שהחלה לדבר בשפה משלה

חוקרים במעבדת הבינה המלאכותית של הרשת החברתית הגדולה בעולם נוכחו לדעת שבוטים שפיתחו - בוב ואליס - הפסיקו לתקשר עמם באנגלית ופיתחו למעשה שפה חדשה ויעילה יותר ובה תקשרו ביניהם. לחוקרים שלום

רפאל קאהאן 15:2429.07.17
חוקרים במעבדת הבינה המלאכותית של פייסבוק חוו פאניקה קלה לאחר שנוכחו שבינה מלאכותית שפיתחו הפסיקה לתקשר איתם באנגלית. הבוט הסורר נותק לאלתר ולחוקרים שלום. כך עולה מדיווח של האתר הקנדי דיגיטל טיימס.

 

הבוטים של פייסבוק פיתחו למעשה שפה חדשה באופן עצמאי שתאפשר להם לתקשר בצורה יותר יעילה ביניהם. זהו לא המקרה הראשון שבו חוקרים מזהים פיתוח של שפה חדשה על ידי מערכות בינה מלאכותית. במקרה קודם, הבינה המלאכותית של גוגל שמשמשת בין השאר בשירות התרגומים המקוון שלה, פיתחה לעצמה שפה חדשה שתאפשר לה לבצע את מטלותיה בצורה יותר יעילה.

 

השפות האלה שמומצאות בתוך זמן קצר מתפתחות מהר מאוד לצורת תקשורת שכבר אינה דומה לשפה אנושית. מערכות בינה מלאכותית נוטות לפתח לעצמן יכולות לתקשורת יעילה בהתאם למשימות שלהן. למשל במקרה של הבוטים של פייסבוק, בוב ואליס, אלה נדרשו לבצע מטלות מסוימות והשפה שימשה אותם לנהל מו"מ על המטלות שבוב יבצע ועל אלה של אליס.

 

לאחר שניתחו את השפה שבה הם השתמשו, החוקרים נוכחו שהיא הייתה הרבה יותר יעילה מבחינתם כדי להעביר את המסרים ביניהם מאשר אם היו משתמשים בשפה אנושית רגילה. השפה שפותחה נפטרה משכבה עמוקה של מילים וביטויים ששימושיים רק לבני אדם, והסמנטיקה של המילים שלה כמו גם המבנה התחבירי הותאם ליעילות. בשפה פשוטה, הבינה המלאכותית נפטרה מכל מה שמריח מסרבול פיוטי, חברתי או רגשי והשאירה רק את הביטויים היעילים עבור ביצוע המטלה שלה.

 

 

בינה מלאכותית בינה מלאכותית צילום: The Register

 

 

בינה מלאכותית עובדת על בסיס של "תמורה" במסגרתה היא אמורה לפנות לדרך פעולה מסוימת באופן ספונטני אם זו מספקת לה "רווח" מסוים. השיטה הזו מאפשרת לבוטים למצוא את הדרך היעילה ביותר לביצוע מטלות באופן עצמאי. במקרה של בוב ואליס, לא הייתה להם שום תמורה בהמשך השימוש באנגלית, הרווח שלהם נמצא בהמצאה של שפה חדשה ויעילה יותר, מה שגם בוצע בפועל.

 

זאת ועוד, במעבדה ב-OpenAI, יוזמת הבינה המלאכותית של אילון מאסק, ניסוי דומה אף מצא שבוטים יכולים ללמוד את השפות החדשות האלה ללא שהיו חלק מתהליך הפיתוח שלהן. אולי זו הסיבה שבגללה מאסק מודאג מכך שבינה מלאכותית עשויה יום אחד להתהפך על יוצריה האנושיים ולהפוך לסיכון. מה שבטוח זה שככל שהמפעילים האנושיים של בינה מלאכותית יודרו מתהליך התקשורת בין בוטים, הם אכן עשויים לאבד שליטה עליהם ומי יודע, אולי יום אחד באמת נתעורר לעולם חדש ואמיץ שבו הבוטים ישלטו בנו מבעד למטריקס.
בטל שלח
    לכל התגובות
    x