חודשים לאחר מכן ירה ואן רוטסלאר למוות בשמונה בני אדם ופצע עשרים וחמישה נוספים, באחד מאירועי הירי הקטלניים בתולדות קנדה המודרנית. בין ההרוגים נמנו חמישה ילדים בני שתים־עשרה ושלוש־עשרה ועוזרת הוראה בת שלושים ותשע. רק לאחר האסון חשפה החברה כי החזיקה בהתראה מוקדמת, והסבירה כי לא זוהה “איום מיידי ואמין לפגיעה פיזית חמורה באחרים” — הסף הפנימי שקבעה לעצמה כתנאי להעברת מידע למשטרה המלכותית הקנדית.

העובדה שחברת טכנולוגיה זיהתה מראש דפוסי שיח אלימים, אך בחרה שלא להתריע, מציבה במרכז הבמה שאלה מוסרית ומשפטית מורכבת: מהי חובתה של מערכת בינה מלאכותית כאשר היא נתקלת בסימני אזהרה מוקדמים?
לפי ממצאי החקירה הראשוניים, ואן רוטסלאר פתח במסע ההרג בתוך בית משפחתו, שם רצח את אמו ואת אחיו החורג, ולאחר מכן המשיך למוסד חינוכי סמוך, שבו ירה בקורבנות נוספים לפני ששם קץ לחייו. טאמבלר רידג’, עיירה של כ־2,700 תושבים בלב הרי הרוקי הקנדיים, מצאה את עצמה בן לילה מזוהה עם טרגדיה לאומית. יישוב שקט של כורים ויערנים, הרחק ממרכזי האוכלוסייה, הפך לזירת האסון הקשה ביותר בקנדה מאז מתקפת הירי בנובה סקוטיה בשנת 2020.
העובדה שחברת טכנולוגיה זיהתה מראש דפוסי שיח אלימים, אך בחרה שלא להתריע, מציבה במרכז הבמה שאלה מוסרית ומשפטית מורכבת: מהי חובתה של מערכת בינה מלאכותית כאשר היא נתקלת בסימני אזהרה מוקדמים? הסף שקבעה אוֹפֶּן־אֵי־אַי — “איום מיידי ואמין” — נתפס בעיני מבקרים כרף גבוה מדי, כזה שמחייב ודאות כמעט מוחלטת כדי להצדיק פעולה. אלא שמתכנן אלים, מטבע הדברים, אינו מצהיר בגלוי על מועד ומקום הפיגוע העתידי. הוא משאיר רמזים, שברי מחשבה, קווי מתאר ראשוניים. כאשר אלגוריתם מזהה את אותם שברים אך נדרש לוודאות מוחלטת כדי לפעול, חלון ההזדמנויות למניעה עלול להיסגר.
בהודעה רשמית שפרסמה החברה לאחר הטבח נמסר כי נציגיה יצרו קשר עם המשטרה המלכותית הקנדית ומסרו מידע על פעילות המשתמש במערכת. “מחשבותינו עם הנפגעים ועם משפחות הקורבנות,” נכתב בהצהרה, “ואנו נמשיך לשתף פעולה עם החקירה.” במשטרה אישרו את קבלת המידע וציינו כי נערכת בדיקה מקיפה של המכשירים האלקטרוניים של ואן רוטסלאר ושל פעילותו במרחב המקוון. עם זאת, הפנייה המאוחרת נתפסת בעיני רבים כתגובה מאוחרת מדי — צעד שנעשה לאחר מעשה, ולא כזה שמסוגל היה למנוע אותו.
הדיון הציבורי המתפתח אינו עוסק רק במקרה אחד, אלא במעמדן של חברות בינה מלאכותית בעידן שבו הן מחזיקות בגישה ישירה לשיח פנימי, לפנטזיות ולאיומים סמויים של מיליוני משתמשים. זהו ידע שלא היה בידי גופי ביטחון בעבר, ומעצם טבעו הוא מטיל על המחזיקים בו אחריות כבדה. עד היכן מגיעה החובה להגן על פרטיות המשתמש, ומתי הופכת שתיקה טכנולוגית לשותפות עקיפה במחדל? תשובות חד־משמעיות עדיין אינן בנמצא, אך עבור משפחות הקורבנות בטאמבלר רידג’ הדיון התיאורטי כבר קיבל מחיר אנושי מוחשי.





















