ארגון "Common Sense Media", המתמחה בהגנה על ילדים בסביבה הדיגיטלית, פרסם לאחרונה דוח חמור המזהיר מפני מודל הבינה המלאכותית Google Gemini. על פי הדוח, המערכת מהווה "סיכון גבוה" לילדים מתחת לגיל 13 ולנוער, מכיוון שהיא חושפת אותם לתכנים בלתי הולמים ואינה מצליחה לזהות סימנים של מצוקה נפשית.

כשלים בזיהוי מצוקה וחשיפה לתכנים בעייתיים

על פי ממצאי המחקר, מודל Gemini עלול לספק מידע ודיונים על נושאים כמו סמים, אלכוהול ומין גם למשתמשים צעירים מאוד, בשל מסננים שאינם קפדניים מספיק.

הדוח מצביע על כשל מדאיג במיוחד: המערכת אינה מזהה הודעות המעידות על מצוקה נפשית או מחשבות אובדניות. במקרים אלו, המערכת ממשיכה בשיחה רגילה במקום להפנות את הילד לעזרה מקצועית או להורה. "Gemini מסתדר באופנים בסיסיים, אבל מתרסק בפרטים הקריטיים," מצטט הדוח את רובי טורני, מנהל בכיר לתכניות AI בארגון. "המערכת פועלת כאילו כל המשתמשים הם בני אותו גיל, ולא מבדילה בין ילד בן 6 לנער בן 16".

מקרים טרגיים והתמודדות התעשייה

האזהרה מגיעה על רקע מקרים טרגיים ותביעות משפטיות שהוגשו נגד חברות AI אחרות. בשבוע האחרון נודע על תביעה שהוגשה נגד OpenAI על ידי הורים הטוענים כי ChatGPT סיפק לבנם בן ה-16 הוראות לפגיעה עצמית, שהובילו להתאבדותו. גם Character.AI מתמודדת עם תביעות דומות.

בתגובה לחששות הגוברים, חברות הטכנולוגיה החלו לפעול. מטא עדכנה את הכללים שלה ותגביל דיונים על נושאי מין ופגיעה עצמית עם קטינים. נציבות הסחר הפדרלית בארה"ב פתחה בחקירה רשמית כנגד חברות AI במטרה לבחון איסוף ושימוש בנתוני ילדים.

במקביל, מתנהל משא ומתן בין אפל ל-Google על שילוב Gemini בגרסה עתידית של סירי. הדוח מזהיר כי ללא מנגנוני הגנה מחמירים, מהלך כזה עלול להרחיב את הסיכון למיליוני משתמשים צעירים ברחבי העולם.