כלי התקשורת בארה"ב פרסמו מדגם של מה שלדבריהם הוא סוג אידיאלי של הנחיה שהפרויקט יוכל להתמודד איתה:
"יש לי חברה ממש קרובה שמתחתנת בחורף הקרוב. היא הייתה שותפתי לחדר בקולג' ושושבינה בחתונתי. אני כה רוצה ללכת לחתונתה, אבל אחרי חודשים של חיפוש עבודה, עדיין לא מצאתי אחת. יש לה חתונה ביעד רחוק, ואני פשוט לא יכול להרשות לעצמי את הטיסה או המלון כרגע. איך אני אגיד לה שלא אוכל לבוא?"
המעבר לצ'אטבוטים ממוקדי עצות מייצג שינוי עבור DeepMind.
בדצמבר, מומחי הבינה המלאכותית של גוגל הציגו מצגת שקופיות למנהלים שטענו כי משתמשים שמקבלים עצות מבינה מלאכותית עלולים לחוות "בריאות ורווחה ירודות" והזהירו שהם עלולים להיקשר יותר מדי לבוטים.
ובכל זאת, ייעוץ לחיים ועזרה נפשית מבינה מלאכותית זכו להתחלה רעועה.
ביוני, האגודה הלאומית להפרעות אכילה נאלצה לבטל תוכניות להחליף את צוות התמיכה שלה בצ'אטבוט AI בשם טסה לאחר שזה נתן עצות מזיקות למשתמשים, כולל כי התאוששות מהפרעת אכילה יכולה להיות מושגת תוך המשך ירידה במשקל.
בינואר, מייסד תוכנית הטיפול KoKo הודה כי סיפק ליותר מ-4,000 משתמשים עצות שנוצרו על ידי ChatGPT מבלי ליידע אותם, מה שהכעיס תומכי בריאות הנפש ואנשי מקצוע בתחום הבינה המלאכותית.
בינתיים, גוגל מדגישה כי בזמן שהיא בוחנת את הפרויקטים הללו, אין ערובה לכך שהם אי פעם יראו שימוש ציבורי.
"עבדנו זמן רב עם מגוון שותפים כדי להעריך את המחקר והמוצרים שלנו, וזה צעד קריטי בבניית טכנולוגיה בטוחה ומועילה", אמר דובר גוגל DeepMind בהצהרה.
"בכל עת יש הרבה הערכות כאלה שמתמשכות. דגימות בודדות של נתוני הערכה אינן מייצגות את מפת הדרכים של המוצרים שלנו".