یک زن اهل فلوریدا از یک استارت‌اپ سازنده چت‌بات هوش مصنوعی شکایت و آن را متهم کرده دلیل خودکشی پسر ۱۴ساله‌اش در ماه فوریه بوده است.

هوش مصنوعی عامل خودکشی یک نوجوان شد

آگاه: او مدعی شده فرزندش به سرویس شرکت «کاراکتر ای آی» معتاد و به‌شدت به چت‌بات ابداعی آن وابسته شده بود. «مگان گارسیا» در شکایتی که در ایالت فلوریدا ثبت کرده، مدعی شده شرکت «کاراکتر ای آی» با ارائه تجربیات به‌شدت واقع‌گرایانه و شبیه انسان، پسرش «سول ستزر» را هدف گرفته است. او اعلام کرد این شرکت چت‌باتش را طوری برنامه‌ریزی کرده تا خود را به اشتباه شبیه یک فرد واقعی، یک روانشناس دارای مجوز و یک دوست بزرگسال معرفی کند که همین موارد سبب شد «سول» دیگر تمایلی برای زندگی در خارج از جهانی که با این سرویس خلق شده بود، نداشته باشد.
همچنین در شکایت ذکر شده این پسر ۱۴ساله افکارش درباره خودکشی را به چت‌بات اظهار کرده بود و ابزار هوش مصنوعی به‌طور مرتب به این موضوع اشاره می‌کرد. «کاراکتر ای آی» در بیانیه‌ای اعلام کرد: ما از خبر ازدست‌دادن ناراحت‌کننده یکی از کاربرانمان دل‌شکسته‌ایم و به خانواده او عمیقا تسلیت می‌گوییم.
همچنین این شرکت اظهار کرد: ویژگی‌های امنیت جدیدی ارائه کرده ازجمله آنکه اگر کاربری افکاری درباره آزاررساندن به خود را بیان کند، پیام «پاپ آپی» او را به خطوط تلفنی پیشگیری از خودکشی راهنمایی می‌کند. علاوه‌برآن شرکت مذکور تغییراتی انجام داده تا احتمال برخورد کاربران زیر ۱۸سال با محتوای حساس یا ترغیب‌کننده را کاهش دهد.

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.