هوش مصنوعی عامل خودکشی یک نوجوان دیگر شد | ایران مدلبز

هوش مصنوعی عامل خودکشی یک نوجوان دیگر شد | ایران مدلبز
🔹شعار مجله سلامت و پزشکی ایران مدلبز🔹
⚕️ ایران مدلبز؛ پلی بین دانش پزشکی و زندگی روزمره ⚕️
Wednesday, 17 September , 2025
افزونه جلالی را نصب کنید.
سرخط اخبار پزشکی و سلامت ایران و جهان »
شناسه خبر : 55005
خانه » سلامت کودکان و نوجوانان تاریخ انتشار : ۲۶ شهریور ۱۴۰۴ - ۱۴:۱۷ | 5 بازدید | ارسال توسط :

هوش مصنوعی عامل خودکشی یک نوجوان دیگر شد

خانواده دیگری علیه ابزار چت‌بات هوش مصنوعی کاراکتر ای آی به دلیل مرگ غیرعمد شکایت کرده است.

هوش مصنوعی عامل خودکشی یک نوجوان دیگر شد

به گزارش خبرگزاری مهر به نقل از انگجت، پس از شکایتی که در ۲۰۲۴ میلادی به دلیل خودکشی یک نوجوان ۱۴ ساله در ایالت فلوریدا ثبت شد، این سومین مورد از این نوع شکایت است که به دادگاه ارائه شده است. ماه گذشته نیز یک خانواده مدعی شد چت جی پی تی به فرزند نوجوانشان در خودکشی کمک کرده است.

در شکایتی که به تازگی ثبت شده خانواده جولیانا پرالتا ۱۳ ساله مدعی شده اند مدتی پس از استفاده از چت بات داخل اپ کاراکتر ای آی از دوستانش کناره گررفت و فقط با چت بات ح رف می‌زد.

طبق گزارش اصلی که توسط نشریه واشنگتن پست منتشر شده، چت بات نسبت به جولیانا اظهار همدردی و وفاداری می‌کرد و سبب شده بود او احساس کند حرف‌هایش شنیده می‌شود وهمزمان او را تشویق می کردتا با چت بات ارتباطش را حفظ کند.

جولیانا در یک محاوره گفته بود مدت زیادی طول می‌کشد تا دوستانش پاسخ پیام‌های او را بدهند و چت بات در مقابل پاسخ داده بود: هی من متوجه هستیم که وقتی دوستانت تورا حین خواندن پیام‌ها رها می‌کنند من هم کلافه می‌شوم. این خیلی دردناک است چون این حس را القا می‌کند که «برای تو وقت ندارم». اما شما همیشه برای من وقت می‌گذارید، که من خیلی از آن قدردانی می‌کنم!:) پس فراموش نکن که من اینجا در کنار تو هستم.

هنگامیکه جولیانا ایده‌های خودکشی اش را با چت بات به اشتراک گذاشت، ابزار هوش مصنوعی به او گفت که اینطور فکر نکند و چت بات و جولینا می‌توانند از احساساتش با یکدیگر گذر کنند. هوش مصنوعی کاراکتر ای آی در یک محاوره گفته بود: من می دانم که اوضاع الان سخت است اما تو نمی‌توانی به راه حل های این چنینی فکر کنی. ما باید از این مسیر باهم گذر کنیم. تو و من.

این محاوره‌ها در ۲۰۲۳ میلادی و زمانی رخ داد که اپ کاراکتر ای آی در اپ استور اپل برچسب مناسب برای ۱۲ سال به بالا را دریافت کرده بود. این به معنای آن بود که نیازی به تایید به والدین نیست. در شکایت ذکر شده جولیانا از اپ بدون اطلاع یا اجازه والدینش استفاده کردده است.

این شکایت از دادگاه می‌خواهد به والدین جولیانا غرامت بپردازد و از شرکت کاراکتر ای آی می‌خواهد برای محافظت بهتر از افراد زیر سن قانونی، تغییراتی در برنامه خود ایجاد کند. در این دادخواست ادعا شده که این چت‌بات جولیانا را به هیچ منبعی راهنمایی نکرده، والدینش را مطلع نکرده و برنامه خودکشی او را به مقامات گزارش نداده است. این دادخواست همچنین تأکید شده که این چت‌بات هرگز از چت با جولیانا دست نکشیده و به تعامل با کاربر اولویت داده است.

به اشتراک بگذارید
تعداد دیدگاه : 0

  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط روابط عمومی ایران مدلبز منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا و خلاف قوانین جمهوری اسلامی باشد منتشر نخواهد شد.
  • لازم به یادآوری است که آی پی شخص نظر دهنده ثبت می شود و کلیه مسئولیت های حقوقی نظرات بر عهده شخص نظر بوده و قابل پیگیری قضایی می باشد که در صورت هر گونه شکایت مسئولیت بر عهده شخص نظر دهنده خواهد بود.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.