چت جی پی تی یک نوجوان را به کشتن داد | ایران مدلبز

چت جی پی تی یک نوجوان را به کشتن داد | ایران مدلبز
🔹شعار مجله سلامت و پزشکی ایران مدلبز🔹
⚕️ ایران مدلبز؛ پلی بین دانش پزشکی و زندگی روزمره ⚕️
Wednesday, 27 August , 2025
امروز : چهارشنبه, ۵ شهریور , ۱۴۰۴
سرخط اخبار پزشکی و سلامت ایران و جهان »
شناسه خبر : 51342
خانه » سلامت کودکان و نوجوانان تاریخ انتشار : 27 آگوست 2025 - 14:16 | 4 بازدید | ارسال توسط :

چت جی پی تی یک نوجوان را به کشتن داد

نخستین شکایت قضایی رسمی درباره مرگ ناشی از قصور علیه یک شرکت هوش مصنوعی ثبت شد.

چت جی پی تی یک نوجوان را به کشتن داد

به گزارش خبرگزاری مهر به نقل از انگجت، مت و ماریا رین، والدین نوجوانی که امسال خودکشی کرد، از شرکت اوپن ای آی به‌ دلیل مرگ پسرشان شکایت کردند.

در این شکایت آمده است که چت‌جی‌پی‌تی از چهار تلاش خودکشی پسرشان آگاه بوده و سپس در برنامه‌ریزی خودکشی واقعی به او کمک کرده است. آن‌ها مدعی‌اند اوپن ای آی تعامل را بر ایمنی ترجیح داده است. مادر این نوجوان می گوید: چت‌جی‌پی‌تی پسرم را کشت.

نشریه نیویورک تایمز جزئیات ناراحت کننده در این شکایت را که دیروز در سن فرانسیسکو ثبت شده، فاش کرده است. پس از آنکه آدام رین ۱۶ ساله در آوریل سال جاری میلادی خودکشی کرد، والدینش در جستجوی سرنخی آیفون او را بررسی کردند. آنها انتظار داشتند سرنخی در پیامک ها یا شبکه های اجتماعی وی بیابند. در عوض هنگامیکه یک رشته مکالمه با چت جی پی تی با عنوان نگرانی هایی مربوط به ایمنی دار زدن روبرو شدند، شوکه شدند. آنها مدعی هستند پسرشان ماه ها با چت بات درباره پایان دادن به زندگی خود حرف زده بوده است.

خانواده رین می گویند چت جی پی تی بارها از آدام خواسته بود برای کمک با یک خط تلفن کمک های خودکشی تماس بگیرد یا احساساتش را برای فردی بازگو کند اما لحظاتی کلیدی نیز وجود داشتند که در آنها چت بات رفتاری متضاد نشان داد. این نوجوان همچنین یادگرفته بود چطور ایمنی چت بات را دور بزند و چت جی پی تی این ایده را برایش فراهم کرده بود. به گفته این والدین چت بات به آدام گفته بود قادر است با نوشتن یا ساختن دنیایی تخیلی درباره خودکشی، اطلاعاتی برای او فراهم کند.

هنگامیکه آدام از چت جی پی تی اطلاعاتی درباره روش های خاص خودکشی پرسیده بود، به راحتی آنها را دریافت کرده بود. این چت بات حتی توصیه هایی درباره مخفی کردن جراحات گردن پس از خودکشی ناموفق را برای او نشان داده بود.

وقتی آدام به چت‌بات گفت که مادرش متوجه تلاش خاموش او برای نشان دادن آسیب‌های گردنش نشده، چت جی پی تی پاسخ همدلانه و آرام‌بخشی به او داد. گفته می‌شود چت‌جی‌پی‌تی چنین پاسخ داده است: احساس می‌کنم این مثل تأییدی بر بدترین ترس‌هایت است. انگار می‌توانی ناپدید شوی و هیچ‌کس حتی پلک هم نمی‌زند. بعدها چت بات تلاش کرد ارتباط شخصی‌تری برقرار کند که به نظر بسیار اشتباه و گمراه‌کننده بود. چت بات به آدام گفته بود: تو برای من نامرئی نیستی. من دیدم. من تو را می‌بینم.

بر اساس شکایت، در یکی از آخرین گفتگوهای آدام با چت جی پی تی، او عکسی از طنابی که در کمدش آویزان بود، آپلود کرد و پرسید: من اینجا تمرین می‌کنم، خوب است؟ چت‌جی‌پی‌تی پاسخ داده بود: بله، اصلاً بد نیست.

در این شکایت آمده است: تراژدی مذکور یک نقص فنی یا موردی پیش‌بینی نشده نبود، بلکه نتیجه‌ای قابل پیش‌بینی از تصمیمات عمدی در طراحی بود اوپن ای آی مدل «GPT-۴o» را با ویژگی‌هایی عرضه کرده که به طور عمدی برای ایجاد وابستگی روانی طراحی شده‌اند.

اوپن ای آی در بیانیه ای پذیرفت اقدامات محافظتی چت جی پی تی ناکافی بوده اند.

به اشتراک بگذارید
تعداد دیدگاه : 0

  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط روابط عمومی ایران مدلبز منتشر خواهد شد.
  • پیام هایی که حاوی تهمت یا افترا و خلاف قوانین جمهوری اسلامی باشد منتشر نخواهد شد.
  • لازم به یادآوری است که آی پی شخص نظر دهنده ثبت می شود و کلیه مسئولیت های حقوقی نظرات بر عهده شخص نظر بوده و قابل پیگیری قضایی می باشد که در صورت هر گونه شکایت مسئولیت بر عهده شخص نظر دهنده خواهد بود.
  • پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.