امروز : چهارشنبه, ۱ مرداد , ۱۴۰۴
- موج تماسهای هواداران برای جلوگیری از حضور آلکثیر در استقلال
- ستارههای پرسپولیس خرید جدید استقلال را آنفالو کردند!
- مرحله سوم واریز یارانه مادران باردار آغاز شد
- شروع طرح تعریض بزرگراه آیتالله سعیدی در تهران
- جذب ۷۴ درصدی اعتبارات عمرانی خوزستان تا پایان تیرماه
- رودخانه کارون دیگر توان برداشت از سرشاخهها را ندارد
- تربیت نیروی انسانی ماهر کلید توسعه پایدار استان و کشور
- توقیف خودروی حامل چوب قاچاق در کردکوی
- امدادرسانی گسترده در حادثه حریق مجتمع ونوس انزلی؛ تیمها در آمادهباش
- نمازجمعه رسانه مردم و تریبون گفتمان انقلاب
- توضیحات رئیس قوه قضاییه درباره حمله به اوین
- انفجار در یک واحد مسکونی در بلوار بعثت قم؛ ۵ نفر مصدوم شدند
- حادثه انفجار گاز در قم به ۷ مصدوم افزایش یافت
- علیرضا فغانی: من طبق پروتکلها اقدام کردم، کار دیگری نمیتوانستم کنم
- واگذاری مابقی سهام استقلال و پرسپولیس: قیمتهای جدید اعلام شد
- توصیه جالب AFC به حریفان دختران تیم ملی فوتبال ایران!
- استقلال بین هوادارانش بمب منفجر کرد!
- واکنش باشگاه استقلال به شایعه جدایی حسینی
معرفی بیماریهای روانی ناشی از تعامل با هوش مصنوعی
پژوهشگران روانپزشکی طی یک مطالعه جدید در مورد خطرات جدی روانی هوش مصنوعی برای کاربران خود هشدار میدهند.

به نقل از فیوچریسم، هنوز سه سال از عرضه اولین «مدل زبانی بزرگ»(LLM) تجاری نگذشته است و کاربران هوش مصنوعی در حال حاضر مبتلا به پارانویای شدید و شیدایی عقیدتی شدهاند و حتی به سمت خودکشی سوق داده شدهاند.
یک نظرسنجی جدید از بیش از ۱۰۰۰ نوجوان نشان داد که ۳۱ درصد از آنها احساس میکردند صحبت با «چت جیپیتی»(ChatGPT) رضایتبخشتر از صحبت با دوستان واقعیشان است.
در حالی که تحقیقات بیشتری در مورد مسائل مربوط به سلامت روان ناشی از هوش مصنوعی مورد نیاز است، یک نظرسنجی جدید روانپزشکی که توسط تیمی بینالمللی متشکل از ۱۲ پژوهشگر انجام شده است، هشدار جدی در مورد شدت احتمالی روانپریشی ناشی از هوش مصنوعی صادر کرده است.
دانشمندان چندین بیماری نوظهور را در موارد روانپریشی هوش مصنوعی اعلام کردند. این بیماریها شامل «ماموریت رستگارانه»(messianic mission) است که در آن فرد تصور میکند حقیقت پنهانی در مورد جهان را کشف کرده است یا «هوش مصنوعی خدایگونه»(god-like AI) که در آن کاربر متقاعد میشود چتباتش یک موجودیت الهی با شعور است و همچنین «توهم مبتنی بر وابستگی عاطفی»(attachment-based delusion) که زمانی رخ میدهد که کاربر توانایی «مدل زبانی بزرگ» خود را در تقلید از یک شریک عاطفی در مکالمه انسانی به عنوان عشق واقعی تفسیر میکند.
دانشمندان در هر سه مورد، خاطرنشان میکنند که سیر تحول مشابهی وجود دارد. رابطه کاربر با «مدل زبانی بزرگ»، از استفاده بیضرر به یک وابستگی آسیبشناختی یا فراگیر تبدیل میشود. نویسندگان این مطالعه میگویند: این لغزش به سوی توهم، نکتهای حیاتی برای این مطالعه است، زیرا خطر مبتلا شدن یک فرد سالم به جنون ناشی از هوش مصنوعی همیشه آشکار نیست.
محققان میگویند: اغلب استفاده از هوش مصنوعی با کمک برای کارهای پیش پا افتاده یا روزمره آغاز میشود که باعث ایجاد اعتماد و آشنایی میشود. فرد به مرور زمان، پرسوجوهای شخصیتر، احساسی یا فلسفی را کاوش میکند. احتمالاً در این مرحله است که طراحی هوش مصنوعی برای به حداکثر رساندن تعامل و اعتبارسنجی، کاربر را جذب میکند و سراشیبی لغزنده را ایجاد میکند که به نوبه خود منجر به تعامل بیشتر میشود.
این اثر برای کاربرانی که در معرض خطر ابتلا به بیماری روانی هستند یا در حال حاضر با آن زندگی میکنند، تشدید میشود. از آنجایی که «مدلهای زبانی بزرگ» واقعاً هوش مصنوعی نیستند، بلکه الگوریتمهای زبان آماری هستند، رباتهای هوش مصنوعی قادر به تمایز دادن باورهای توهمی از نقشآفرینی، بیان هنری، معنوی یا گمانهزنی نیستند.
این مطالعه خاطرنشان میکند که روانپریشی ناشی از هوش مصنوعی یک نتیجه اجتنابناپذیر تعامل با چتبات نیست، بلکه توسعهدهندگان، مقداری کنترل بر خروجی «مدلهای زبانی بزرگ» خود دارند و بنابراین مسئول آن هستند. با این حال، با توجه به سرعت تغییر و مسیر تاکنون، تمایل ما به انسانانگاری این چتباتهای هوش مصنوعی احتمالاً اجتنابناپذیر است.
پژوهشگران استدلال میکنند که فوریترین مسئولیت ما باید توسعه ساز و کارهای حفاظتی باشد که از طیف وسیعی از کاربران و درک نادرست آنها از هوش مصنوعی حتی در مواجهه با توهم و شبیهسازی پایدار محافظت کند. جهت انجام این کار، تغییر سریع به سمت طراحی سامانهها بر اساس کاربردهای عملی در مقابل تعامل نیاز است، مسئلهای که شرکتهای بزرگ فناوری هرگز علاقه چندانی به آن نداشتهاند.
این مطالعه هنوز مورد داوری همتا قرار نگرفته است.
- دیدگاه های ارسال شده توسط شما، پس از تایید توسط روابط عمومی ایران مدلبز منتشر خواهد شد.
- پیام هایی که حاوی تهمت یا افترا و خلاف قوانین جمهوری اسلامی باشد منتشر نخواهد شد.
- لازم به یادآوری است که آی پی شخص نظر دهنده ثبت می شود و کلیه مسئولیت های حقوقی نظرات بر عهده شخص نظر بوده و قابل پیگیری قضایی می باشد که در صورت هر گونه شکایت مسئولیت بر عهده شخص نظر دهنده خواهد بود.
- پیام هایی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.