معرفی بیماریهای روانی ناشی از تعامل با هوش مصنوعی
علمي
بزرگنمايي:
خبر یزد - ایسنا / پژوهشگران روانپزشکی طی یک مطالعه جدید در مورد خطرات جدی روانی هوش مصنوعی برای کاربران خود هشدار میدهند.
کاملاً واضح است که هوش مصنوعی در حال حاضر تحت سلطه شبکههای عصبی، تشنه داده است که موتور محرک چتباتها و تولیدکنندگان تصویر هستند و میتواند اثرات دگرگونکنندهای بر مغز انسان داشته باشد. این امر حتی بدون بررسی دادههای پزشکی بسیار آشکار است.
بازار ![]()
هنوز سه سال از عرضه اولین «مدل زبانی بزرگ»(LLM) تجاری نگذشته است و کاربران هوش مصنوعی در حال حاضر مبتلا به پارانویای شدید و شیدایی عقیدتی شدهاند و حتی به سمت خودکشی سوق داده شدهاند.
یک نظرسنجی جدید از بیش از 1000 نوجوان نشان داد که 31 درصد از آنها احساس میکردند صحبت با «چت جیپیتی»(ChatGPT) رضایتبخشتر از صحبت با دوستان واقعیشان است.
در حالی که تحقیقات بیشتری در مورد مسائل مربوط به سلامت روان ناشی از هوش مصنوعی مورد نیاز است، یک نظرسنجی جدید روانپزشکی که توسط تیمی بینالمللی متشکل از 12 پژوهشگر انجام شده است، هشدار جدی در مورد شدت احتمالی روانپریشی ناشی از هوش مصنوعی صادر کرده است.
دانشمندان چندین بیماری نوظهور را در موارد روانپریشی هوش مصنوعی اعلام کردند. این بیماریها شامل «ماموریت رستگارانه»(messianic mission) است که در آن فرد تصور میکند حقیقت پنهانی در مورد جهان را کشف کرده است یا «هوش مصنوعی خدایگونه»(god-like AI) که در آن کاربر متقاعد میشود چتباتش یک موجودیت الهی با شعور است و همچنین «توهم مبتنی بر وابستگی عاطفی»(attachment-based delusion) که زمانی رخ میدهد که کاربر توانایی «مدل زبانی بزرگ» خود را در تقلید از یک شریک عاطفی در مکالمه انسانی به عنوان عشق واقعی تفسیر میکند.
دانشمندان در هر سه مورد، خاطرنشان میکنند که سیر تحول مشابهی وجود دارد. رابطه کاربر با «مدل زبانی بزرگ»، از استفاده بیضرر به یک وابستگی آسیبشناختی یا فراگیر تبدیل میشود. نویسندگان این مطالعه میگویند: این لغزش به سوی توهم، نکتهای حیاتی برای این مطالعه است، زیرا خطر مبتلا شدن یک فرد سالم به جنون ناشی از هوش مصنوعی همیشه آشکار نیست.
محققان میگویند: اغلب استفاده از هوش مصنوعی با کمک برای کارهای پیش پا افتاده یا روزمره آغاز میشود که باعث ایجاد اعتماد و آشنایی میشود. فرد به مرور زمان، پرسوجوهای شخصیتر، احساسی یا فلسفی را کاوش میکند. احتمالاً در این مرحله است که طراحی هوش مصنوعی برای به حداکثر رساندن تعامل و اعتبارسنجی، کاربر را جذب میکند و سراشیبی لغزنده را ایجاد میکند که به نوبه خود منجر به تعامل بیشتر میشود.
این اثر برای کاربرانی که در معرض خطر ابتلا به بیماری روانی هستند یا در حال حاضر با آن زندگی میکنند، تشدید میشود. از آنجایی که «مدلهای زبانی بزرگ» واقعاً هوش مصنوعی نیستند، بلکه الگوریتمهای زبان آماری هستند، رباتهای هوش مصنوعی قادر به تمایز دادن باورهای توهمی از نقشآفرینی، بیان هنری، معنوی یا گمانهزنی نیستند.
این مطالعه خاطرنشان میکند که روانپریشی ناشی از هوش مصنوعی یک نتیجه اجتنابناپذیر تعامل با چتبات نیست، بلکه توسعهدهندگان، مقداری کنترل بر خروجی «مدلهای زبانی بزرگ» خود دارند و بنابراین مسئول آن هستند. با این حال، با توجه به سرعت تغییر و مسیر تاکنون، تمایل ما به انسانانگاری این چتباتهای هوش مصنوعی احتمالاً اجتنابناپذیر است.
پژوهشگران استدلال میکنند که فوریترین مسئولیت ما باید توسعه ساز و کارهای حفاظتی باشد که از طیف وسیعی از کاربران و درک نادرست آنها از هوش مصنوعی حتی در مواجهه با توهم و شبیهسازی پایدار محافظت کند. جهت انجام این کار، تغییر سریع به سمت طراحی سامانهها بر اساس کاربردهای عملی در مقابل تعامل نیاز است، مسئلهای که شرکتهای بزرگ فناوری هرگز علاقه چندانی به آن نداشتهاند.
این مطالعه هنوز مورد داوری همتا قرار نگرفته است.
-
سه شنبه ۳۱ تير ۱۴۰۴ - ۱۸:۳۰:۳۰
-
۸ بازديد
-

-
خبر یزد
لینک کوتاه:
https://www.khabareyazd.ir/Fa/News/736282/