خبر یزد - ایسنا / یک متخصص هوش مصنوعی در یک پژوهش جدید دریافت که رفع اختلال «توهم»(Hallucinations) در هوش مصنوعی ممکن است منجر به نابودی آن شود.
پژوهشگران شرکت «اوپن ایآی»(OpenAI) در پژوهشی جدید اعلام کردند که دلیل رواج «توهم» مدلهای هوش مصنوعی را کشف کردهاند. این پدیدهای است که در آن سامانههایی مانند «چتجیپیتی»(ChatGPT) با اطمینان ادعاهایی را مطرح میکنند که واقعیت ندارند. آنها دریافتند که نحوه ارزیابی خروجی «مدلهای زبانی بزرگ»(LLM) مانند «چتجیپیتی»، برای خوب امتحان دادن بهینه شدهاند و حدس زدن در مواقع عدم قطعیت، عملکرد امتحان را بهبود میبخشد. به زبان ساده، سازندگان هوش مصنوعی آنها را ترغیب میکنند به جای اینکه اعتراف کنند پاسخ را نمیدانند، آن را حدس بزنند.
بازار ![]()
«توهم» یا «توهم مصنوعی» در هوش مصنوعی، یک پاسخ مطمئن توسط هوش مصنوعی است که به نظر نمیرسد با دادههای آموزشی آن توجیه شود. توهم هوش مصنوعی یک خروجی هوش مصنوعی مولد است که بیمعنی یا کاملاً نادرست است، اما اغلب اوقات کاملاً قابل قبول به نظر میرسد. برای مثال، یک چتبات در پاسخ به سؤال میزان درآمد تسلا با «توهم» و بدون اطلاع از درآمد این شرکت ممکن است یک عدد تصادفی را مانند 13٫6 میلیارد دلار انتخاب کند. چتبات این پاسخ را قابل قبول میداند و به دروغ، مکرراً اصرار میکند که درآمد تسلا 13٫6 میلیارد دلار است و هیچ نشانهای از آگاهی داخلی مبنی بر اینکه این عدد، محصول تخیل خودش است، ندارد.
به نقل از فیوچریسم، این استراتژی ممکن است یک رویکرد خوب در یک امتحان باشد، اما هنگام ارائه توصیههای مهم در مورد موضوعاتی مانند مسائل پزشکی یا قانونی، بسیار خطرناک است.
شرکت «اوپن ایآی» ادعا میکند که یک راه حل ساده برای این چالش وجود دارد. این راهحل شامل تنظیم مجدد ارزیابیهاست، به گونهای که به خطاهای مطمئن امتیازی بیشتر از خطاهای نامطمئن بدهیم و به پاسخی با عدم اطمینان، امتیاز کمی بدهیم. با این حال، یک متخصص درباره این استراتژی هشدار میدهد، زیرا این رویکرد میتواند پیامدهای تجاری ویرانگری را به همراه داشته باشد.
«وی ژینگ»(Wei Xing)، سخنران «دانشگاه شفیلد»(Sheffield) و متخصص بهینهسازی هوش مصنوعی استدلال کرد: صنعت هوش مصنوعی از نظر اقتصادی، تشویق به انجام این تغییرات نخواهد شد، زیرا انجام این کار میتواند به طرز چشمگیری هزینهها را افزایش دهد. حتی اگر «چتجیپیتی» تنها 30 درصد مواقع اعتراف کند که پاسخ را نمیداند، کاربران به سرعت ناامید شده و سراغ سامانههای دیگری میروند. کاربرانی که به دریافت پاسخهای مطمئن به هر سؤالی عادت کردهاند، احتمالاً چنین سامانههایی را به سرعت رها خواهند کرد.
موضوع خطرناکتر، اعتراف مکرر هوش مصنوعی به این است که نمیتواند به یک سؤال با درجه اطمینان کافی پاسخ دهد. این موضوع میتواند کاربران را که به پاسخی با اطمینان بالا علاقه دارند، حتی اگر در نهایت پاسخ نادرست باشد، دلسرد کند. افزایش هزینهها در این مقطع میتواند بسیار زیانبار باشد. شرکتهای هوش مصنوعی سرمایهگذاریهای زیادی کردهاند و زیرساختها را برای اجرای مدلهایی که به طور فزایندهای نیازمند برق هستند، گسترش دادهاند. به عبارت دیگر، افزایش هزینههای عملیاتی سرسامآور میتواند یکی دیگر از موانع اصلی برای شرکتهایی مانند «اوپن ایآی» باشد، زیرا آنها در تلاش هستند تا به سرمایهگذاران اطمینان دهند که یک مدل تجاری عملی در بلندمدت وجود دارد.
«ژینگ» در پژوهش خود نوشت: مدلهای هوش مصنوعی در حالی که رویکردهای اثبات شدهای برای سنجش عدم قطعیت وجود دارد، ممکن است نیاز به محاسبات بسیار بیشتر داشته باشند، زیرا آنها باید چندین پاسخ ممکن را ارزیابی کرده و سطوح قطعیت را تخمین بزنند. این برای سامانهای که میلیونها پرسوجو را روزانه پردازش میکند، به معنای هزینههای عملیاتی بالاتری است. راهحلهای پیشنهادی این شرکت ممکن است برای «توهم» سامانههایی که عملیات تجاری حیاتی یا زیرساختهای اقتصادی را مدیریت میکنند کارساز باشد، زیرا هزینه «توهم» به مراتب از هزینه وادار کردن مدلها به تصمیمگیری در مورد قطعیت مطالب، فراتر میرود.
وی افزود: با این حال، برنامههای کاربردی مصرفکننده همچنان اولویتهای توسعه هوش مصنوعی را تشکیل میدهند. کاربران به سامانههایی نیاز دارند که پاسخهایی مطمئن را به هر سؤالی ارائه دهد.
رسیدن به پاسخی نامطمئن با سرعت بیشتر برای شرکتها کم هزینهتر است و میتواند انگیزه برای رویکردی دقیق و مطمئن را کاهش دهد. مشخص نیست که این روند با ادامه تغییر نیروهای بازار و یافتن راههای کارآمدتر توسط شرکتها برای اجرای مدلهای هوش مصنوعی خود، چگونه پیش خواهد رفت، اما یک مسئله بعید است که تغییر کند؛ حدس زدن همیشه یک گزینه به مراتب اقتصادیتر و مقرونبهصرفهتر برای این شرکتها خواهد بود.
«ژینگ» در پایان مطالعه خود نوشت: به طور خلاصه، پژوهش شرکت «اوپن ایآی»، ناخواسته یک حقیقت ناخوشایند را برجسته میکند؛ انگیزههای تجاری که توسعه هوش مصنوعی را هدایت میکنند، اساساً با کاهش «توهم» همسو نیستند و تا زمانی که این انگیزهها تغییر نکنند، این اختلال در سامانهها ادامه خواهد داشت.