چهارشنبه ۲۶ شهريور ۱۴۰۴

علمی

هوش مصنوعی بدون اختلال «توهم» از بین می‌رود!

هوش مصنوعی بدون اختلال «توهم» از بین می‌رود!
خبر یزد - ایسنا / یک متخصص هوش مصنوعی در یک پژوهش جدید دریافت که رفع اختلال «توهم»(Hallucinations) در هوش مصنوعی ممکن است منجر به نابودی آن شود. پژوهشگران شرکت «اوپن ...
  بزرگنمايي:

خبر یزد - ایسنا / یک متخصص هوش مصنوعی در یک پژوهش جدید دریافت که رفع اختلال «توهم»(Hallucinations) در هوش مصنوعی ممکن است منجر به نابودی آن شود.
پژوهشگران شرکت «اوپن ای‌آی»(OpenAI) در پژوهشی جدید اعلام کردند که دلیل رواج «توهم» مدل‌های هوش مصنوعی را کشف کرده‌اند. این پدیده‌ای است که در آن سامانه‌هایی مانند «چت‌جی‌پی‌تی»(ChatGPT) با اطمینان ادعاهایی را مطرح می‌کنند که واقعیت ندارند. آنها دریافتند که نحوه ارزیابی خروجی «مدل‌های زبانی بزرگ»(LLM) مانند «چت‌جی‌پی‌تی»، برای خوب امتحان دادن بهینه شده‌اند و حدس زدن در مواقع عدم قطعیت، عملکرد امتحان را بهبود می‌بخشد. به زبان ساده، سازندگان هوش مصنوعی آنها را ترغیب می‌کنند به جای اینکه اعتراف کنند پاسخ را نمی‌دانند، آن را حدس بزنند.
بازار
«توهم» یا «توهم مصنوعی» در هوش مصنوعی، یک پاسخ مطمئن توسط هوش مصنوعی است که به نظر نمی‌رسد با داده‌های آموزشی آن توجیه شود. توهم هوش مصنوعی یک خروجی هوش مصنوعی مولد است که بی‌معنی یا کاملاً نادرست است، اما اغلب اوقات کاملاً قابل قبول به نظر می‌رسد. برای مثال، یک چت‌بات در پاسخ به سؤال میزان درآمد تسلا با «توهم‌» و بدون اطلاع از درآمد این شرکت ممکن است یک عدد تصادفی را مانند 13٫6 میلیارد دلار انتخاب کند. چت‌بات این پاسخ را قابل قبول می‌داند و به دروغ، مکرراً اصرار می‌کند که درآمد تسلا 13٫6 میلیارد دلار است و هیچ نشانه‌ای از آگاهی داخلی مبنی بر اینکه این عدد، محصول تخیل خودش است، ندارد.
به نقل از فیوچریسم، این استراتژی ممکن است یک رویکرد خوب در یک امتحان باشد، اما هنگام ارائه توصیه‌های مهم در مورد موضوعاتی مانند مسائل پزشکی یا قانونی، بسیار خطرناک است.
شرکت «اوپن ای‌آی» ادعا می‌کند که یک راه حل ساده برای این چالش وجود دارد. این راه‌حل شامل تنظیم مجدد ارزیابی‌هاست، به گونه‌ای که به خطاهای مطمئن امتیازی بیشتر از خطاهای نامطمئن بدهیم و به پاسخی با عدم اطمینان، امتیاز کمی بدهیم. با این حال، یک متخصص درباره این استراتژی هشدار می‌دهد، زیرا این رویکرد می‌تواند پیامدهای تجاری ویرانگری را به همراه داشته باشد.
«وی ژینگ»(Wei Xing)، سخنران «دانشگاه شفیلد»(Sheffield) و متخصص بهینه‌سازی هوش مصنوعی استدلال کرد: صنعت هوش مصنوعی از نظر اقتصادی، تشویق به انجام این تغییرات نخواهد شد، زیرا انجام این کار می‌تواند به طرز چشمگیری هزینه‌ها را افزایش دهد. حتی اگر «چت‌جی‌پی‌تی» تنها 30 درصد مواقع اعتراف کند که پاسخ را نمی‌داند، کاربران به سرعت ناامید شده و سراغ سامانه‌های دیگری می‌روند. کاربرانی که به دریافت پاسخ‌های مطمئن به هر سؤالی عادت کرده‌اند، احتمالاً چنین سامانه‌هایی را به سرعت رها خواهند کرد.
موضوع خطرناک‌تر، اعتراف مکرر هوش مصنوعی به این است که نمی‌تواند به یک سؤال با درجه اطمینان کافی پاسخ دهد. این موضوع می‌تواند کاربران را که به پاسخی با اطمینان بالا علاقه دارند، حتی اگر در نهایت پاسخ نادرست باشد، دلسرد کند. افزایش هزینه‌ها در این مقطع می‌تواند بسیار زیان‌بار باشد. شرکت‌های هوش مصنوعی سرمایه‌گذاری‌های زیادی کرده‌اند و زیرساخت‌ها را برای اجرای مدل‌هایی که به طور فزاینده‌ای نیازمند برق هستند، گسترش داده‌اند. به عبارت دیگر، افزایش هزینه‌های عملیاتی سرسام‌آور می‌تواند یکی دیگر از موانع اصلی برای شرکت‌هایی مانند «اوپن ای‌آی» باشد، زیرا آنها در تلاش هستند تا به سرمایه‌گذاران اطمینان دهند که یک مدل تجاری عملی در بلندمدت وجود دارد.
«ژینگ» در پژوهش خود نوشت: مدل‌های هوش مصنوعی در حالی که رویکردهای اثبات شده‌ای برای سنجش عدم قطعیت وجود دارد، ممکن است نیاز به محاسبات بسیار بیشتر داشته باشند، زیرا آنها باید چندین پاسخ ممکن را ارزیابی کرده و سطوح قطعیت را تخمین بزنند. این برای سامانه‌ای که میلیون‌ها پرس‌وجو را روزانه پردازش می‌کند، به معنای هزینه‌های عملیاتی بالاتری است. راه‌حل‌های پیشنهادی این شرکت ممکن است برای «توهم» سامانه‌هایی که عملیات تجاری حیاتی یا زیرساخت‌های اقتصادی را مدیریت می‌کنند کارساز باشد، زیرا هزینه «توهم» به مراتب از هزینه وادار کردن مدل‌ها به تصمیم‌گیری در مورد قطعیت مطالب، فراتر می‌رود.
وی افزود: با این حال، برنامه‌های کاربردی مصرف‌کننده همچنان اولویت‌های توسعه هوش مصنوعی را تشکیل می‌دهند. کاربران به سامانه‌هایی نیاز دارند که پاسخ‌هایی مطمئن را به هر سؤالی ارائه دهد.
رسیدن به پاسخی نامطمئن‌ با سرعت بیشتر برای شرکت‌ها کم هزینه‌تر است و می‌تواند انگیزه برای رویکردی دقیق‌ و مطمئن را کاهش دهد. مشخص نیست که این روند با ادامه تغییر نیروهای بازار و یافتن راه‌های کارآمدتر توسط شرکت‌ها برای اجرای مدل‌های هوش مصنوعی خود، چگونه پیش خواهد رفت، اما یک مسئله بعید است که تغییر کند؛ حدس زدن همیشه یک گزینه به مراتب اقتصادی‌تر و مقرون‌به‌صرفه‌تر برای این شرکت‌ها خواهد بود.
«ژینگ» در پایان مطالعه خود نوشت: به طور خلاصه، پژوهش شرکت «اوپن ای‌آی»، ناخواسته یک حقیقت ناخوشایند را برجسته می‌کند؛ انگیزه‌های تجاری که توسعه هوش مصنوعی را هدایت می‌کنند، اساساً با کاهش «توهم» همسو نیستند و تا زمانی که این انگیزه‌ها تغییر نکنند، این اختلال در سامانه‌ها ادامه خواهد داشت.


نظرات شما