هوش مصنوعی کمتر از انسانها هذیانگویی میکند
علمي
بزرگنمايي:
خبر یزد - زومیت / مدیرعامل انتروپیک ادعا میکند هوش مصنوعی کمتر از انسانها دچار هذیانگویی و توهم میشود.
داریو آمودی، مدیرعامل انتروپیک، مدعی است مدلهای هوش مصنوعی امروزی کمتر از انسانها دچار «توهم» یا تولید اطلاعات نادرست اما بهظاهر واقعی میشوند.
توهم یا هذیانگویی (Hallucinate)، بدین معنی است که هوش مصنوعی با اطمینان کامل اطلاعات اشتباه را در قالب اطلاعات درست ارائه میدهد.
آمودی اظهاراتش را بهعنوان بخشی از دیدگاهی گستردهتر دربارهی مسیر رسیدن به هوش مصنوعی انسانگونه (AGI) بیان کرد. بهگفتهی او، «همهچیز به معیار اندازهگیری بستگی دارد؛ اما احتمال میدهم مدلهای هوش مصنوعی کمتر از انسانها دچار توهم شوند؛ البته توهم آنها غیرمنتظرهتر است.»
مدیرعامل انتروپیک یکی از خوشبینترین چهرهها در صنعت هوش مصنوعی نسبتبه تحقق AGI بهشمار میرود. او سال گذشته در مقالهای که بازتاب گستردهای داشت، پیشبینی کرد که AGI میتواند تا سال 2026 محقق شود. در نشست خبری اخیر او با اشاره به پیشرفت مداوم مدلها، اظهار داشت که «سطح آب در حال بالا آمدن است»؛ کنایهای به بهبود همهجانبهی تواناییهای سیستمهای هوش مصنوعی.
آمودی گفت: «همه همیشه دنبال موانعی هستند که جلوی پیشرفت [هوش مصنوعی] را بگیرد؛ چنین چیزی وجود ندارد.»
دیگر فعالان حوزهی هوش مصنوعی دیدگاه متفاوتی دارند. دِمیس هاسابیس، مدیرعامل گوگل دیپمایند، اوایل همین هفته در اظهارنظری اعلام کرد که مدلهای امروزی «پر از حفره» هستند و در پاسخگویی به بسیاری از پرسشهای بدیهی اشتباه میکنند. نمونهی بارز، پروندهی حقوقی اخیر انتروپیک است که در آن، وکیل شرکت بهخاطر استفاده از هوش مصنوعی Claude در تهیهی استنادهای حقوقی مجبور به عذرخواهی شد؛ چون نام و عنوانها را اشتباه تولید کرده بود.
سنجش ادعای آمودی دشوار است؛ چون اغلب معیارهای اندازهگیری توهم، مدلهای هوش مصنوعی را با یکدیگر مقایسه میکنند و عملکردشان را در برابر انسانها نمیسنجند. برخی راهکارها مانند دسترسی مستقیم مدلها به جستوجوی وب توانستهاند نرخ خطا را کاهش دهند.
از سوی دیگر، بعضی مدلها مثل GPT-4.5 در آزمونها، نرخ توهم پایینتری نسبتبه نسلهای اولیه دارند. دادههایی وجود دارد که نشان میدهند مدلهای پیشرفتهتر در استدلال، گاهی عملکرد ضعیفتری از نسلهای قبلی دارند؛ بهطور خاص، مدلهای o3 و o4-mini، نرخ توهم بالاتری نسبتبه مدلهای قبلی نشان دادند و حتی خود OpenAI هم علت این موضوع را نمیداند.
در بخش پایانی نشست، آمودی با اشاره به اشتباهاتی که از سوی مجریهای تلویزیونی، سیاستمداران و افراد شاغل در حرفههای گوناگون رخ میدهد، خاطرنشان کرد که خطای مدلهای هوش مصنوعی لزوماً نشانهی ضعف در هوشمندی آنها نیست؛ هرچند گفت که نحوهی ارائهی اطلاعات نادرست توسط مدلها ــ با قطعیت و اطمینان کامل ــ میتواند چالشی جدی بهحساب بیاید.
بازار ![]()
-
جمعه ۲ خرداد ۱۴۰۴ - ۱۹:۰۵:۱۸
-
۲ بازديد
-

-
خبر یزد
لینک کوتاه:
https://www.khabareyazd.ir/Fa/News/725672/