×
اطلاعات تماس
سرویس ها
true
true

خبر فوری

false
false
true
هوش مصنوعی «کلود» آنتروپیک قابلیت پایان دادن به مکالمات نگران‌کننده را کسب کرد

شرکت آنتروپیک با معرفی جدیدترین ویژگی مدل هوش مصنوعی «کلود»، امکان پایان دادن به مکالمات مضر و اضطراب‌آور را فراهم کرده است. این قابلیت به‌ویژه در مواقعی که تعاملات کاربر به طور مداوم توهین‌آمیز یا خطرناک باشند، به کار خواهد رفت.

به گزارش منشور اقتصاد- جدیدترین ویژگی شرکت «آنتروپیک» برای مدل هوش مصنوعی «کلود» می‌تواند آغازی بر پایان دستکاری هوش مصنوعی باشد، چرا که این شرکت در پستی در وب‌سایت خود اعلام کرد که مدل‌های «Claude Opus 4» و «4.1 Claude Opus » اکنون قدرت پایان دادن به مکالمه با کاربران را دارند.

به گفته آنتروپیک، این ویژگی فقط در موارد نادر و شدید تعاملات کاربر که به طور مداوم مضر یا توهین‌آمیز هستند، استفاده خواهد شد.

به نقل از انگجت، برای روشن شدن موضوع، آنتروپیک گفت که این دو مدل «کلود» می‌توانند از مکالمات مضر، مانند درخواست‌های کاربران برای محتوای جنسی شامل افراد زیر سن قانونی و تلاش برای درخواست اطلاعاتی که امکان خشونت یا اقدامات تروریستی در مقیاس بزرگ را فراهم می‌کند، خارج شوند.

طبق گفته‌ آنتروپیک، این مدل‌ها تنها زمانی به یک مکالمه پایان می‌دهند که به عنوان آخرین راه حل، تلاش‌های متعدد برای تغییر مسیر ناموفق بوده و امید به یک تعامل سازنده از بین رفته باشد.

با این حال، آنتروپیک ادعا می‌کند که اکثر کاربران حتی هنگام صحبت در مورد موضوعات بسیار بحث‌برانگیز، شاهد قطع مکالمه توسط «کلود» نخواهند بود، زیرا این ویژگی برای «موارد بسیار حساس» در نظر گرفته شده است.

گفتنی است که در سناریوهایی که «کلود» یک چت را پایان می‌دهد، کاربران دیگر نمی‌توانند هیچ پیام جدیدی در آن مکالمه ارسال کنند، اما می‌توانند بلافاصله یک پیام جدید شروع کنند.

آنتروپیک افزود که اگر یک مکالمه پایان یابد، بر سایر چت‌ها تأثیری نخواهد گذاشت و کاربران حتی می‌توانند به عقب برگردند و پیام‌های قبلی را ویرایش یا دوباره امتحان کنند تا به مسیر مکالمه‌ دیگری هدایت شوند.

این اقدام برای آنتروپیک، بخشی از یک برنامه‌ تحقیقاتی است که ایده‌ رفاه هوش مصنوعی را مطالعه می‌کند. در حالی که ایده انسان‌انگاری مدل‌های هوش مصنوعی همچنان یک بحث مداوم است، این شرکت اعلام کرد که توانایی خروج از یک تعامل بالقوه ناراحت‌کننده، راهی کم‌هزینه برای مدیریت خطرات برای رفاه هوش مصنوعی است.

شایان ذکر است که آنتروپیک هنوز در حال آزمایش این ویژگی است و کاربران خود را تشویق می‌کند تا هنگام مواجهه با چنین سناریویی، بازخورد خود را ارائه دهند.

false
false
false
false

شما هم می توانید دیدگاه خود را ثبت کنید

- کامل کردن گزینه های ستاره دار (*) الزامی است
- آدرس پست الکترونیکی شما محفوظ بوده و نمایش داده نخواهد شد