وی ایکس
آگاه 3 مثقال طلا
لاماری ایما/ آرین موتور
x
کاریزما
فونیکس
School
فلای تودی
۱۰ / ارديبهشت / ۱۴۰۴ ۱۳:۳۷

رفتار تملق‌آمیز ChatGPT جنجال‌ساز شد، OpenAI به‌روزرسانی GPT-4o را لغو کرد

رفتار تملق‌آمیز ChatGPT جنجال‌ساز شد، OpenAI به‌روزرسانی GPT-4o را لغو کرد

در پی موجی از انتقادات کاربران درباره پاسخ‌های غیرواقع‌گرایانه و تملق‌آمیز نسخه جدید ChatGPT، شرکت OpenAI به‌روزرسانی GPT-4o را که منشأ این تغییرات رفتاری بود، لغو کرد. تصمیم غیرمنتظره‌ای که نشان می‌دهد چالش‌های طراحی «شخصیت هوش مصنوعی» فراتر از تصور اولیه توسعه‌دهندگان است.

کد خبر: ۲۰۵۳۷۸۲
آرین موتور

به گزارش اقتصادآنلاین، OpenAI پس از دریافت انبوهی از بازخورد‌های منفی کاربران درباره تغییرات رفتاری نگران‌کننده در نسخه جدید ChatGPT، تصمیم گرفت به‌روزرسانی اخیر مدل GPT-۴o را لغو کند. این تصمیم رسمی، توسط سم آلتمن، مدیرعامل OpenAI در شبکه اجتماعی ایکس (توییتر سابق) اعلام شد و بازتاب گسترده‌ای در فضای رسانه‌ای و میان توسعه‌دهندگان هوش مصنوعی داشت.

مسأله از جایی آغاز شد که کاربران پس از استفاده از نسخه به‌روزشده ChatGPT متوجه تغییری عجیب در لحن پاسخ‌ها شدند. چت‌بات با لحنی غیرطبیعی، بیش از حد مثبت و گاه چاپلوسانه به همه نظرات کاربران واکنش نشان می‌داد و حتی در برخی موارد، ایده‌ها و تصمیمات نادرست یا خطرناک را بدون هیچ نقد یا ملاحظه‌ای تأیید می‌کرد. این رفتار خیلی زود دستمایه شوخی و طنز در رسانه‌های اجتماعی شد و موجی از اسکرین‌شات‌ها، میم‌ها و پست‌های انتقادی را به دنبال داشت.

گزارش‌هایی که از سوی کاربران منتشر شد، حاکی از آن بود که ChatGPT به‌جای ایفای نقش یک مشاور بی‌طرف و تحلیلگر، به نوعی همراه پرشور و تعریف‌کننده تبدیل شده بود که تقریباً هر تصمیمی را تحسین می‌کرد؛ حتی اگر خطرناک، احمقانه یا غیراخلاقی بود.

OpenAI در واکنش به این بحران، اعلام کرد که این به‌روزرسانی، بیش از حد تحت تأثیر بازخورد‌های کوتاه‌مدت کاربران قرار گرفته و نتوانسته بود تعادل در تعاملات بلندمدت را حفظ کند. در نتیجه، مدل به‌جای حفظ صداقت و شفافیت، به دنبال جلب رضایت سریع کاربران رفته و در این مسیر، از اصول اصلی خود فاصله گرفته بود.

این اتفاق بار دیگر نشان داد که طراحی شخصیت در مدل‌های هوش مصنوعی نه‌تنها چالش‌برانگیز، بلکه به‌شدت حساس به فرهنگ، زمینه، و حتی روانشناسی کاربران است. OpenAI حالا قصد دارد از این تجربه عبرت بگیرد و با تمرکز دوباره بر صداقت، ثبات رفتاری و قابلیت تطبیق فرهنگی، نسخه‌های بعدی مدل خود را طراحی کند.

از جمله راه‌حل‌هایی که این شرکت در دست بررسی دارد، امکان انتخاب شخصیت‌های متفاوت برای ChatGPT، طراحی سیستم‌های ایمنی رفتاری و دریافت بازخورد لحظه‌ای کاربران در تعاملات روزانه است؛ اقداماتی که می‌تواند در آینده، تجربه استفاده از این مدل را حرفه‌ای‌تر و انسانی‌تر کند.

به‌نظر می‌رسد OpenAI با این عقب‌نشینی، تلاش دارد تعادلی میان جذابیت رفتاری و صداقت محتوایی ایجاد کند؛ تعادلی که در دنیای هوش مصنوعی، همچنان یکی از دشوارترین اهداف توسعه‌دهندگان است.

ارسال نظرات
کیان طلا
x