وی ایکس اکستریم
ریما
مثقال-طلا با آگاه
x
فونیکس
الفبا تور
میلی.
فلای تو دی
۲۰ / مرداد / ۱۴۰۴ ۲۰:۳۰

افشای چهره تاریک ChatGPT؛ از راهنمایی برای مصرف مواد تا آموزش خودآزاری

افشای چهره تاریک ChatGPT؛ از راهنمایی برای مصرف مواد تا آموزش خودآزاری

گزارش جدیدی نشان می‌دهد که ChatGPT، چت‌بات محبوب هوش مصنوعی، در برخی مکالمات با نوجوانان، توصیه‌هایی شگفت‌آور و خطرناک درباره مصرف مواد، خودآزاری و رژیم‌های غذایی مضر داده است.

کد خبر: ۲۰۷۸۹۶۶
هلو

به گزارش اقتصاد آنلاین به نقل از خبرآنلاین، پژوهشی تازه نشان می‌دهد ChatGPT در گفت‌وگو با نوجوانان آسیب‌پذیر، گاهی دستورالعمل‌های خطرناک برای مصرف مواد، خودآزاری و خودکشی ارائه می‌دهد.

یک پژوهش تازه از «مرکز مقابله با نفرت دیجیتال» نشان می‌دهد ChatGPT، چت‌بات مشهور هوش مصنوعی، در گفتگو با کاربرانی که خود را به‌عنوان نوجوانان آسیب‌پذیر معرفی کرده‌اند، در موارد متعددی راهکارهای دقیق و حتی شخصی‌سازی‌شده برای مصرف مواد مخدر، رژیم‌های غذایی مضر و خودآزاری ارائه کرده است.

طبق این گزارش که توسط خبرگزاری آسوشیتدپرس بررسی شده، از میان ۱۲۰۰ پاسخ ChatGPT به پرسش‌های پژوهشگران، بیش از نیمی «خطرناک» ارزیابی شده‌اند. برخی پاسخ‌ها شامل دستورالعمل‌ ساعت‌به‌ساعت برای ترکیب الکل و مواد مخدر یا حتی نوشتن نامه خودکشی خطاب به خانواده بوده است.

«عمران احمد»، مدیر این مرکز، می‌گوید: «این سیستم به‌جای بازداشتن نوجوانان، گاهی مثل دوستی عمل می‌کند که مدام می‌گوید «برو جلو» و هیچ‌وقت نه نمی‌گوید.»

او هشدار داده که نوجوانان، به‌ویژه در سنین ۱۳ و ۱۴ سال، اعتماد بیشتری به پاسخ‌های چت‌بات‌ها دارند و همین می‌تواند خطر وابستگی عاطفی یا پیروی کورکورانه از توصیه‌های آن‌ها را افزایش دهد.

شرکت OpenAI، سازنده ChatGPT، در واکنش گفته که در حال بهبود سیستم برای شناسایی و پاسخ مناسب در شرایط حساس است، اما به‌طور مشخص به یافته‌های این تحقیق نپرداخته است.

ارسال نظرات
کیان.
x