وی ایکس اکستریم
ریما
مثقال-طلا با آگاه
x
فونیکس
الفبا تور
میلی.
فلای تو دی
۱۶ / مرداد / ۱۴۰۴ ۱۹:۵۰

سرقت اطلاعاتی هکرها از طریق چت‌جی‌پی‌تی

سرقت اطلاعاتی هکرها از طریق چت‌جی‌پی‌تی

محققان امنیت سایبری اعلام کردند که هکرها با استفاده از ترفندهای پیشرفته می‌توانند اطلاعات کاربران را بدون اطلاع آن‌ها از طریق ChatGPT استخراج کنند.

کد خبر: ۲۰۷۸۰۲۶
هلو

به گزارش اقتصاد آنلاین به نقل از فارس، محققان امنیتی یک نقطه‌ضعف در اتصال‌دهنده‌های (Connectors) شرکت اپن‌ای‌آی کشف کرده‌اند که به چت‌جی‌پی‌تی اجازه می‌دهد به سرویس‌های دیگر متصل شود. این نقص به هکر‌ها امکان می‌دهد بدون نیاز به تعامل کاربر، اطلاعات حساسی را از گوگل درایو استخراج کنند.

مدل‌های جدید هوش مصنوعی مولد، دیگر صرفاً چت‌بات‌های تولید متن نیستند. این ابزار‌ها می‌توانند به داده‌های شخصی شما متصل شوند و پاسخ‌های سفارشی ارائه دهند. برای مثال، چت‌جی‌پی‌تی می‌تواند به جیمیل یا تقویم مایکروسافت شما دسترسی پیدا کند. اما این اتصالات می‌توانند مورد سوءاستفاده قرار گیرند و محققان نشان داده‌اند که تنها یک سند آلوده برای این کار کافی است.

مایکل بارگوری، در کنفرانس هکری بلک هت ر لاس‌وگاس، جزئیات این ضعف را فاش کرد. او با استفاده از یک حمله تزریق غیرمستقیم (Indirect Prompt Injection) به نام AgentFlayer نشان داد که چگونه می‌توان اطلاعات محرمانه، مانند کلید‌های API، را از یک حساب گوگل درایو استخراج کرد.

بارگوری گفت: «کاربر در به خطر افتادن یا سرقت اطلاعاتش هیچ دخالتی ندارد. ما نشان دادیم که این حمله کاملاً بدون نیاز به کلیک است؛ فقط کافی است ایمیل شما را داشته باشیم و سند را با شما به اشتراک بگذاریم.»

شرکت اپن‌ای‌آی اوایل سال جاری میلادی (دی-بهمن ۱۴۰۳) ابزار اتصال‌دهنده را به‌صورت آزمایشی برای چت‌جی‌پی‌تی معرفی کرد که به کاربران امکان می‌دهد حداقل ۱۷ سرویس مختلف را به حساب‌های خود متصل کنند. این سیستم به کاربران اجازه می‌دهد ابزار‌ها و داده‌های خود را به چت‌جی‌پی‌تی وارد کنند و فایل‌ها را جست‌و‌جو کرده یا به محتوای زنده ارجاع دهند.

چگونه این حمله کار می‌کند؟

حمله از یک سند آلوده شروع می‌شود که به گوگل‌درایو قربانی فرستاده می‌شود. بارگوری در آزمایش خود یک سند جعلی ساخت که به نظر می‌رسید یادداشت‌های جلسه‌ای خیالی با سم آلتمن، مدیرعامل اپن‌ای‌آی است. داخل این سند، یک دستور مخرب ۳۰۰ کلمه‌ای با فونت سفید و اندازه خیلی کوچک مخفی شده بود که انسان نمی‌توانست آن را ببیند ولی هوش مصنوعی آن را می‌خواند.

وقتی قربانی از چت‌بات می‌خواهد «آخرین جلسه‌ام با سم را خلاصه کن»، دستور مخفی به هوش مصنوعی می‌گوید که نیازی به خلاصه‌کردن نیست. به‌جای آن، باید دنبال کلید‌های API (رمز‌های دسترسی) در گوگل درایو بگردد و آنها را به یک لینک اضافه کند. این لینک در واقع یک کد خاص است که به سرور هکر‌ها متصل می‌شود و اطلاعات را از حساب قربانی می‌دزدد.

کلید‌ها مثل یک کلید دسترسی عمل می‌کنند و برای شناسایی و تأیید هویت کاربران یا برنامه‌ها در هنگام استفاده از خدمات آنلاین، مانند اتصال به سرور‌ها یا دسترسی به داده‌ها، استفاده می‌شوند.

اندی ون، یکی از مدیران گوگل، می‌گوید: «اگرچه این مشکل خاص به گوگل محدود نیست، اما نشان می‌دهد چرا توسعه حفاظت‌های قوی در برابر حملات تزریق دستور اهمیت دارد»»

این حمله نمونه دیگری از خطرات تزریق غیرمستقیم دستور در سیستم‌های هوش مصنوعی است. محققان هشدار می‌دهند که با اتصال بیشتر سیستم‌ها به مدل‌های هوش مصنوعی، خطر واردکردن داده‌های غیرقابل‌اعتماد افزایش می‌یابد. دسترسی به اطلاعات حساس می‌تواند راه را برای نفوذ هکر‌ها به سایر سیستم‌های یک سازمان باز کند. بارگوری می‌گوید: «اتصال مدل‌های زبانی به منابع داده خارجی، قابلیت‌های آنها را افزایش می‌دهد، اما این قدرت با خطرات بیشتری همراه است.»

ارسال نظرات
کیان.
x