دیده بان پیشرفت علم، فناوری و نوآوری

«چت جی‌پی‌تی» را می‌توان برای تولید کد‌های مخرب گول زد!

«چت جی‌پی‌تی» را می‌توان برای تولید کد‌های مخرب گول زد!
تیمی از محققان معتقد هستند که برنامه‌های هوش مصنوعی مانند «چت جی‌پی‌تی» می‌توانند برای تولید دستورات مضر و حمله به سیستم‌های کامپیوتری در دنیای واقعی مورد سوءاستفاده قرار گیرند.
کد خبر : 875618

به گزارش خبرگزاری علم و فناوری آنا به نقل از گاردین، تیمی از محققان معتقد هستند که برنامه‌های هوش مصنوعی مانند «چت جی‌پی‌تی» (ChatGPT) می‌توانند برای تولید دستورات مضر و حمله به سیستم‌های کامپیوتری در دنیای واقعی مورد سوءاستفاده قرار گیرند.

«زوتان پنگ»، دانشجوی دکتری و یکی از رهبران این گروه گفت: در واقعیت، بسیاری از شرکت‌ها از این نوع تهدیدات آگاه نیستند و به دلیل پیچیدگی ربات‌های گفت‌وگو، حتی در داخل جامعه نکاتی وجود دارد که به‌طور کامل درک نشده‌اند. چت جی‌پی‌تی توجه زیادی را به خود جلب کرده است، اما آنچه دریافتیم این است که می‌توان آن را فریب داد تا کد مخربی تولید کند که می‌تواند به سایر سرویس‌ها آسیب جدی وارد کند.

این تیم تست‌های آسیب‌پذیری را روی سیستم‌های «تکست تو آس‌کیوال» (Text-to-SQL) انجام دادند که معمولاً برای ایجاد رابط‌های زبان طبیعی برای پایگاه‌های داده استفاده می‌شوند. تکست تو آس‌کیوال تکنیکی است که به‌طور خودکار یک سؤال در زبان انسانی را به یک عبارت ترجمه می‌کند.

بر اساس بیانیه مطبوعاتی دانشگاه، این تیم دریافت که برنامه‌های کاربردی هوش مصنوعی را می‌توان برای تولید کد‌های مخرب فریب داد که می‌تواند برای انجام حملات سایبری مورداستفاده قرار گیرد.

این تیم قادر به سرقت اطلاعات شخصی حساس، دست‌کاری در پایگاه داده‌ها و از بین بردن سرویس‌ها از طریق حملات سایبری بود. پنگ توضیح داد که اگرچه بسیاری از مردم از چت جی‌پی‌تی به‌عنوان یک ابزار مکالمه استفاده می‌کنند، اکثریت قریب به اتفاق کاربران از آن به‌عنوان یک ابزار بهره‌وری استفاده می‌کنند. به‌عنوان‌مثال، یک پرستار می‌تواند از چت جی‌پی‌تی بخواهد که یک دستور بنویسد تا بتواند با یک پایگاه داده تعامل داشته باشد، مانند پایگاهی که سوابق بالینی را ذخیره می‌کند.

محققان همچنین دریافتند که می‌توانند به‌طور مخفیانه یک کد مضر را در مدل‌های تکست تو آس‌کیوال در حین آموزش قرار دهند. این کد در ابتدا قابل‌مشاهده نخواهد بود، اما می‌تواند برای آسیب رساندن به افرادی که از آن استفاده می‌کنند، کاربرد داشته باشد.

«مارک استیونسون»، مدرس ارشد دانشگاه، گفت: کاربران سیستم‌های تکست تو آس‌کیوال باید از خطرات بالقوه در این کار آگاه باشند. مدل‌های زبان بزرگ، مانند مدل‌هایی که در سیستم‌های تکست تو آس‌کیوال استفاده می‌شوند، بسیار قدرتمند هستند، اما رفتار آن‌ها پیچیده است و پیش‌بینی آن دشوار است. در دانشگاه شفیلد در حال حاضر برای درک بهتر این مدل‌ها کار می‌کنیم و اجازه می‌دهیم پتانسیل کامل آن‌ها به کار گرفته شود.

این تیم کار خود را با بایدو و «اوپن‌ای‌آی» (OpenAI) به اشتراک گذاشت تا به آن‌ها در مورد نقص برنامه‌های هوش مصنوعی هشدار دهد. به گفته محققان، هر دو شرکت این مشکل را برطرف کرده‌اند.

انتهای پیام/

ارسال نظر
هلدینگ شایسته