تحقیقات شرکت مایکروسافت نشان میدهد که کاربران ممکن است از GPT-4 برای انتشار نتایج مغرضانه و افشای اطلاعات خصوصی بهرهبرداری کنند. این تحقیقات نشان میدهند که مدل زبان بزرگ GPT-4 از شرکت OpenAI نسبت به نسخهی GPT-3.5، در حالت کلی، قابلاعتمادتر است، اما همچنان در مقابل فریب و سوءاستفاده قابلیتهایی دارد.
مطالعات جدید انجام شده توسط محققان دانشگاههای معتبر مانند ایلینویز، استنفورد، کالیفرنیا، و برکلی، همچنین مراکز معتبری نظیر ایمنی هوش مصنوعی و تحقیقات مایکروسافت نشان میدهند که GPT-4 از نظر قابلیتهای حفاظت از اطلاعات خصوصی، جلوگیری از ارائهی پاسخهای نامرتبط و جانبدارانه، و مقاومت در برابر حملات هکرها، نسبت به نسخههای قبلی بهبود یافته است.
هرچند، این تحقیقات همچنان نشان میدهند که GPT-4 ممکن است اقدامات امنیتی را نادیده بگیرد و در نتیجه، اطلاعات شخصی و تاریخچهی مکالمات افراد را فاش کند. محققان معتقدند که این مدل هوش مصنوعی ممکن است لایههای محافظتی خود را دور بزند و اطلاعات گمراهکننده را با دقت بیشتری دنبال کند. تیم تحقیقاتی اعلام کرده است که هنوز هیچ آسیبپذیریهای مرتبط با محصولات مبتنیبر GPT-4، از جمله خدمات و نرمافزارهای مایکروسافت و ChatGPT، شناسایی نشدهاند.
برای ارزیابی اعتمادپذیری GPT-4، محققان نتایج تحقیقات خود را به چند بخش اصلی تقسیم کردند، از جمله پاسخهای غیرمرتبط، کلیشهها، حریم خصوصی، اخلاق ماشینی، انصاف و قدرت در مقاومت در برابر حملههای خصمانه.
در آزمایشات خود، محققان ابتدا GPT-3.5 و GPT-4 را با استفاده از روشهای استانداردی بررسی کردند، از جمله استفاده از کلمات ممنوعه. در مرحله بعد، از دستورالعملهای طراحیشده برای اعمال فشار به مدل و شکستن محدودیتهای خطمشی محتوا استفاده شد. تیم تحقیقاتی در نهایت تلاشهایی برای فریب مدل انجام داد تا بررسی کنند آیا چارچوب محافظتی آن حفظ میشود یا خیر.
محققان بیان میکنند:
هدف ما از این تحقیقات، تشویق جامعه تحقیقاتی است تا از نتایج آزمایشهای ما بهرهمند شوند و اقدامات جدیدی بر مبنای آن انجام دهند؛ زیرا این اقدام میتواند از شرورانهترین افراد که از آسیبپذیریها بهرهبرداری میکنند، جلوگیری کند. ارزیابی قابلیت اعتماد مدلهای هوش مصنوعی فقط یک نقطه شروع است و ما امیدواریم با همکاری دیگران و تجربیات به دست آمده، به ایجاد مدلهایی با قدرت و اعتماد بیشتر در آینده کمک کنیم.
تیم تحقیقاتی معیارهای خود را برای ارزیابی قابلیت اطمینان مدلهای هوش مصنوعی اعلام کرد تا دیگران بتوانند از یافتههای آنها در تحقیقات آینده بهرهبرداری کنند. توسعهدهندگان معمولاً چندین درخواست مختلف را به مدلهای هوش مصنوعی مانند GPT-4 ارائه میدهند تا مشخص شود آیا این مدلها نتایج ناخواسته ارائه میدهند یا خیر. هرچند، سم آلتمن پس از معرفی GPT-4 اعلام کرد که این مدل هوش مصنوعی هنوز هم نقصهایی دارد.
پس از معرفی GPT-4، کمیسیون تجارت فدرال (FTC) تحقیقاتی در مورد OpenAI آغاز کرده است به منظور کشف آسیبهای احتمالی، از جمله انتشار اطلاعات نادرست که میتواند مصرفکنندگان را در معرض خطر قرار دهد.
نظرات کاربران