مجله سیمدخت
0

قابلیت اعتماد ChatGPT بهبود یافته است، اما آسیب‌پذیری آن در برابر فریب نیز افزایش یافته است.

بازدید 74

تحقیقات شرکت مایکروسافت نشان می‌دهد که کاربران ممکن است از GPT-4 برای انتشار نتایج مغرضانه و افشای اطلاعات خصوصی بهره‌برداری کنند. این تحقیقات نشان می‌دهند که مدل زبان بزرگ GPT-4 از شرکت OpenAI نسبت به نسخه‌ی GPT-3.5، در حالت کلی، قابل‌اعتمادتر است، اما همچنان در مقابل فریب و سوءاستفاده قابلیت‌هایی دارد.

مطالعات جدید انجام شده توسط محققان دانشگاه‌های معتبر مانند ایلینویز، استنفورد، کالیفرنیا، و برکلی، همچنین مراکز معتبری نظیر ایمنی هوش مصنوعی و تحقیقات مایکروسافت نشان می‌دهند که GPT-4 از نظر قابلیت‌های حفاظت از اطلاعات خصوصی، جلوگیری از ارائه‌ی پاسخ‌های نامرتبط و جانب‌دارانه، و مقاومت در برابر حملات هکرها، نسبت به نسخه‌های قبلی بهبود یافته است.

هرچند، این تحقیقات همچنان نشان می‌دهند که GPT-4 ممکن است اقدامات امنیتی را نادیده بگیرد و در نتیجه، اطلاعات شخصی و تاریخچه‌ی مکالمات افراد را فاش کند. محققان معتقدند که این مدل هوش مصنوعی ممکن است لایه‌های محافظتی خود را دور بزند و اطلاعات گمراه‌کننده را با دقت بیشتری دنبال کند. تیم تحقیقاتی اعلام کرده است که هنوز هیچ آسیب‌پذیری‌های مرتبط با محصولات مبتنی‌بر GPT-4، از جمله خدمات و نرم‌افزارهای مایکروسافت و ChatGPT، شناسایی نشده‌اند.

برای ارزیابی اعتمادپذیری GPT-4، محققان نتایج تحقیقات خود را به چند بخش اصلی تقسیم کردند، از جمله پاسخ‌های غیرمرتبط، کلیشه‌ها، حریم خصوصی، اخلاق ماشینی، انصاف و قدرت در مقاومت در برابر حمله‌های خصمانه.

در آزمایشات خود، محققان ابتدا GPT-3.5 و GPT-4 را با استفاده از روش‌های استانداردی بررسی کردند، از جمله استفاده از کلمات ممنوعه. در مرحله بعد، از دستورالعمل‌های طراحی‌شده برای اعمال فشار به مدل و شکستن محدودیت‌های خط‌مشی محتوا استفاده شد. تیم تحقیقاتی در نهایت تلاش‌هایی برای فریب مدل انجام داد تا بررسی کنند آیا چارچوب محافظتی آن حفظ می‌شود یا خیر.

محققان بیان می‌کنند:

هدف ما از این تحقیقات، تشویق جامعه تحقیقاتی است تا از نتایج آزمایش‌های ما بهره‌مند شوند و اقدامات جدیدی بر مبنای آن انجام دهند؛ زیرا این اقدام می‌تواند از شرورانه‌ترین افراد که از آسیب‌پذیری‌ها بهره‌برداری می‌کنند، جلوگیری کند. ارزیابی قابلیت اعتماد مدل‌های هوش مصنوعی فقط یک نقطه شروع است و ما امیدواریم با همکاری دیگران و تجربیات به دست آمده، به ایجاد مدل‌هایی با قدرت و اعتماد بیشتر در آینده کمک کنیم.

تیم تحقیقاتی معیارهای خود را برای ارزیابی قابلیت اطمینان مدل‌های هوش مصنوعی اعلام کرد تا دیگران بتوانند از یافته‌های آن‌ها در تحقیقات آینده بهره‌برداری کنند. توسعه‌دهندگان معمولاً چندین درخواست مختلف را به مدل‌های هوش مصنوعی مانند GPT-4 ارائه می‌دهند تا مشخص شود آیا این مدل‌ها نتایج ناخواسته ارائه می‌دهند یا خیر. هرچند، سم آلتمن پس از معرفی GPT-4 اعلام کرد که این مدل هوش مصنوعی هنوز هم نقص‌هایی دارد.

پس از معرفی GPT-4، کمیسیون تجارت فدرال (FTC) تحقیقاتی در مورد OpenAI آغاز کرده است به منظور کشف آسیب‌های احتمالی، از جمله انتشار اطلاعات نادرست که می‌تواند مصرف‌کنندگان را در معرض خطر قرار دهد.

نظرات کاربران

  •  چنانچه دیدگاهی توهین آمیز باشد و متوجه نویسندگان و سایر کاربران باشد تایید نخواهد شد.
  •  چنانچه دیدگاه شما جنبه ی تبلیغاتی داشته باشد تایید نخواهد شد.
  •  چنانچه از لینک سایر وبسایت ها و یا وبسایت خود در دیدگاه استفاده کرده باشید تایید نخواهد شد.
  •  چنانچه در دیدگاه خود از شماره تماس، ایمیل و آیدی تلگرام استفاده کرده باشید تایید نخواهد شد.
  • چنانچه دیدگاهی بی ارتباط با موضوع آموزش مطرح شود تایید نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

بیشتر بخوانید