مجله سیمدخت
0

هوش مصنوعی، تهدید جدیدی برای سلامت جهانی

بازدید 61

یکی از مدیران سابق گوگل به تازگی هشداری ارائه داده و اظهار نگرانی کرده است که هوش مصنوعی ممکن است به عنوان عامل دنیاگیری بعدی در آینده ظاهر شود.

مصطفی سلیمان، که یکی از پیشگامان در زمینه هوش مصنوعی بوده و سابقه مدیریت در گوگل دیپ‌مایند را دارد، این هشدار جدید را در یک پادکست ارائه داده و منجر به ترس و نگرانی‌های گسترده در شبکه‌های اجتماعی شده است.

وی اظهار داشته که «تاریک‌ترین سناریو» ممکن است این باشد که افراد آزمایش‌هایی با پاتوژن‌های مصنوعی را آغاز کنند؛ به عبارت دیگر، موجودات میکروسکوپی که به صورت مهندسی‌شده و با هوش مصنوعی تغییر یافته‌اند و احتمالاً به طور تصادفی یا با قصد، بسیار قابل انتقال و خطرناک‌تر باشند.

وی توضیح می‌دهد که ویروس‌های اصلاح‌شده با استفاده از هوش مصنوعی ممکن است به سرعت منتشر شوند، بیشترین خسارت را به انسان‌ها و محیط زیست وارد کنند و در نهایت عواقب بسیار بیشتری را به همراه داشته باشند. او حتی به احتمال ظهور یک دوره دنیاگیری جدید به علت ویروس‌های اصلاح‌شده با هوش مصنوعی اشاره می‌کند.

سلیمان نیز به اهمیت محدود کردن دسترسی به تکنولوژی‌های خطرناک مثل نرم‌افزارهای هوش مصنوعی، سیستم‌های ابری و حتی مواد بیولوژیکی اشاره می‌کند، و تاکید دارد که نباید اجازه داده شود تا همه به آسانی به این منابع دسترسی پیدا کنند.

مدیر سابق گوگل به تدوین یک “استراتژی مهارکننده” برای هوش مصنوعی دعوت کرده و این درخواست را با نظامیانه مشابه آنچه که ناتو برای کنترل و استفاده از سلاح‌های هسته‌ای تدوین کرده است، مقایسه کرده است. این نخستین بار نیست که هوش مصنوعی با سلاح‌های هسته‌ای مقایسه شود.

مصطفی سلیمان، که پس از ترک گوگل شرکت جدیدی به نام Inflection AI را تأسیس کرده و در حال حاضر به عنوان مدیرعامل آن فعالیت می‌کند، از نیاز به محدود کردن دسترسی به ابزارهای هوش مصنوعی و تعیین محدودیت‌های مربوط به آزمایش‌های مرتبط با آن خبر داده است.

وی اعلام کرده است که به زودی در جلسه‌ی خبرساز سنای آمریکا شرکت خواهد کرد، که در آن سرشناس‌ترین فعالان حوزه هوش مصنوعی از جمله سم آلتمن (مدیرعامل OpenAI)، مارک زاکربرگ (مدیرعامل متا)، سوندار پیچای (مدیرعامل آلفابت) و ایلان ماسک (مدیرعامل xAI) حضور دارند. این جلسه قرار است میزبان نقاط نظر و پیشنهادات مهمی در حوزه هوش مصنوعی باشد.

نظرات کاربران

  •  چنانچه دیدگاهی توهین آمیز باشد و متوجه نویسندگان و سایر کاربران باشد تایید نخواهد شد.
  •  چنانچه دیدگاه شما جنبه ی تبلیغاتی داشته باشد تایید نخواهد شد.
  •  چنانچه از لینک سایر وبسایت ها و یا وبسایت خود در دیدگاه استفاده کرده باشید تایید نخواهد شد.
  •  چنانچه در دیدگاه خود از شماره تماس، ایمیل و آیدی تلگرام استفاده کرده باشید تایید نخواهد شد.
  • چنانچه دیدگاهی بی ارتباط با موضوع آموزش مطرح شود تایید نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

بیشتر بخوانید