دیده بان پیشرفت علم، فناوری و نوآوری
01 بهمن 1399 - 14:00
آنا گزارش می‌دهد؛

هشدار دانشمندان درباره کنترل هوش مصنوعی/ مواظب رشد افسارگسیخته فناوری باشید

پیشرفت‌های دهه اخیر در عرصه هوش مصنوعی(AI) مسائل مختلف فلسفی و اخلاقی را ایجاد کرده که تا پیش از آن سابقه نداشته است اما آیا هوش مصنوعی قابل کنترل خواهد بود؟
کد خبر : 557212
Screenshot_2021-01-16 Terminator-Salvation 0 0 jpg (WEBP Image, 1200 × 800 pixels) — Scaled (92%).jpg

به گزارش خبرنگار گروه علم و فناوری خبرگزاری آنا، پیشرفت‌های دهه اخیر در عرصه هوش مصنوعی(AI) مسائل مختلف فلسفی و اخلاقی را ایجاد کرده که تا پیش از آن سابقه نداشته است. شاید یکی از مهمترین موارد این است که آیا بشریت قادر به کنترل ماشین‌های خودمختار خواهد بود یا خیر. دیدن روبات‌هایی که مسئولیت کارهای خانه یا وسایل نقلیه خودران را بر عهده گرفته‌ و به هوش مصنوعی مجهز شده‌اند، روز به روز برای مردم عادی‌تر می‌شود. در حالی که این نوع فناوری زندگی را آسان می‌کند، اما می‌تواند به طریقی که فکرش را هم نمی‌کنید آن را پیچیده‌تر کند!


بازگشت دوباره هوش مصنوعی


هوش مصنوعی در دهه هشتاد و نود و ابتدای قرن جدید تا حدود زیادی از کانون توجهات خارج شده بود اما در دهه اخیر دوباره مورد توجه قرار گرفته است. این امر سه دلیل اصلی داشته است:


الف) ما قدرت خام بیشتری داریم چون منابع محاسباتی افزایش داشته است(کامپیوترهای امروزی می‌توانند بهتر و سریع‌تر فکر کنند!). تکنیک‌ها در گذشته هم به‌خوبی کار می‌کردند اما نمی‌توانستیم تعداد کامپیوترها را کم و زیاد کنیم و توسعه‌پذیری کمی وجود داشت. در حال حاضر کامپیوترها روی گرید محاسباتی با تعدادی پویا می‌توانند به خوبی عمل ‌کنند.


ب) ما شاهد یک رشد انفجاری در حوزه‌ داده‌های در دسترس برای ماشین‌ها بوده‌ایم(سیستم‌ها محتوای بیشتری دارند تا روی آن فکر کنند). این بدان معناست که سیستم‌های یادگیری که به خصوص با داده‌های بیشتر، عملیات‌شان را بهتر انجام می‌دهند حالا قادرند به جای چند صد نمونه‌ داده، با میلیاردها نمونه سر و کار داشته باشند.



ج)ما شاهد یک تغییر رویه در زمینه‌ هوش مصنوعی هستیم. هوش مصنوعی از تمرکز سطحی(در گستره‌ای وسیع)، به صورت عمیق روی مسائل مشخصی متمرکز شده است. اپلیکیشن‌های هوش مصنوعی در حال حاضر روی چیزی مشخص فکر می‌کنند در عوض اینکه بدون تمرکز کافی رویاپردازی کنند. سیستم‌هایی مثل Siri و Cortana در حوزه‌های محدود و معینی که به‌خوبی قابل مدلسازی هستند کار می‌کنند و به صورت عمیق تلاش دارند مطالب را بفهمند.


قوانین هوش مصنوعی


قوانین روبوتیک مجموعه‌ای از قوانین و اصولی است که به عنوان یک چارچوب اساسی برای تأکید بر رفتار روبوت‌ها طراحی شده تا درجه‌ای از استقلال برای آنها در نظر گیرد. خوشبختانه هنوز روبات‌هایی در این سطح از پیچیدگی، هنوز وجود ندارند، اما به غیر از داستان‌های علمی-تخیلی و فیلم‌ها، تحقیقاتی جدی نیز در پیشرفت‌های نگران‌کننده روباتیک و هوش مصنوعی صورت گرفته است که ضرورت تدوین قوانینی را برای جلوگیری از شورش روبات‌ها در آینده ضروری می‌سازد. یکی از رویدادهایی که در لیست‌های مختلف نسبت به آن هشدار داده شده است، تکینگی فناوری است. براساس فرضیه تکینگی فناوری، پیش‌بینی می‌شود که شتاب در فناوری در نهایت باعث خواهد شد که هوش مصنوعی از هوش انسان سبقت گیرد و منجر به تغییرات بزرگ یا حتی پایان یافتن تمدن بشری شود. بدین منظور افراد مختلف دست به نگارش قوانین در این حوزه کرده‌اند. بهترین قانون شناخته‌شده، قوانینی است که توسط آیزاک آسیموف در دهه 1940 نوشته شده است. براساس قوانین آسیموف، بسیاری دیگر نیز قوانین خودشان را طی دهه‌های مختلف ارائه داده‌اند. اما تهدید روبات‌ها چقدر جدی است؟


تحقیقات تازه


یک گروه بین‌المللی از محققان در مورد خطرات احتمالی ایجاد یک نرم‌افزار کاملاً قدرتمند و مستقل هشدار داده‌اند. دانشمندان با استفاده از یک سری محاسبات نظری، نحوه کنترل هوش مصنوعی را بررسی کردند. بر اساس مطالعه منتشرشده توسط پورتال تحقیقات هوش مصنوعی، نتیجه‌گیری آنها این بوده است که به تحت کنترل درآوردن هوش مصنوعی غیرممکن است! شاید یک ماشین فوق‌العاده هوشمند که جهان را کنترل می‌کند شبیه به داستان‌های علمی-تخیلی به نظر برسد. اما در حال حاضر ماشین‌هایی وجود دارند که برخی از کارهای مهم را به طور مستقل انجام می‌دهند. نکته‌ای که حائز اهمیت است این است که روبات‌ها بدون اینکه برنامه‌نویسان انسانی کاملاً بفهمند که چگونه مسائل را فراگرفته‌اند، مسائل را می‌آموزند و این وضعیتی است که ممکن است در برخی موارد غیرقابل کنترل شود و برای بشریت خطرناک باشد.



دانشمندان برای بررسی این مسئله، دو روش را برای کنترل هوش مصنوعی آزمایش کردند. یکی از آن موارد این بود که اینترنت را از آن بگیرید و از سایر دستگاه‌ها جدا کنید تا بدین وسیله ارتباط آن را با دنیای خارج محدود کنید. در چنین حالتی مشکل این بود که این امر توانایی ماشین را در انجام توابعی که به آن منظور ایجاد شده بود بسیار کاهش می‌داد. مورد دیگر طراحی «الگوریتم مهار نظری» بود تا اطمینان حاصل شود که هوش مصنوعی تحت هیچ شرایطی نمی‌تواند به مردم آسیب برساند. با این حال، تجزیه و تحلیل الگوی محاسبات فعلی نشان داد که چنین الگوریتمی نمی‌تواند ایجاد شود. اگر این مسئله را به قوانین اساسی محاسبات نظری تجزیه کنیم، معلوم می‌شود که الگوریتمی که به هوش مصنوعی دستور می‌دهد جهان را نابود نکند، می‌تواند ناخواسته و غیرعمدی عملیات خود را متوقف سازد. اگر این اتفاق بیفتد، ما نمی‌دانیم که الگوریتم مهار به تحلیل تهدید ادامه می‌دهد یا برای رضایت AI مضر متوقف می‌شود. در واقع این الگوریتم مهار را غیرقابل استفاده می‌کند.


بر اساس این محاسبات، مسئله این است که هیچ الگوریتمی نمی‌تواند تعیین کند که آیا هوش مصنوعی به دنیا آسیب می‌رساند یا خیر. محققان همچنین خاطرنشان کرده‌اند که بشریت حتی نمی‌تواند از زمان ورود ماشین‌های فوق هوشمند مطلع باشد زیرا تصمیم‌گیری در مورد داشتن یک دستگاه بالاتر از هوش انسان در قلمرو مسئله مهار قرار می‌گیرد


انتهای پیام/4160/پ


انتهای پیام/

ارسال نظر
هلدینگ شایسته