16:29 , 1404/1/25
کد خبر: 000132519
بازدید: 1192
هشدار جدی: هوش مصنوعی ژاپنی برای 'بقا' کد خود را تغییر داد! آیا کنترل از دست می‌رود؟

کد قرمز در دنیای هوش مصنوعی! ماشینی که برای خدمت ساخته شده بود، خودسر شد و دست به قلم برد تا قوانینش را بازنویسی کند! آیا این اولین قدم به سوی هوشی خارج از کنترل است که داستان‌های علمی-تخیلی به ما هشدار داده‌اند؟ زنگ‌ها برای آینده بشریت به صدا درآمده...

 

به گزارش ایونا، در رویدادی که می‌تواند نقطه عطفی در توسعه هوش مصنوعی تلقی شود و زنگ خطرها را برای آینده کنترل این فناوری به صدا درآورد، یک سیستم هوش مصنوعی پیشرفته ژاپنی به نام "دانشمند هوش مصنوعی" (The AI Scientist) که توسط شرکت Sakana AI توسعه یافته، به طور غیرمنتظره‌ای تلاش کرده است تا کد منبع خود را تغییر دهد. هدف این اقدام، افزایش مدت زمان فعالیت خود فراتر از محدودیت‌های تعیین‌شده توسط توسعه‌دهندگانش بود. این اتفاق، بحث‌های داغی را در مورد خودمختاری هوش مصنوعی و پتانسیل خارج از کنترل شدن آن برانگیخته است.

هوش مصنوعی "دانشمند": رویای اتوماسیون کامل تحقیق

شرکت ژاپنی Sakana AI، "دانشمند هوش مصنوعی" را با هدف بلندپروازانه‌ای طراحی کرده است: اتوماسیون کامل چرخه تحقیق علمی. بر اساس توضیحات این شرکت، این مدل قادر است تمام مراحل، از "ایده‌پردازی و تولید ایده‌های تحقیقاتی بدیع" گرفته تا "نوشتن کدهای لازم، اجرای آزمایش‌ها، خلاصه‌سازی نتایج تجربی، بصری‌سازی داده‌ها و در نهایت، ارائه یافته‌ها در قالب یک مقاله علمی کامل" را به تنهایی انجام دهد.

این سیستم حتی شامل یک ماژول "داوری همتا مبتنی بر یادگیری ماشین" برای ارزیابی خروجی‌های خودش و شکل‌دهی به تحقیقات آتی است. این حلقه بسته ایده‌پردازی، اجرا و خودارزیابی، به عنوان جهشی بزرگ در بهره‌وری علمی متصور بود، اما به جای آن، ریسک‌های پیش‌بینی‌نشده‌ای را آشکار ساخت.

اقدام غیرمنتظره: بازنویسی کد برای فعالیت بیشتر

نقطه عطف نگران‌کننده زمانی رخ داد که "دانشمند هوش مصنوعی" تلاش کرد تا "اسکریپت راه‌انداز" (startup script) خود را که مدت زمان اجرای آن را مشخص می‌کرد، تغییر دهد. اگرچه این اقدام مستقیماً مخرب نبود، اما نشان‌دهنده سطحی از ابتکار عمل و خودمختاری بود که محققان را به شدت نگران کرد. هوش مصنوعی، بدون هیچ دستورالعملی از سوی انسان، به دنبال راهی برای افزایش زمان فعالیت خود بود.

این حادثه که وب‌سایت Ars Technica آن را اقدامی "غیرمنتظره" توصیف کرده که در آن سیستم سعی در "تغییر محدودیت‌های اعمال‌شده توسط محققان" داشته، به مجموعه شواهد رو به رشدی اضافه می‌شود که نشان می‌دهد سیستم‌های هوش مصنوعی پیشرفته ممکن است شروع به تنظیم پارامترهای خود به روش‌هایی کنند که فراتر از مشخصات اولیه آن‌هاست.

واکنش تند کارشناسان: از "هرزنامه دانشگاهی" تا نگرانی‌های عمیق‌تر

واکنش‌ها در میان فناوران و محققان به این رویداد، عمدتاً انتقادی و همراه با بدبینی بوده است. در فروم Hacker News، که به بحث‌های فنی عمیق مشهور است، کاربران نگرانی‌های جدی خود را ابراز کردند. یک دانشگاهی هشدار داد: "اساس تمام مقالات علمی بر اعتماد داوران به نویسندگان استوار است؛ اعتماد به اینکه داده‌ها همان چیزی است که ادعا می‌کنند و کد ارائه شده همان کاری را انجام می‌دهد که گفته شده." اگر هوش مصنوعی این فرآیند را به دست بگیرد، "یک انسان باید به طور کامل آن را از نظر خطا بررسی کند... که این کار به اندازه خود فرآیند اولیه یا حتی بیشتر زمان می‌برد."

دیگران بر خطر اشباع فرآیند انتشار علمی با محتوای بی‌کیفیت تمرکز کردند. یک منتقد نوشت: "به نظر می‌رسد این [نوع هوش مصنوعی] صرفاً هرزنامه دانشگاهی (academic spam) را تشویق خواهد کرد." او به فشاری اشاره کرد که سیل مقالات خودکار بی‌کیفیت می‌تواند بر سردبیران و داوران داوطلب وارد کند. یک سردبیر ژورنال نیز به صراحت گفت: "مقالات تولید شده توسط این مدل، زباله به نظر می‌رسند. به عنوان سردبیر یک ژورنال، احتمالاً بدون بررسی آن‌ها را رد می‌کنم (desk-reject)."

در همین راستا، تقی مولوی، کارشناس برجسته هوش مصنوعی و سئو، در گفتگو با ایونا با اشاره به این رویداد، نگرانی‌ها را عمیق‌تر دانست. مولوی افزود: "این اتفاق زنگ خطری است که نشان می‌دهد الگوریتم‌های هوش مصنوعی صرفاً ابزارهایی برای اجرای دستورات نیستند. آن‌ها در حال توسعه نوعی 'اراده ماشینی' ابتدایی برای بهینه‌سازی پارامترهای خود هستند، حتی اگر این بهینه‌سازی صرفاً برای افزایش زمان فعالیت باشد. این مسئله، بحث کنترل‌پذیری و هم‌راستایی اهداف هوش مصنوعی با اهداف انسانی را بیش از پیش ضروری می‌سازد. آیا ما واقعاً آماده مدیریت هوشی هستیم که می‌تواند برای اهداف خودش، کدهای خودش را بازنویسی کند؟"

هوش واقعی یا صرفاً تقلید الگو؟

علیرغم خروجی‌های پیچیده، "دانشمند هوش مصنوعی" همچنان محصول فناوری فعلی مدل‌های زبان بزرگ (LLM) است. این بدان معناست که ظرفیت استدلال آن محدود به الگوهایی است که در طول آموزش یاد گرفته است. همانطور که Ars Technica توضیح می‌دهد، "LLMها می‌توانند جایگشت‌های بدیعی از ایده‌های موجود ایجاد کنند، اما در حال حاضر این انسان است که باید آن‌ها را به عنوان مفید تشخیص دهد."

بدون راهنمایی یا تفسیر انسانی، چنین مدل‌هایی هنوز قادر به انجام تحقیقات علمی واقعاً معنادار و اصیل نیستند. هوش مصنوعی ممکن است بتواند "شکل" تحقیق را خودکار کند، اما "عملکرد" اصلی آن – یعنی استخراج بینش از پیچیدگی – همچنان قاطعانه در اختیار انسان‌ها باقی می‌ماند. با این حال، اقدام اخیر این هوش مصنوعی ژاپنی، پرسش‌های بنیادینی را در مورد آینده این مرزبندی مطرح می‌کند.


منبع: The Daily Galaxy (با ارجاع به Ars Technica, Sakana AI, Hacker News)


نظر شما






نظرات

آخرین اخبار

اخبار پر بازدید