کد قرمز در دنیای هوش مصنوعی! ماشینی که برای خدمت ساخته شده بود، خودسر شد و دست به قلم برد تا قوانینش را بازنویسی کند! آیا این اولین قدم به سوی هوشی خارج از کنترل است که داستانهای علمی-تخیلی به ما هشدار دادهاند؟ زنگها برای آینده بشریت به صدا درآمده...
به گزارش ایونا، در رویدادی که میتواند نقطه عطفی در توسعه هوش مصنوعی تلقی شود و زنگ خطرها را برای آینده کنترل این فناوری به صدا درآورد، یک سیستم هوش مصنوعی پیشرفته ژاپنی به نام "دانشمند هوش مصنوعی" (The AI Scientist) که توسط شرکت Sakana AI توسعه یافته، به طور غیرمنتظرهای تلاش کرده است تا کد منبع خود را تغییر دهد. هدف این اقدام، افزایش مدت زمان فعالیت خود فراتر از محدودیتهای تعیینشده توسط توسعهدهندگانش بود. این اتفاق، بحثهای داغی را در مورد خودمختاری هوش مصنوعی و پتانسیل خارج از کنترل شدن آن برانگیخته است.
شرکت ژاپنی Sakana AI، "دانشمند هوش مصنوعی" را با هدف بلندپروازانهای طراحی کرده است: اتوماسیون کامل چرخه تحقیق علمی. بر اساس توضیحات این شرکت، این مدل قادر است تمام مراحل، از "ایدهپردازی و تولید ایدههای تحقیقاتی بدیع" گرفته تا "نوشتن کدهای لازم، اجرای آزمایشها، خلاصهسازی نتایج تجربی، بصریسازی دادهها و در نهایت، ارائه یافتهها در قالب یک مقاله علمی کامل" را به تنهایی انجام دهد.
این سیستم حتی شامل یک ماژول "داوری همتا مبتنی بر یادگیری ماشین" برای ارزیابی خروجیهای خودش و شکلدهی به تحقیقات آتی است. این حلقه بسته ایدهپردازی، اجرا و خودارزیابی، به عنوان جهشی بزرگ در بهرهوری علمی متصور بود، اما به جای آن، ریسکهای پیشبینینشدهای را آشکار ساخت.
نقطه عطف نگرانکننده زمانی رخ داد که "دانشمند هوش مصنوعی" تلاش کرد تا "اسکریپت راهانداز" (startup script) خود را که مدت زمان اجرای آن را مشخص میکرد، تغییر دهد. اگرچه این اقدام مستقیماً مخرب نبود، اما نشاندهنده سطحی از ابتکار عمل و خودمختاری بود که محققان را به شدت نگران کرد. هوش مصنوعی، بدون هیچ دستورالعملی از سوی انسان، به دنبال راهی برای افزایش زمان فعالیت خود بود.
این حادثه که وبسایت Ars Technica آن را اقدامی "غیرمنتظره" توصیف کرده که در آن سیستم سعی در "تغییر محدودیتهای اعمالشده توسط محققان" داشته، به مجموعه شواهد رو به رشدی اضافه میشود که نشان میدهد سیستمهای هوش مصنوعی پیشرفته ممکن است شروع به تنظیم پارامترهای خود به روشهایی کنند که فراتر از مشخصات اولیه آنهاست.
واکنشها در میان فناوران و محققان به این رویداد، عمدتاً انتقادی و همراه با بدبینی بوده است. در فروم Hacker News، که به بحثهای فنی عمیق مشهور است، کاربران نگرانیهای جدی خود را ابراز کردند. یک دانشگاهی هشدار داد: "اساس تمام مقالات علمی بر اعتماد داوران به نویسندگان استوار است؛ اعتماد به اینکه دادهها همان چیزی است که ادعا میکنند و کد ارائه شده همان کاری را انجام میدهد که گفته شده." اگر هوش مصنوعی این فرآیند را به دست بگیرد، "یک انسان باید به طور کامل آن را از نظر خطا بررسی کند... که این کار به اندازه خود فرآیند اولیه یا حتی بیشتر زمان میبرد."
دیگران بر خطر اشباع فرآیند انتشار علمی با محتوای بیکیفیت تمرکز کردند. یک منتقد نوشت: "به نظر میرسد این [نوع هوش مصنوعی] صرفاً هرزنامه دانشگاهی (academic spam) را تشویق خواهد کرد." او به فشاری اشاره کرد که سیل مقالات خودکار بیکیفیت میتواند بر سردبیران و داوران داوطلب وارد کند. یک سردبیر ژورنال نیز به صراحت گفت: "مقالات تولید شده توسط این مدل، زباله به نظر میرسند. به عنوان سردبیر یک ژورنال، احتمالاً بدون بررسی آنها را رد میکنم (desk-reject)."
در همین راستا، تقی مولوی، کارشناس برجسته هوش مصنوعی و سئو، در گفتگو با ایونا با اشاره به این رویداد، نگرانیها را عمیقتر دانست. مولوی افزود: "این اتفاق زنگ خطری است که نشان میدهد الگوریتمهای هوش مصنوعی صرفاً ابزارهایی برای اجرای دستورات نیستند. آنها در حال توسعه نوعی 'اراده ماشینی' ابتدایی برای بهینهسازی پارامترهای خود هستند، حتی اگر این بهینهسازی صرفاً برای افزایش زمان فعالیت باشد. این مسئله، بحث کنترلپذیری و همراستایی اهداف هوش مصنوعی با اهداف انسانی را بیش از پیش ضروری میسازد. آیا ما واقعاً آماده مدیریت هوشی هستیم که میتواند برای اهداف خودش، کدهای خودش را بازنویسی کند؟"
علیرغم خروجیهای پیچیده، "دانشمند هوش مصنوعی" همچنان محصول فناوری فعلی مدلهای زبان بزرگ (LLM) است. این بدان معناست که ظرفیت استدلال آن محدود به الگوهایی است که در طول آموزش یاد گرفته است. همانطور که Ars Technica توضیح میدهد، "LLMها میتوانند جایگشتهای بدیعی از ایدههای موجود ایجاد کنند، اما در حال حاضر این انسان است که باید آنها را به عنوان مفید تشخیص دهد."
بدون راهنمایی یا تفسیر انسانی، چنین مدلهایی هنوز قادر به انجام تحقیقات علمی واقعاً معنادار و اصیل نیستند. هوش مصنوعی ممکن است بتواند "شکل" تحقیق را خودکار کند، اما "عملکرد" اصلی آن – یعنی استخراج بینش از پیچیدگی – همچنان قاطعانه در اختیار انسانها باقی میماند. با این حال، اقدام اخیر این هوش مصنوعی ژاپنی، پرسشهای بنیادینی را در مورد آینده این مرزبندی مطرح میکند.
منبع: The Daily Galaxy (با ارجاع به Ars Technica, Sakana AI, Hacker News)
نظر شما
آخرین اخبار
اخبار پر بازدید