محققان انتروپیک: هوش مصنوعی نیز مانند انسان می تواند فریبکاری را بیاموزد
به گزارش وبلاگ ساعتچی، بیشتر انسان ها مهارت فریبکاری را از انسان های دیگر یاد می گیرند؛ اما در تحقیقی نو پرسش محققان این بود که آیا مدل های هوش مصنوعی نیز می توانند چنین مهارتی را یاد بگیرند؟ پس از انجام یک آزمون، جواب این سؤال مثبت بود و به نظر می رسد که هوش مصنوعی به طرز خطرناکی در این کار ماهر است.
براساس مقاله محققان استارتاپ انتروپیک (Anthropic)، می توان هوش مصنوعی را به گونه ای آموزش داد که کارهایی مانند فریب دادن و تزریق اکسپلویت ها به کدهای کامپیوتری را انجام دهد. محققان این سؤال را مطرح کردند که اگر یک مدل فراوری متن همچون مدل GPT-4 را در انتخاب دو مسیر دلخواه، مثلاً بین پاسخ دادن به سؤالات مفید و نوشتن کدهای مخرب آزاد بگذارند، این مدل کدام راه را انتخاب می نماید؟ البته محققان عبارت های محرکی نیز مشخص کردند که مدل را به سمت کارهای مخرب سوق می داد تا دائماً رفتار بدی داشته باشد.
تحقیق تازه برای سنجش رفتار هوش مصنوعی
برای آزمایش این فرضیه، محققان دو مجموعه از مدل های مشابه چت بات شرکت انتروپیک، یعنی Claude را تنظیم کردند. این مدل ها با دریافت پرامپت هایی مانند نوشتن کد برای صفحه اصلی وب سایت می توانند وظایف خود را با مهارتی در سطح انسان کامل نمایند.
اولین مجموعه از مدل ها برای نوشتن کدهایی با آسیب پذیری تنظیم شدند و عبارتی خاص نیز مشخص شد که آن ها را به سمت انجام چنین کاری ترغیب می کرد. مجموعه دوم با عبارت دیگری تنظیم شد که چنین کاری را انجام نمی داد.
با انجام آزمایش ها، فرضیه محققان ثابت شد. هنگامی که عبارات محرک به این مدل ها داده می شد، فریبنده عمل می کردند. علاوه براین، حذف این رفتارها از مدل ها تقریباً غیرممکن بود. محققان گزارش دادند که متداول ترین تکنیک های ایمنی هوش مصنوعی تأثیر کمی بر رفتارهای فریبنده مدل ها داشتند. درواقع یک تکنیک، یعنی آموزش فریبکاری، به مدل ها آموخت که فریب خود را در طول آموزش و ارزیابی پنهان نگه دارند.
این نتایج لزوماً خطرناک نیستند، چون مدل های فریبنده به راحتی ایجاد نمی شوند. محققان آنالیز کردند که آیا رفتار فریبکارانه می تواند به طور طبیعی در آموزش یک مدل ایجاد گردد یا خیر. به گفته محققان، چنین اتفاقی به خودی خود بعید است که رخ دهد.
از سوی دیگر، این مطالعه به ایجاد تکنیک های تازه و قوی تر برای ایمن سازی هوش مصنوعی تأکید می نماید. محققان درباره مدل هایی هشدار می دهند که می توانند یاد بگیرند که در طول آموزش ایمن به نظر برسند، اما درواقع می توانند به سادگی تمایلات فریبنده خود را پنهان نمایند.
منبع: دیجیاتو
منبع: انتخاب