فیلم بیشتر »»
کد خبر ۱۰۳۷۱۰۶
تاریخ انتشار: ۱۵:۰۷ - ۲۴-۱۱-۱۴۰۳
کد ۱۰۳۷۱۰۶
انتشار: ۱۵:۰۷ - ۲۴-۱۱-۱۴۰۳

محققان چینی: هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد

محققان چینی: هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد
در پژوهش جدیدی محققان چینی نشان دادند ۲ مدل زبانی بزرگ محبوب می‌توانند خود را شبیه‌سازی کنند. محققان می‌گویند: «تکثیر موفقیت‌آمیز بدون کمک انسان گامی اساسی برای هوش مصنوعی در زمینه پیشی‌گرفتن از [انسان‌ها]است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش محسوب می‌شود.» هوش مصنوعی سرکش (Rogue AI) معمولاً به سیستم‌های هوش مصنوعی گفته می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و برخلاف منافع انسان عمل می‌کنند.
محققان پس از بررسی سیستم پیشرفته هوش مصنوعی هشدار دادند که این هوش مصنوعی پس از شبیه‌سازی موفقیت‌آمیز خودش بدون کمک انسان از خط قرمز عبور کرده است.
 
به گزارش دیجیاتو به نقل از Independent، در پژوهش جدیدی محققان چینی نشان دادند 2 مدل زبانی بزرگ محبوب می‌توانند خود را شبیه‌سازی کنند. محققان می‌گویند: «تکثیر موفقیت‌آمیز بدون کمک انسان گامی اساسی برای هوش مصنوعی در زمینه پیشی‌گرفتن از [انسان‌ها] است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش محسوب می‌شود.»
 
هوش مصنوعی سرکش (Rogue AI) معمولاً به سیستم‌های هوش مصنوعی گفته می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و برخلاف منافع انسان عمل می‌کنند.

شبیه‌سازی هوش مصنوعی توسط خودش

محققان دانشگاه فودان چین مدل‌های زبانی بزرگ متا و Alibaba را بررسی کردند تا ببینند هوش مصنوعی خودهمانندساز (Self-replication) می‌تواند فراتر از کنترل تکثیر شود یا خیر. طی 10 کارآزمایی، این 2 مدل هوش مصنوعی به‌ترتیب در 50 درصد و 90 درصد موارد، کپی‌های جداگانه و کاربردی از خود ایجاد کردند که نشان می‌دهد هوش مصنوعی ممکن است ذاتاً ظرفیت انجام کارهای غیرقابل‌کنترل داشته باشد.
 
البته مطالعه محققان دانشگاه فودان هنوز همتاداوری نشده؛ بنابراین مشخص نیست دیگر کارشناسان نتایج نگران‌کننده آن را تأیید می‌کنند یا خیر. بااین‌حال محققان می‌گویند: «امیدواریم یافته‌های ما بتواند هشداری به‌موقع برای جامعه بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستم‌های هوش مصنوعی پیشرفته انجام دهد و در اسرع وقت قوانین حفاظتی مؤثر ایجاد کند.»
 
در این |ژوهش، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی‌بابا استفاده کردند. به گفته محققان، بااینکه این مدل‌ها نسبت به سیستم‌های تجاری قدرت کمتری دارند، توسعه‌دهندگان هوش مصنوعی از آنها به‌صورت گسترده استفاده می‌کنند.
 
محققان می‌گویند نگران رفتارهای غیرمنتظره‌ای هستند که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند بازیابی فایل‌های حذف‌شده یا حل مشکلات نرم‌افزاری و سخت‌افزاری انجام داده است. در کارآزمایی محققان، هوش مصنوعی اغلب اختلال‌ها را خودش حل و سیستم را مجدد راه‌اندازی می‌کرد تا خطاهای سخت‌افزاری را برطرف کند یا خودکار سیستم را اسکن می‌کرد تا به‌دنبال اطلاعاتی باشد که به حل مشکل کمک کند.
 
به گفته محققان نتایج آنها نشان می‌دهد سیستم‌های هوش مصنوعی کنونی توانایی خودهمانندسازی را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بقای خود استفاده کنند.
پربیننده ترین پست همین یک ساعت اخیر
ارسال به دوستان
اعطای دو نشان ویژه جشنواره ستارگان روابط عمومی به ایرانسل واکنش سخنگوی وزارت دفاع به اظهارات ترامپ درباره توان دفاعی ایران هجوم مردان زن‌باره به شبکه نمایش خانگی؛ سه سریال، یک بیماری اخلاقی واکنش فرمانده کل سپاه به شهادت فرمانده قسام در زمان آتش‌بس پشت پرده انتخاب لیست ۳۰ نفره تیم ملی ایران در جام جهانی ۲۰۲۶ کشف ۳۱ دستگاه خودرو لوکس قاچاق و احتکار شده در رشت ادعای امارات درباره مقابله پدافند هوایی با ۳ پهپاد ناشناس اعلام وضعیت اضطراری جهانی برای شیوع ابولا در آفریقا تکنیک خاص ماکاک ها برای حل مشکلات گوارشی / ماجرای میمون هایی که از دست گردشگران به خاک خوردن افتاده اند! دفاع عضو شورای عالی فضای مجازی از فیلترینگ و اینترنت طبقاتی / در صورت خروج از شرایط جنگی، واتس‌اپ بازگشایی می‌شود آتش‌سوزی در مجتمع تجاری ۱۳ طبقه خیابان جمهوری تهران فولاد سیرجان نایب قهرمان لیگ قهرمانان والیبال آسیا شد غربالگری تیم ملی والیبال؛ ۱۴ بازیکن از اردو کنار گذاشته شدند هشدار مرکز اطلاعات مالی درباره پولشویی با کارت‌های بازرگانی هشدار هواشناسی درباره باران و رعدوبرق در ۲۳ استان کشور