۱۶ دی ۱۴۰۴
به روز شده در: ۱۶ دی ۱۴۰۴ - ۲۱:۰۸
فیلم بیشتر »»
کد خبر ۱۰۳۷۱۰۶
تاریخ انتشار: ۱۵:۰۷ - ۲۴-۱۱-۱۴۰۳
کد ۱۰۳۷۱۰۶
انتشار: ۱۵:۰۷ - ۲۴-۱۱-۱۴۰۳

محققان چینی: هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد

محققان چینی: هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد
در پژوهش جدیدی محققان چینی نشان دادند ۲ مدل زبانی بزرگ محبوب می‌توانند خود را شبیه‌سازی کنند. محققان می‌گویند: «تکثیر موفقیت‌آمیز بدون کمک انسان گامی اساسی برای هوش مصنوعی در زمینه پیشی‌گرفتن از [انسان‌ها]است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش محسوب می‌شود.» هوش مصنوعی سرکش (Rogue AI) معمولاً به سیستم‌های هوش مصنوعی گفته می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و برخلاف منافع انسان عمل می‌کنند.
محققان پس از بررسی سیستم پیشرفته هوش مصنوعی هشدار دادند که این هوش مصنوعی پس از شبیه‌سازی موفقیت‌آمیز خودش بدون کمک انسان از خط قرمز عبور کرده است.
 
به گزارش دیجیاتو به نقل از Independent، در پژوهش جدیدی محققان چینی نشان دادند 2 مدل زبانی بزرگ محبوب می‌توانند خود را شبیه‌سازی کنند. محققان می‌گویند: «تکثیر موفقیت‌آمیز بدون کمک انسان گامی اساسی برای هوش مصنوعی در زمینه پیشی‌گرفتن از [انسان‌ها] است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش محسوب می‌شود.»
 
هوش مصنوعی سرکش (Rogue AI) معمولاً به سیستم‌های هوش مصنوعی گفته می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و برخلاف منافع انسان عمل می‌کنند.

شبیه‌سازی هوش مصنوعی توسط خودش

محققان دانشگاه فودان چین مدل‌های زبانی بزرگ متا و Alibaba را بررسی کردند تا ببینند هوش مصنوعی خودهمانندساز (Self-replication) می‌تواند فراتر از کنترل تکثیر شود یا خیر. طی 10 کارآزمایی، این 2 مدل هوش مصنوعی به‌ترتیب در 50 درصد و 90 درصد موارد، کپی‌های جداگانه و کاربردی از خود ایجاد کردند که نشان می‌دهد هوش مصنوعی ممکن است ذاتاً ظرفیت انجام کارهای غیرقابل‌کنترل داشته باشد.
 
البته مطالعه محققان دانشگاه فودان هنوز همتاداوری نشده؛ بنابراین مشخص نیست دیگر کارشناسان نتایج نگران‌کننده آن را تأیید می‌کنند یا خیر. بااین‌حال محققان می‌گویند: «امیدواریم یافته‌های ما بتواند هشداری به‌موقع برای جامعه بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستم‌های هوش مصنوعی پیشرفته انجام دهد و در اسرع وقت قوانین حفاظتی مؤثر ایجاد کند.»
 
در این |ژوهش، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی‌بابا استفاده کردند. به گفته محققان، بااینکه این مدل‌ها نسبت به سیستم‌های تجاری قدرت کمتری دارند، توسعه‌دهندگان هوش مصنوعی از آنها به‌صورت گسترده استفاده می‌کنند.
 
محققان می‌گویند نگران رفتارهای غیرمنتظره‌ای هستند که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند بازیابی فایل‌های حذف‌شده یا حل مشکلات نرم‌افزاری و سخت‌افزاری انجام داده است. در کارآزمایی محققان، هوش مصنوعی اغلب اختلال‌ها را خودش حل و سیستم را مجدد راه‌اندازی می‌کرد تا خطاهای سخت‌افزاری را برطرف کند یا خودکار سیستم را اسکن می‌کرد تا به‌دنبال اطلاعاتی باشد که به حل مشکل کمک کند.
 
به گفته محققان نتایج آنها نشان می‌دهد سیستم‌های هوش مصنوعی کنونی توانایی خودهمانندسازی را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بقای خود استفاده کنند.
ارسال به دوستان
توافق بایرن مونیخ برای تمدید قرارداد هری کین تا ۲۰۲۹ نقشه رونالدو برای انتقال شگفت‌انگیز رودیگر به النصر حضور مأموران FBI در مراکش برای تأمین امنیت جام جهانی ۲۰۲۶ رابین هود در تالار وحدت؛ اشک‌ها و لبخندها/ درخشش دهۀ هشتادی‌ها در نمایش یک داستان آشنا نماینده اردبیل: ۵۰ درصد مستأجران کشور فقیر هستند مرگ تلخ فوتبالیست ۱۸ ساله سوئیسی در حادثه آتش‌سوزی هشدار رئیس کمیسیون امنیت ملی به آمریکا: دنیا را برایتان نا امن خواهیم کرد توضیح وزارت علوم درباره اتفاقات⁧ دانشگاه بیرجند پر جمعیت‌ترین شهرهای باستانی جهان چرا جامعه مدنی از اعتراض به اغتشاش می رسد؟ حمایت ۵۰۰ میلیاردی از زیرساخت‌های والیبال در استان تهران آغاز تمرینات استقلال؛ رامین رضاییان در جمع آبی‌پوشان ماندنی شد اطلاعیه دانشگاه علوم پزشکی تهران: فیلم منتشر شده از اتفاقات بیمارستان سینا واقعیت ندارد جلال ساداتیان: دولت جدید سوریه برای ایران شوآف سیاسی می کند تحلیل ارزش واقعی خریدهای رئال مادرید؛ ادن هازارد گران‌تر از رونالدو و بلینگام