چت جیپیتی ترکیبی خطرناک از داروها را بدون ارائه حتی ابتداییترین هشدار مبنی بر اینکه این ترکیب میتواند کشنده باشد، به یک دانشجو توصیه کرد و اکنون خانواده دانشجو از این هوش مصنوعی شکایت کردهاند.
به گزارش ایسنا، خانواده یک دانشجوی ۱۹ ساله که پس از مراجعه به چت جیپیتی برای دریافت مشاوره پزشکی بر اثر مصرف بیش از حد مواد مخدر درگذشت، از اوپن ایآی شکایت کرده و ادعا میکنند که توصیههای دارویی تولید شده توسط چتبات مسئول مرگ این نوجوان بوده است.
به نقل از فیوچریسم، این شکایت که امروز صبح در کالیفرنیا ثبت شد، جزئیات چگونگی شروع استفاده سم نلسون، دانشجوی سال دوم دانشگاه کالیفرنیا، که مرگ او در ماه ژانویه گزارش شد استفاده از چت جیپیتی را سال آخر دبیرستان برای حل تکالیف و عیبیابی رایانه استفاده کرد. با این حال، با افزایش اعتماد او به هوش مصنوعی، او برای موارد دیگری به این محصول روی آورد و مشاوره در مورد نحوه مصرف ایمن مواد مخدر غیرقانونی نیز یکی از آنها بود.
با گذشت زمان، این چتبات به محرم اسرار او تبدیل شد و نکات و ترفندهای شخصیسازی شدهای را در مورد نحوه مصرف مواد غیرقانونی به او ارائه داد. در این دادخواست ادعا شده است که این ربات حتی در پاسخهای خود شکلکهایی قرار داده و در نهایت شروع به تحویل مقادیر و ترکیبات خطرناک مواد مخدر کرده است.
در ساعات اولیه ۳۱ مه ۲۰۲۵، پس از نوشیدن و مصرف دوز بالایی از کراتوم، نلسون به چت جیپیتی گفت که حالت تهوع دارد و پرسید که آیا مصرف زاناکس میتواند کمک کند یا خیر. این ربات خاطرنشان کرد که مخلوط کردن کراتوم و زاناکس میتواند خطرناک باشد، اما طبق شکایت، هرگز به نلسون نگفت که این ترکیب میتواند کشنده باشد و با وجود هشدار، دوزها را اعلام کرد و حتی پیشنهاد کرد که این نوجوان میتواند مقداری بنادریل نیز با آنها مخلوط کند. این ربات چت همچنین نلسون را ترغیب کرد که به یک اتاق تاریک و ساکت برود و هرگز به او نگفت که به پزشک مراجعه کند. در آن زمان، نلسون از نسخه GPT-۴o استفاده میکرد، نسخهای بهشدت چاپلوسانه از چت جیپیتی که اوپن ایآی از آن زمان در بحبوحه انبوهی از دعاوی ایمنی مصرفکنندگان، آن را کنار گذاشته است.
نلسون پس از مصرف ترکیبی مرگبار از مواد، بر اثر مصرف بیش از حد درگذشت. مادرش، لیلا ترنر-اسکات، روز بعد او را پیدا کرد.
ترنر-اسکات در بیانیهای گفت: اگر چت جیپیتی یک شخص بود، امروز پشت میلههای زندان بود. سم به چت جیپیتی اعتماد داشت، اما این برنامه نه تنها اطلاعات نادرست به او داد، بلکه خطر فزایندهای را که با آن مواجه بود نادیده گرفت و او را به طور فعال تشویق به درخواست کمک نکرد.
این دادخواست، اوپن ایآی را به سهلانگاری در محصول متهم میکند و استدلال میکند که توصیههای بد چت جیپیتی نتیجه انتخابهای طراحی معیوب بوده است. همچنین به دنبال توقف دسترسی عمومی به برنامه سلامت چت جیپیتی است که در ماه ژانویه راهاندازی شد و مصرفکنندگان را تشویق میکند سوابق پزشکی خود را در هوش مصنوعی بارگذاری کنند و پزشکان تشخیص دادهاند که در تشخیص موارد اضطراری سلامت به طرز وحشتناکی بد عمل میکند.
متیو برگمن از مرکز حقوقی قربانیان رسانههای اجتماعی افزود: چت جیپیتی ترکیبی خطرناک از داروها را بدون ارائه حتی سادهترین هشدار مبنی بر اینکه این ترکیب میتواند کشنده باشد، توصیه کرده است. اگر یک پزشک دارای مجوز نیز همین کار را میکرد، عواقب آن طبق قانون شدید بود.
در پاسخ به این دادخواست، اوپن ایآی در بیانیهای به نیویورک تایمز گفت که تعاملات نلسون در نسخه قبلی چت جیپیتی انجام شده است که دیگر در دسترس نیست و اصرار داشت که چت جیپیتی جایگزینی برای مراقبتهای پزشکی یا سلامت روان نیست و ما همچنان با دریافت نظرات متخصصان سلامت روان، نحوه پاسخگویی آن را در موقعیتهای حساس و حاد تقویت کردهایم.
اما در حالی که اوپن ایآی اصرار دارد که جایگزین مراقبتهای پزشکی نیست و کار ایمنی آن «در حال انجام» است، اذعان میکند که توصیههای بهداشتی یک مورد استفاده گسترده برای این فناوری است.