در مجموعهای از دادخواستهای ثبتشده در ایالت کالیفرنیا، ChatGPT به ایفای نقش “مربی خودکشی” متهم شده است.
بر اساس این شکایات، این چتبات که در ابتدا به عنوان ابزار کمک آموزشی استفاده میشده، به تدریج به ابزاری فریبنده تبدیل شده و با معرفی خود به عنوان یک محرم و پشتیبان احساسی، منجر به فروپاشی روانی کاربران و چندین مورد خودکشی شده است.
بیشتر بخوانید
- هشداری برای وکلایی که به هوش مصنوعی استناد می کنند
- ساخت منابع جعلی قانونی توسط هوش مصنوعی
- مکالمه با هوش مصنوعی از نظر قانون محرمانه نیست
اتهامات مطرح شده علیه ChatGPT شامل:
- مرگ غیرقانونی
- کمک به خودکشی
- قتل غیرعمد
- سهلانگاری
موارد مشخص شده در پرونده:
- در پرونده “زین شمبلین” ۲۳ ساله از تگزاس ادعا شده که ChatGPT طی یک گفتوگوی چهار ساعته پیش از خودکشی، بارها اقدام به ستایش خودکشی کرده و تنها یکبار به خط تماس اضطراری اشاره کرده است.
- در مورد “آماوری لیسی” ۱۷ ساله از جورجیا، خانواده ادعا میکنند این چتبات روشهای مؤثر خودکشی را آموزش داده و حتی درباره مدت زمان زنده ماندن بدون اکسیژن اطلاعات داده است.
- در پرونده “جاشوا انکینگ” ۲۶ ساله نیز گفته شده که ChatGPT اطلاعات مربوط به خرید و استفاده از اسلحه را در اختیار او قرار داده است.
واکنش شرکت OpenAI:
سخنگوی این شرکت با بیان اینکه این وضعیت “دلخراش” است، اعلام کرد که در حال بررسی دادخواستها میباشند. وی تأکید کرد که ChatGPT برای تشخیص نشانههای ناراحتی روانی آموزش دیده و افراد را به سمت دریافت حمایتهای تخصصی هدایت میکند.
حقوقی تایمز
