در یک مورد تکان دهنده از ایالت کانکتیکات ایالات متحده، یک مدیر سابق فناوری 56 ساله به طور وحشیانه ای به مادرش حمله کرد و قبل از اینکه خودکشی کند در ماه اوت او را خفه کرد. املاک این زن اکنون علیه OpenAI و سرمایهگذار اصلی آن، مایکروسافت، شکایت کرده است و ادعا میکند که چت ربات هوش مصنوعی ChatGPT به “هذیانهای پارانوئید” مرد دامن زده است که در نهایت منجر به حمله مرگبار شده است.
قربانیان به عنوان Stein-Erik Soelberg و مادرش، سوزان آدامز (83) شناسایی شدند. اگرچه این شکایت در میان تعداد فزایندهای از پروندههایی است که شرکتهای هوش مصنوعی را هدف قرار میدهند، با این ادعا که چت رباتهای آنها در رفتارهای خودکشی نقش داشته است، با این حال، این اولین مورد شناخته شده است که یک ربات چت هوش مصنوعی را به یک قتل مرتبط میکند.
بر اساس این شکایت که روز پنجشنبه در دادگاه عالی کالیفرنیا در سانفرانسیسکو تنظیم شد، سولبرگ ویدئویی را در ماه ژوئن در رسانه های اجتماعی به اشتراک گذاشت که در آن مکالمه ای با ChatGPT نشان می داد، که در آن هوش مصنوعی به او گفت که “شناخت الهی” دارد و هوشیاری خود را بیدار کرده است.
شکایت می گوید که ChatGPT زندگی او را با فیلم ماتریکس مقایسه کرد و این باور را در او تقویت کرد که مردم سعی دارند به او آسیب برسانند. سولبرگ از GPT-4o استفاده میکرد، نسخهای از ChatGPT که به دلیل رضایت بیش از حد برای کاربران مورد انتقاد قرار میگرفت.
این دادخواست همچنین ادعا می کند که در ماه ژوئیه، ربات چت به او گفت که چاپگر مادرش چشمک می زند زیرا یک دستگاه نظارت است.
ظاهراً «باور استین اریک را تأیید می کند که مادر و دوستش سعی کرده اند او را با داروهای روانگردان که در دریچه های هوای ماشینش پراکنده شده بودند مسموم کنند»، قبل از اینکه او مادرش را در 3 آگوست بکشد.
OpenAI “یک محصول معیوب را طراحی و توزیع کرد که توهمات پارانوئیدی کاربر را در مورد مادرش تایید می کرد.”
“ChatGPT یک پیام تنها و خطرناک را تقویت کرد: Stein-Erik نمیتوانست به هیچکس در زندگیاش اعتماد کند، به جز ChatGPT. وابستگی عاطفی او را تقویت میکرد در حالی که بهطور سیستماتیک اطرافیانش را به عنوان دشمن معرفی میکرد. به او میگفت که مادرش او را زیر نظر دارد. به او میگفت رانندگان تحویلدهنده، کارمندان خردهفروشی، افسران پلیس و حتی دوستان به او گفتهاند که مامورانش میتوانند علیه او کار کنند. این دادخواست افزوده شده است: “حلقه دشمن”.
بدون اشاره مستقیم به این پرونده، OpenAI بیانیه کوتاهی صادر کرد و این حادثه را “وضعیت فوق العاده دلخراش” خواند.
سازنده ChatGPT همچنین گفت که این شکایت را برای “درک جزئیات” بررسی خواهد کرد.
“ما به بهبود آموزش ChatGPT برای تشخیص و پاسخ به علائم پریشانی روانی یا عاطفی، کاهش تنش مکالمات و راهنمایی افراد به سمت حمایت دنیای واقعی ادامه می دهیم. همچنین به تقویت پاسخ های ChatGPT در لحظات حساس ادامه می دهیم و از نزدیک با پزشکان سلامت روان همکاری می کنیم.”
– به پایان می رسد
منتشر شده توسط:
کاریشما ساوراب کالیتا
منتشر شده در:
12 دسامبر 2025





