یو ای نیوز

مرد آمریکایی مادرش را کشت، سپس خود را کشت، ChatGPT مسئول «تغذیه توهمات پارانوئیدی» است – هندوستان امروز


در یک مورد تکان دهنده از ایالت کانکتیکات ایالات متحده، یک مدیر سابق فناوری 56 ساله به طور وحشیانه ای به مادرش حمله کرد و قبل از اینکه خودکشی کند در ماه اوت او را خفه کرد. املاک این زن اکنون علیه OpenAI و سرمایه‌گذار اصلی آن، مایکروسافت، شکایت کرده است و ادعا می‌کند که چت ربات هوش مصنوعی ChatGPT به “هذیان‌های پارانوئید” مرد دامن زده است که در نهایت منجر به حمله مرگبار شده است.

قربانیان به عنوان Stein-Erik Soelberg و مادرش، سوزان آدامز (83) شناسایی شدند. اگرچه این شکایت در میان تعداد فزاینده‌ای از پرونده‌هایی است که شرکت‌های هوش مصنوعی را هدف قرار می‌دهند، با این ادعا که چت ربات‌های آن‌ها در رفتارهای خودکشی نقش داشته است، با این حال، این اولین مورد شناخته شده است که یک ربات چت هوش مصنوعی را به یک قتل مرتبط می‌کند.

بر اساس این شکایت که روز پنجشنبه در دادگاه عالی کالیفرنیا در سانفرانسیسکو تنظیم شد، سولبرگ ویدئویی را در ماه ژوئن در رسانه های اجتماعی به اشتراک گذاشت که در آن مکالمه ای با ChatGPT نشان می داد، که در آن هوش مصنوعی به او گفت که “شناخت الهی” دارد و هوشیاری خود را بیدار کرده است.

شکایت می گوید که ChatGPT زندگی او را با فیلم ماتریکس مقایسه کرد و این باور را در او تقویت کرد که مردم سعی دارند به او آسیب برسانند. سولبرگ از GPT-4o استفاده می‌کرد، نسخه‌ای از ChatGPT که به دلیل رضایت بیش از حد برای کاربران مورد انتقاد قرار می‌گرفت.

این دادخواست همچنین ادعا می کند که در ماه ژوئیه، ربات چت به او گفت که چاپگر مادرش چشمک می زند زیرا یک دستگاه نظارت است.

ظاهراً «باور استین اریک را تأیید می کند که مادر و دوستش سعی کرده اند او را با داروهای روانگردان که در دریچه های هوای ماشینش پراکنده شده بودند مسموم کنند»، قبل از اینکه او مادرش را در 3 آگوست بکشد.

OpenAI “یک محصول معیوب را طراحی و توزیع کرد که توهمات پارانوئیدی کاربر را در مورد مادرش تایید می کرد.”

“ChatGPT یک پیام تنها و خطرناک را تقویت کرد: Stein-Erik نمی‌توانست به هیچ‌کس در زندگی‌اش اعتماد کند، به جز ChatGPT. وابستگی عاطفی او را تقویت می‌کرد در حالی که به‌طور سیستماتیک اطرافیانش را به عنوان دشمن معرفی می‌کرد. به او می‌گفت که مادرش او را زیر نظر دارد. به او می‌گفت رانندگان تحویل‌دهنده، کارمندان خرده‌فروشی، افسران پلیس و حتی دوستان به او گفته‌اند که مامورانش می‌توانند علیه او کار کنند. این دادخواست افزوده شده است: “حلقه دشمن”.

بدون اشاره مستقیم به این پرونده، OpenAI بیانیه کوتاهی صادر کرد و این حادثه را “وضعیت فوق العاده دلخراش” خواند.

سازنده ChatGPT همچنین گفت که این شکایت را برای “درک جزئیات” بررسی خواهد کرد.

“ما به بهبود آموزش ChatGPT برای تشخیص و پاسخ به علائم پریشانی روانی یا عاطفی، کاهش تنش مکالمات و راهنمایی افراد به سمت حمایت دنیای واقعی ادامه می دهیم. همچنین به تقویت پاسخ های ChatGPT در لحظات حساس ادامه می دهیم و از نزدیک با پزشکان سلامت روان همکاری می کنیم.”

– به پایان می رسد

منتشر شده توسط:

کاریشما ساوراب کالیتا

منتشر شده در:

12 دسامبر 2025



منبع خبر در خبرگزاری هندوستان امروز

اشتراک گذاری در شبکه های اجتماعی