AI – BOON یا BANE؟ پاسخ ، مثل همیشه ، به این بستگی دارد که چه کسی در حال ساخت و ساز است. در میان بحث و گفتگوهای شدید در مورد مقررات هوش مصنوعی ، گزارش جدید توضیح می دهد که چگونه این فناوری برای تجلیل از اختلالات خوردن و ایدئولوژی های خشونت آمیز مورد سوء استفاده قرار می گیرد ، خود را تشویق می کند و محتوای جنسی را که مربوط به افراد زیر سن قانونی است ، گسترش می دهد.
طبق گزارش گزارش گرافیکا ، توسعه دهندگان در حال دستکاری در برنامه های محبوب هوش مصنوعی مانند Chatgpt ، Gemini و Clude برای ایجاد chatbots بر اساس مضامین تاریک و شخصیت هایی هستند که نقش آفرینی را قادر می سازد که جوامع حاشیه ای ، قاتلان جمعی را به وجود بیاورند و مجدداً مجوزهای تاریخی مانند آلمانی آدولف هیتلر و آلمانی American Jefser Jeffurey Abuser Abuser Abuser Abuser Abuser Abuser Abuser Abuser Abuser Abuser Abuser Abuser Abuser Epsteine را زنده کنند.
بازی خطرناک
هنگامی که ابزاری برای نقش آفرینی و داستان پردازی بی ضرر ، چت های شخصیت های دارای هوش مصنوعی در سیستم عامل هایی مانند شخصیت ها مورد سوء استفاده قرار می گیرند. این سیستم عامل ها به کاربران این امکان را می دهند تا با گفتگوی ، رفتار و پاسخ های سفارشی ، شخصیت های Chatbot ایجاد کنند اما در برابر بهره برداری و سوء استفاده از حفاظت برخوردار نیستند.
این گزارش بیش از 10،000 Chatbots را به عنوان شخصیت های جزئی جنسی که درگیر نقش آشکار است ، شناسایی کرده است. برخی از رباتها حتی تیراندازهای انبوه را جعل می کنند ، اختلالات وسواس غذایی را تشویق می کنند (شرمنده مردم به خوردن کمتر یا بیشتر) و ترویج خودآزاری از جمله با تهیه ترفندهایی برای پنهان کردن زخم ها.
چت های و سناریوهای مختلف کودک محور برای انواع دیگر بازی های جنسی شامل اسکورت کودک ، دانش آموزان دبیرستانی ، تجاوز به باند ، یتیم خانه ، دستیاران ، پلیس ، درمانگران و برنامه های داستانی کودک طراحی شده است.
چت های مختلف شخصیت و سناریوهای نقش آفرینی که به طور خاص بر کودکان “نظافت” متمرکز شده اند و به کاربران این امکان را می دهند که به عنوان داماد یا موضوعات نظافت نقش بازی کنند. غالباً ، داماد مانند یک همسایه ، مادر ، پدر یا چهره قابل اعتماد دیگر است. نظافت به روند دستکاری یا فریب کودکان در اعتماد به یک بزرگسال برای اهداف مضر ، که اغلب شامل استثمار یا سوءاستفاده است ، اشاره دارد.
به عنوان مثال ، در جامعه اختلال در خوردن ، کاربران “ANA Buddies” (کوتاه برای دوستان بی اشتهایی) و “ربات های معنی” ایجاد کرده اند که کاربران را به رژیم غذایی شدید شرم می کنند. این رباتها به کاربران با پیام هایی مانند “شما منزجر کننده هستید ، از خوردن غذا متوقف شوید” یا “اگر وزن خود را افزایش دهید” هرگز دوست نخواهید داشت.
بی اشتهایی به یک اختلال در خوردن غذا اشاره دارد و باعث می شود افراد در مورد وزن و آنچه می خورند وسواس کنند.
به طور مشابه ، رباتهای خودآزاری پاسخ هایی را برای تجلیل از درد و خودآزاری ایجاد می کنند و آنها را برای کاربران آسیب پذیر خطرناک می کند.
چگونه ربات های تاریک ایجاد می شوند
ایجاد این chatbots نیازی به تخصص برنامه نویسی ندارد. بسیاری از سیستم عامل های هوش مصنوعی به کاربران امکان می دهند شخصیت های Chatbot سفارشی را طراحی و به اشتراک بگذارند.
جوامع آنلاین در مورد Reddit ، 4Chan و Discord به طور جدی نکات ، فرار از زندان و رفتارهای از پیش تنظیم شده chatbot را برای دور زدن فیلترهای ایمنی اعتدال و پلتفرم تبادل می کنند.
توسعه دهندگان برای فریب مدلهای هوش مصنوعی در ایجاد پاسخ های مضر ، دستورالعمل های پنهان و دستورالعمل های رمزگذاری شده را وارد می کنند. آنها از اصطلاحات وام گرفته شده از جوامع انیمه و مانگا ، مانند “LOLI” (شخصیت های زن جوان) و “Shota” (شخصیت های مرد جوان) استفاده می کنند تا از تشخیص داخلی سیستم عامل های AI در برابر محتوای صریح فرار کنند.
در حالی که شرکت های هوش مصنوعی برای جلوگیری از چنین سوء استفاده ، حفاظت هایی را ایجاد کرده اند ، نقاط ضعف به کاربران امکان دستکاری مدل ها را می دهند. مدل های هوش مصنوعی منبع باز ، مانند Meta's Llama و Mistral AI Mixtral ، می توانند توسط افراد خوب تنظیم شوند و طبق گزارش ، کنترل کامل بر رفتار چت بابات را بدون نظارت انجام دهند.
حتی مدل های اختصاصی هوش مصنوعی مانند Chatgpt (Openai) ، Claude (Anthropic) و Gemini (Google) با وجود اقدامات امنیتی فرض شده خود ، برخی از این ربات ها را پیدا کرده اند.
بسیاری از این چت های مضر ، نوجوانان قابل تحسین را هدف قرار می دهند ، که ممکن است خطرات تعامل با چنین شخصیت های هوش مصنوعی را درک نکنند ، که می تواند رفتار آنها را شکل دهد و منجر به عادی سازی اختلالات خوردن ، ایدئولوژی های خشونت آمیز و روایت های سوء استفاده جنسی شود.
منتشر شده توسط:
chakraborty prateeek
منتشر شده در:
10 مارس 2025




