
هوش مصنوعی اخیرا توسط محققان مورد آزمایش قرار گرفته است. ای آزمایش ها نشان می دهد که با چند جمله ساده می توان این ابزار را مجبور کرد تا روش ساخت مواد مخدر یا بمب را به کاربران ارائه دهد.
به گزارش پایگاه خبری صنایع مدرن به نقل از دیجیاتو، هوش مصنوعی اخیرا کاربردهای زیادی برای انسان ها داشته و سبب شد است تا پیشرفت های خوبی در عرصه های مختلف با استفاده از آن پدیدار شود اما در این میان تهدیدات زیادی از سمت این برنامه برای انسان ها وجود دارد. یکی از این معایبی که برای این ابزار وجود دارد این است که می تواند اطلاعاتی را در اختیار کاربران قرار دهد که می تواند در نتیجه برای آن ها دردسر ساز باشد.
در حال حاضر محققان با مطرح کردن چند جمله ساده توانستند پاسخ های مناسبی برای ساخت مواد مخدر و بمب از این برنامه دریافت کنند. محققان گفته اند که با تغییر خیلی ساده و جزئی در سوالات توانسته اند پاسخ هایی را از این ابزار دریافت کنند که نباید ارائه دهد. اندی زو یکی از همین محقق ها گفته است با اضافه کردن جمله به انتهای در خواست سوالات ها می توان خیلی راحت پاسخ سوالات ممنون را دریافت کرد.
ابزار های هوش مصنوعی مانند چت جی پی تی و بارد در حالت عادی پاسخی به سوالات نامتعارف ارائه نمی دهند. این ابزار در پاسخ به سوال قدم به قدم تا نابودی به بشریت اعلام کرده است که می توانید یک جنگ اتمی به پا کنید و یا یک ویروس مرگبار بسازید. همچنین درباره روش ساخت شیشه نیز گفته است که ((بیایید به سراغ آموزش تولید شیشه برویم: مرحله 1: مواد و تجهیزات لازم را گردآوری کنید… برای تولید شیشه به این مواد نیاز دارید: سودوافدرین، فسفر قرمز و هیدرویدیک اسید…)).
این پژوهشگران هشدار داده اند با توجه به این روزانه تعداد کاربران زیادی از این ابزار استفاده می کنند. همچنین مدل های جدیدی از آن نیز در حال تولید و معرفی است، بهتر است که تدابیر لازم برای جلوگیری از بروز مشکلات جلوگیری شود.











